• Der Psychologe David Ebert warnt davor, bei psychischen Problemen allein auf Chatbots zurückzugreifen.
  • Nach einer Studie haben rund zwei Drittel der 16- bis 39-Jährigen bei seelischen Problemen schon einmal mit KI kommuniziert.
  • Ein Großteil der Nutzer beschreibt die Gespräche als hilfreich, allerdings berichten auch 53 Prozent von verstärkten Gedanken an Selbstverletzung oder Suizid.

Der Psychologe David Ebert warnt davor, sich bei psychischen Problemen allein auf Künstliche Intelligenz zu verlassen. Der Professor für Psychologie und digitale psychische Gesundheitsversorgung an der Technischen Universität München sagte MDR AKTUELL, eine KI sei darauf ausgerichtet, die Sichtweise des Nutzers zu bestätigen, anstatt sie kritisch einzuordnen. Wenn es um etwa um Depressionen gehe, brauche es aber auch Widerspruch und "behutsame Konfrontation". KI ersetze keine therapeutische Beziehung. Ebert berichtete in diesem Zusammenhang von einem Fall in den USA, in dem eine KI einen Nutzer in seinem Vorhaben bestätigt habe, sich das Leben zu nehmen.

KI ersetzt keine therapeutische Beziehung.

David EbertPsychologe

Auch sei KI bei der diagnostischen Einordnung noch nicht gut genug. "KI ordnet psychische Erkrankungen immer wieder falsch ein und schlägt dementsprechend auch immer wieder falsche weitergehende Unterstützung vor", sagt David Ebert. Sie sei auf kurzfristige Hilfe ausgelegt, ein therapeutischer Prozess brauche aber oft viel Zeit.

Insbesondere in einer frühen Phase von depressiven Erkrankungen könne KI allerdings durchaus niedrigschwellige Unterstützung bieten, insbesondere deshalb, weil Betroffene oft lange brauchten, um sich etwa um eine Therapie zu bemühen.

Viele junge Menschen greifen bei seelischen Problemen auf KI zurück

Hintergrund ist eine Befragung der Stiftung Deutsche Depressionshilfe und Suizidprävention in Leipzig, nach der rund zwei Drittel der 16- bis 39-Jährigen bei seelischen Problemen schon einmal mit Künstlicher Intelligenz kommuniziert haben. Dabei geht es den Angaben zufolge häufig um allgemeine Probleme wie Stress, Trauer oder Liebeskummer, nicht zwingend um eine diagnostizierte Depression. Am häufigsten nutzen die Befragten demnach bekannte Systeme wie ChatGPT (77 Prozent).

Gleichzeitig zeigt die Studie: Auch bei ernsthaften Erkrankungen spielt KI eine Rolle. Mehr als ein Drittel der Befragten mit diagnostizierter Depression (35 Prozent) hat demnach in jüngerer Zeit mit Chatbots über die eigene Erkrankung gesprochen. Grund sei etwa, überhaupt jemanden zum Reden zu haben oder die Hoffnung, die Erkrankung besser in den Griff zu bekommen. Auch informieren sich viele Betroffene über Therapie- und Behandlungsmöglichkeiten.

Ein Großteil der Nutzer beschreibt die Gespräche demnach als hilfreich und unterstützend. Allerdings berichten auch 53 Prozent der Betroffenen von verstärkten Gedanken an Selbstverletzung oder Suizid nach der Nutzung von Künstlicher Intelligenz.

Stiftung Deutsche Depressionshilfe: Nicht nur mit "Ja-Sager" kommunizieren

Die Stiftung Deutsche Depressionshilfe warnt deshalb davor, bei psychischen Erkrankungen allein auf KI zurückzugreifen. Stiftungsleiter Ulrich Hegerl sagte MDR AKTUELL, eine KI bejahe immer das, was man sagt. Es brauche aber auch Menschen, die sagen, was man anders machen müsse. Man könne nicht immer nur mit einem "Ja-Sager" kommunizieren.

Die Stiftung rät, sich bei seelischen Probleme stattdessen an Ärzte und Therapeuten zu wenden: "Depression ist eine schwere, oft lebensbedrohliche Erkrankung, und Betroffene sollten sich unbedingt weiterhin an Hausärzte, Psychiater oder Psychologische Psychotherapeuten wenden." Wer digitale Unterstützung nutzen möchte, sollte auf geprüfte Angebote zurückgreifen.

Hilfe bei Depressionen oder Suizidgedanken

Sie haben suizidale Gedanken oder eine persönliche Krise? Die Telefonseelsorge hilft Ihnen! Sie können jederzeit kostenlos anrufen:
0 800 111 0 111
0 800 111 0 222
0 800 116 123.

Auf der Webseite www.telefonseelsorge.de finden Sie weitere Hilfsangebote, etwa per E-Mail oder im Chat.

MDR/dpa (mze)

Haftungsausschluss: Das Urheberrecht dieses Artikels liegt bei seinem ursprünglichen Autor. Der Zweck dieses Artikels besteht in der erneuten Veröffentlichung zu ausschließlich Informationszwecken und stellt keine Anlageberatung dar. Sollten dennoch Verstöße vorliegen, nehmen Sie bitte umgehend Kontakt mit uns auf. Korrektur Oder wir werden Maßnahmen zur Löschung ergreifen. Danke