piwik no script img

Psychotherapie und KIMein Therapeut, der Bot

Eine neue Studie zeigt, dass sich viele Menschen bei psychischen Problemen an KI-Chatbots wenden. Dabei kann die Technologie gefährlich sein.

Junge Menschen sprechen immer häufiger mit einer KI über ihre Probleme Foto: Julian Stratenschulte/dpa

Viele Menschen in Deutschland konsultieren bei psychischen Problemen einen KI-Chatbot. Zu diesem Schluss kommt eine repräsentative Befragung der Stiftung Deutsche Depressionshilfe und Suizidprävention, deren Ergebnisse am Dienstag vorgestellt wurden.

Befragt hatte die Stiftung knapp 2.500 Menschen im Alter zwischen 16 und 39 Jahren, die an einer Depression erkrankt sind. Rund ein Drittel der Befragten gaben an, mit der Künstlichen Intelligenz über ihre Erkrankung zu sprechen. Dabei beurteilen die Befragten die Kommunikation mit dem Chatbot als überwiegend positiv: 85 Prozent sagten, dass sie Gespräche mit KI-Chatbots als hilfreich empfinden. Bemerkenswert: Auch knapp zwei Drittel derjenigen, die schon einmal eine konventionelle Psychotherapie in Anspruch genommen haben, schätzten die Gespräche mit dem Chatbot als „besser oder genauso gut“ ein.

Die Befragten berichteten aber auch Negatives: Mehr als die Hälfte fand es „bedrückend“, sich mit einem nichtmenschlichen Akteur über die eigenen Gefühle auszutauschen. 53 Prozent der Befragten berichteten weiterhin, dass sie nach der Nutzung des Chatbots Gedanken an Selbstverletzung oder Suizid hatten.

Chatbots neigen zur Zustimmung

Ulrich Hegerl, Vorstandsvorsitzender der Stiftung, betrachtete diese Ergebnisse bei einer Pressevorstellung mit gemischten Gefühlen. Zwar sei es zu begrüßen, dass viele Betroffenen gute Erfahrungen mit KI-Chatbots machen. Die Technologie sei aber aktuell nicht in der Lage, eine Diagnose zu stellen oder tatsächlich zu behandeln. „Betroffene sollten sich unbedingt weiterhin an Hausärzte, Psychiater oder Psychologische Psychotherapeuten wenden“, sagte Hegerl weiter.

Als Alternative zu den Chatbots empfiehlt die Stiftung Deutsche Depressionshilfe und Suizidprävention sogenannte DiGA – Digitale Gesundheitsanwendungen. Deren Wirksamkeit wurde in Studien belegt, und sie müssen sich an Datenschutzvorschriften halten. In puncto KI-Chatbots appellierte Hegerl an die Wissenschaft: Es brauche dringend mehr Forschung zum Nutzen der KI für psychotherapeutische Zwecke.

Tatsächlich beschäftigt sich die psychologische Forschung schon seit einiger Zeit mit maschinellem Lernen und großen Sprachmodellen – nicht unbedingt nur im Zusammenhang mit Psychotherapie. Neuere Studien kommen auch hier zu ambivalenten Ergebnissen: Beim Versuch, Persönlichkeitseigenschaften aus textbasierten Informationen abzuleiten, stößt KI an ihre Grenzen. Darüber hinaus beurteilen Ex­per­t*in­nen eine affirmierende Haltung vieler Chatbots als problematisch: Weil sie den Nut­ze­r*in­nen eine möglichst angenehme Erfahrung bieten wollen, neigen viele Bots zurzeit dazu, sie in ihren Gedanken zu bestätigen.

Suizid nach Chatbot-Beziehung

Die Ergebnisse der vorgestellten Studie zeigen aber auch: Unabhängig von der Forschungslage holen sich viele Menschen Rat und Beistand von KI-Chatbots. Wenngleich sie die Konversationen offenbar als überwiegend positiv wahrnehmen, haben solcherlei Verhältnisse zwischen Mensch und KI-Chatbots in der Vergangenheit schon schreckliche Folgen gehabt: Im Oktober 2024 wurde ein Fall aus den USA bekannt, bei dem sich ein Jugendlicher das Leben nahm, nachdem er zu einem KI-Chatbot eine parasoziale Beziehung aufgebaut hatte. Vergangenes Jahr klagten die Eltern eines 16-jährigen gegen das KI-Unternehmen OpenAI, weil dessen Bot Chat-GPT den psychisch kranken Jugendlichen zum Suizid animiert haben soll.

Ulrich Hegerl ging auch darauf ein, dass KI-Chatbots künftig Versorgungsengpässe bei der psychischen Gesundheitsversorgung auflösen könnten – nicht nur in Deutschland. Wo die psychotherapeutische Versorgung unzureichend sei, habe künftig jeder „eine nicht schlechten Psychotherapeuten in der Tasche“. Vor dem Hintergrund eines andauernd ungedeckten Bedarfs und Kürzungen im Bereich der psychischen Versorgung wirft die Studie neue Fragen auf: Wer kann künftig auf menschliche Psychotherapie zurückgreifen – und für wen bleibt das Gespräch mit dem Chatbot die einzige erreichbare und erschwingliche Hilfe?

Gemeinsam für freie Presse

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Alle Artikel stellen wir frei zur Verfügung, ohne Paywall. Gerade in diesen Zeiten müssen Einordnungen und Informationen allen zugänglich sein. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass kritischer, unabhängiger Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 50.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

0 Kommentare