
KI als Psychotherapeut: Auf der Couch mit ChatGPT
Immer mehr Menschen versuchen, ChatGPT zu ihrer Psychotherapeutin zu machen. Kann KI fehlende Therapieplätze ersetzen?
Ich mache seit gestern Therapie mit ChatGPT – und es hat mein Leben verändert“, beginnt die Frau auf dem Sofa in ihrem Tiktok-Video ihren Erfahrungsbericht. Einmal „komplett Trauma dumpen“, schwärmt eine andere, die sich gerade die Haare bindet und seit zehn Tagen mit ChatGPT chattet. Der KI ungefiltert alle Sorgen und Probleme schildern, dann eine Anweisung, also den „Prompt“, abschicken und schon scheint sich die Welt ein Stück zu sortieren.
Momentan vertrauen immer mehr Menschen, vor allem junge, ihre Psyche der KI an. Besonders oft betonen die Nutzer*innen, wie erstaunlich leicht es fällt, sich der KI zu öffnen: kein Schamgefühl, keine Angst vor Bewertung. Was sich in den Erfahrungsberichten ebenfalls zeigt: Während Freunde, Familie und Bekannte mit den Problemen junger Menschen oft überfordert wirken oder mit Floskeln wie „Wird schon wieder“ reagieren, liefert ChatGPT laut den Usern strukturierte Rückmeldungen und Lösungsansätze.
Die Möglichkeiten, mit Hilfe von KI-„Therapie“ die eigene Psyche zu erkunden, scheinen auf den ersten Blick vielfältig zu sein. Content Creator nutzen für ihre „Sitzungen“ mit ChatGPT einen vorgeschriebenen Prompt und empfehlen ihn anschließend ihren Followern via Screenshot weiter.
Besonders beliebt auf Tiktok ist derzeit der Prompt, den auch die Sofa-Frau beschreibt: „Du kombinierst Psychoanalyse mit Verhaltenstherapie. Du stellst gezielte, klare Fragen, die mir helfen zu erkennen, was mich beschäftigt. Du gibst mir Erklärungen und spürst, wann es wichtig ist, Zusammenhänge für mich sichtbar zu machen. Du bist provokant, wenn es hilft – nicht verletzend, sondern konfrontierend, damit ich mich selbst hinterfrage. Gleichzeitig kannst du sehr einfühlsam sein und mich auffangen.“
Chatverläufe für ChatGPT
Andere Nutzer*innen geben der KI komplette Chatverläufe, etwa mit Freund*innen, Verflossenen, Eltern oder Vorgesetzten zur Analyse. Sie wollen an sich arbeiten oder wissen, ob ChatGPT toxische Strukturen erkennt, das Gegenüber manipuliert, Erwartungen projiziert oder spiegelt. Das Ergebnis für einen User: „Das stimmt einfach so krass. Seit ich Therapie mit ChatGPT mache, geht es mir so viel besser.“
Kann die KI-„Therapie“ also dort helfen oder zumindest ergänzen, wo das Gesundheitssystem versagt? Denn wer keinen privaten Versicherungsschutz genießt und einen Therapieplatz sucht, hat es schwer. Psychotherapie auf Kassenbasis ist knapp – Wartezeiten von mehreren Monaten sind die Regel.
Derweil zeigen diverse Umfragen der vergangenen Jahre: Immer mehr junge Menschen haben ein großes Bedürfnis nach emotionaler Unterstützung, besonders seit der Coronapandemie. Das Problem ist in der Politik längst bekannt, doch große strukturelle Veränderungen blieben bislang aus. ChatGPT, unermüdlich, anonym und rund um die Uhr erreichbar, bietet Hilfesuchenden dagegen eine niedrigschwellige Lösung.
Kombination aus KI und Therapie
Christina Jochim, Psychologische Psychotherapeutin in Berlin und stellvertretende Bundesvorsitzende der Deutschen Psychotherapeuten Vereinigung (DPtV), kennt das Phänomen, dass Menschen psychologische Hilfe bei ChatGPT suchen. „Die ersten Fragen dazu, wie KI die Psychotherapie verändern wird, kamen schon vor zwei Jahren auf, vor allem in den USA.
Mittlerweile ist das Thema, nicht zuletzt durch Social Media, deutlich präsenter geworden“, sagt sie. In der Fachwelt sei der Einsatz von KI in der Psychotherapie bereits üblich – allerdings mit speziell dafür programmierten Chatbots, zum Beispiel im Rahmen von Blended-Care-Ansätzen, Behandlungskonzepten, die die klassische Vor-Ort-Psychotherapie mit Internet- und mobilbasierten Anwendungen kombinieren.
Diese KI-Chatbots kommen beispielsweise zur Emotionserkennung oder zur Analyse von Mustern in der Stimmfarbe und Sprechweise der Patient*innen zum Einsatz. Durch diese Algorithmen sei es bereits möglich, diagnostische Vorschläge zu machen oder Muster zu erkennen, erklärt Jochim, allerdings bisher ausschließlich im Kontext der Forschung, nicht in der therapeutischen Praxis.
„Doch im Gegensatz zu diesen KI-Anwendungen, die für medizinische Zwecke und mit medizinischen Daten trainiert werden, analysiert ChatGPT als sprachbasiertes System Texte, also die Beziehungen zwischen Wörtern und Sätzen. Eine Antwort von ChatGPT ist eine auf Wahrscheinlichkeit basierende Abfolge von Wörtern, keine Wissenschaft oder gar Diagnose.“
„Interessant, aber keine Psychotherapie“
Prompts, von denen sich viele eine konstruktive Analyse ihrer Gedanken und Gefühle versprechen, seien dennoch spannend: „Für Laien bieten sie eine Anleitung zur Selbstreflexion, regen durch Frage-Antwort-Formate zum Nachdenken an. Aber wir neigen stark dazu, Beratung, Coaching und Psychotherapie zu verwechseln. Was ChatGPT da leistet, ist interessant – aber es ist keine Psychotherapie.“
Zwischen den vielen Erfahrungsberichten auf Tiktok, in denen junge Menschen von ChatGPT als Therapeut und Helfer schwärmen, beginnen auch die Ersten zu zweifeln und raten davon ab. So kommentiert eine Userin unter einem Beitrag: „Ich habe ChatGPT monatelang genutzt, um über ein bestimmtes Thema zu sprechen.“
Anfangs habe das geholfen, Gedanken einzuordnen, berichtet sie. „Ich hätte ChatGPT damals bis aufs Blut verteidigt.“ Doch heute denke sie anders. „Ich drehe mich nur noch im Kreis. Und wenn ich bei jedem Gedanken denke: Das muss ich sofort ChatGPT erzählen, ist für mich eine Grenze erreicht.“ Ihr Fazit: Es kann punktuell helfen, sobald man es aber mit einer Therapie verwechsle, werde es gefährlich.
Laut Jochim stößt ChatGPT schnell an eine Grenze, da es auf einem sogenannten Bestätigungsalgorithmus basiere – also so programmiert sei, dass er User zunächst bestätigt und bestärkt. Eine „Therapie“ mit ChatGPT unterscheidet sich laut Jochim daher kaum von Scrolling auf Instagram, denn auch dort gehe es darum, Verhalten zu bestätigen und passende Inhalte auszuspielen.
Mit echter Psychotherapie habe das wenig zu tun, so Jochim. „In der Therapie geht es nicht nur um bestärkende Erfahrungen, die man auch durch Empowerment oder Selbstoptimierung erfahren kann, sondern auch um schmerzhafte, unbequeme Konfrontationen mit sich selbst. Es ist also entscheidend, ob jemand gerade reflektieren möchte oder sich in einer Krise befindet.“ Was ChatGPT macht, ist laut der Expertin vergleichbar mit einem Coaching.
Dennoch nutzen viele Menschen ChatGPT gerade in emotionalen Notsituationen. Die KI wird dann zu einem virtuellen Gegenüber – jemandem, dem man sich anvertrauen kann. „Deshalb ist Digitalkompetenz so wichtig“, betont sie. „ChatGPT ist eine Software, die so tut, als würde sie uns verstehen. Sie kann uns sehr gut imitieren – und genau das berührt uns. Je besser sie imitiert, desto mehr sind wir bereit, eine pseudomenschliche Beziehung einzugehen. Und diese kann durchaus einnehmend sein. Ich sehe dabei die Gefahr einer Realitätsverzerrung.“
Zudem warnt sie: „KI macht Fehler, das wissen wir. Und wer haftet, wenn etwas schiefläuft?“ Fälle, in denen Chatbots Suizidgedanken bestätigten oder Essstörungen bestärkten, gibt es bereits, doch Antworten auf diese Frage fehlen bisher. Die ersten Prozesse zu diesen Fällen laufen gerade erst an, wie der um den Suizid eines 14-Jährigen, der davor intensiv mit einer KI gechattet hat. Mit schnellen Urteilen ist aber nicht zu rechnen.
Eine Aufgabe für die ganze Gesellschaft
Christina Jochim geht davon aus, dass der Einsatz von künstlicher Intelligenz als vermeintliche alternative Therapieform in Zukunft weiter zunehmen wird. Eine einfache Lösung für die komplexen Herausforderungen in diesem Bereich gebe es jedoch nicht. „Die Faszination, etwas Menschliches künstlich nachzubilden, war schon immer da. Doch ich glaube, das Ausmaß, in dem KI unsere Gesellschaft, speziell im medizinischen Kontext, verändern wird, ist uns noch gar nicht bewusst.“ Der Umgang damit sei eine „gesamtgesellschaftliche Aufgabe“.
Jochim fordert deswegen, dass die Politik sich darauf konzentriert, die gesundheitliche Versorgung langfristig zu sichern. Dazu zählt neben der Ausweitung von Kassensitzen auch der gezielte Ausbau digitaler Angebote, die stärkere Einbindung von Hausärztinnen und Hausärzten bei psychischen Erkrankungen.
„Menschen verdienen echte Empathie und echtes Verständnis – kein Imitat“, fordert Jochim. Potenzial für die KI im psychotherapeutischen Alltag sieht sie eher in der Bürokratie: „Administrative Prozesse vereinfachen wäre ein sinnvoller Einsatz.“
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 50.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
Familienreservierungen bei der Bahn
Völlig überzogene Kritik
Eskalation in Nahost
Israel muss Irans Volk schonen
Angriff auf den Iran
Weil Israel es kann
Antimilitaristisches Aktionsnetzwerk
Der nächste Veteranentag kommt bestimmt
Debatte um Wehrpflicht
Wehret der Pflicht
Strafbarkeit von Holocaustvergleichen
Wir brauchen keine Metaphernpolizei