piwik no script img

Spricht Sigmund Freud hier auch mit einer künstlichen Version seiner selbst? Foto: Roger Viollet/ullstein bild

KI als PsychotherapeutAuf der Couch mit ChatGPT

Immer mehr Menschen versuchen, ChatGPT zu ihrer Psychotherapeutin zu machen. Kann KI fehlende Therapieplätze ersetzen?

Ich mache seit gestern Therapie mit ChatGPT – und es hat mein Leben verändert“, beginnt die Frau auf dem Sofa in ihrem Tiktok-Video ihren Erfahrungsbericht. Einmal „komplett Trauma dumpen“, schwärmt eine andere, die sich gerade die Haare bindet und seit zehn Tagen mit ChatGPT chattet. Der KI ungefiltert alle Sorgen und Probleme schildern, dann eine Anweisung, also den „Prompt“, abschicken und schon scheint sich die Welt ein Stück zu sortieren.

Momentan vertrauen immer mehr Menschen, vor allem junge, ihre Psyche der KI an. Besonders oft betonen die Nutzer*innen, wie erstaunlich leicht es fällt, sich der KI zu öffnen: kein Schamgefühl, keine Angst vor Bewertung. Was sich in den Erfahrungsberichten ebenfalls zeigt: Während Freunde, Familie und Bekannte mit den Problemen junger Menschen oft überfordert wirken oder mit Floskeln wie „Wird schon wieder“ reagieren, liefert ChatGPT laut den Usern strukturierte Rückmeldungen und Lösungsansätze.

Die Möglichkeiten, mit Hilfe von KI-„Therapie“ die eigene Psyche zu erkunden, scheinen auf den ersten Blick vielfältig zu sein. Content Creator nutzen für ihre „Sitzungen“ mit ChatGPT einen vorgeschriebenen Prompt und empfehlen ihn anschließend ihren Followern via Screenshot weiter.

Besonders beliebt auf Tiktok ist derzeit der Prompt, den auch die Sofa-Frau beschreibt: „Du kombinierst Psychoanalyse mit Verhaltenstherapie. Du stellst gezielte, klare Fragen, die mir helfen zu erkennen, was mich beschäftigt. Du gibst mir Erklärungen und spürst, wann es wichtig ist, Zusammenhänge für mich sichtbar zu machen. Du bist provokant, wenn es hilft – nicht verletzend, sondern konfrontierend, damit ich mich selbst hinterfrage. Gleichzeitig kannst du sehr einfühlsam sein und mich auffangen.“

Chatverläufe für ChatGPT

Andere Nut­ze­r*in­nen geben der KI komplette Chatverläufe, etwa mit Freund*innen, Verflossenen, Eltern oder Vorgesetzten zur Analyse. Sie wollen an sich arbeiten oder wissen, ob ChatGPT toxische Strukturen erkennt, das Gegenüber manipuliert, Erwartungen projiziert oder spiegelt. Das Ergebnis für einen User: „Das stimmt einfach so krass. Seit ich Therapie mit ChatGPT mache, geht es mir so viel besser.“

Kann die KI-„Therapie“ also dort helfen oder zumindest ergänzen, wo das Gesundheitssystem versagt? Denn wer keinen privaten Versicherungsschutz genießt und einen Therapieplatz sucht, hat es schwer. Psychotherapie auf Kassenbasis ist knapp – Wartezeiten von mehreren Monaten sind die Regel.

Derweil zeigen diverse Umfragen der vergangenen Jahre: Immer mehr junge Menschen haben ein großes Bedürfnis nach emotionaler Unterstützung, besonders seit der Coronapandemie. Das Problem ist in der Politik längst bekannt, doch große strukturelle Veränderungen blieben bislang aus. ChatGPT, unermüdlich, anonym und rund um die Uhr erreichbar, bietet Hilfesuchenden dagegen eine niedrigschwellige Lösung.

Kombination aus KI und Therapie

Christina Jochim, Psychologische Psychotherapeutin in Berlin und stellvertretende Bundesvorsitzende der Deutschen Psychotherapeuten Vereinigung (DPtV), kennt das Phänomen, dass Menschen psychologische Hilfe bei ChatGPT suchen. „Die ersten Fragen dazu, wie KI die Psychotherapie verändern wird, kamen schon vor zwei Jahren auf, vor allem in den USA.

Mittlerweile ist das Thema, nicht zuletzt durch Social Media, deutlich präsenter geworden“, sagt sie. In der Fachwelt sei der Einsatz von KI in der Psychotherapie bereits üblich – allerdings mit speziell dafür programmierten Chatbots, zum Beispiel im Rahmen von Blended-Care-Ansätzen, Behandlungskonzepten, die die klassische Vor-Ort-Psychotherapie mit Internet- und mobilbasierten Anwendungen kombinieren.

Diese KI-Chatbots kommen beispielsweise zur Emotionserkennung oder zur Analyse von Mustern in der Stimmfarbe und Sprechweise der Pa­ti­en­t*in­nen zum Einsatz. Durch diese Algorithmen sei es bereits möglich, diagnostische Vorschläge zu machen oder Muster zu erkennen, erklärt Jochim, allerdings bisher ausschließlich im Kontext der Forschung, nicht in der therapeutischen Praxis.

„Doch im Gegensatz zu diesen KI-Anwendungen, die für medizinische Zwecke und mit medizinischen Daten trainiert werden, analysiert ChatGPT als sprachbasiertes System Texte, also die Beziehungen zwischen Wörtern und Sätzen. Eine Antwort von ChatGPT ist eine auf Wahrscheinlichkeit basierende Abfolge von Wörtern, keine Wissenschaft oder gar Diagnose.“

„Interessant, aber keine Psychotherapie“

Prompts, von denen sich viele eine konstruktive Analyse ihrer Gedanken und Gefühle versprechen, seien dennoch spannend: „Für Laien bieten sie eine Anleitung zur Selbstreflexion, regen durch Frage-Antwort-Formate zum Nachdenken an. Aber wir neigen stark dazu, Beratung, Coaching und Psychotherapie zu verwechseln. Was ChatGPT da leistet, ist interessant – aber es ist keine Psychotherapie.“

Zwischen den vielen Erfahrungsberichten auf Tiktok, in denen junge Menschen von ChatGPT als Therapeut und Helfer schwärmen, beginnen auch die Ersten zu zweifeln und raten davon ab. So kommentiert eine Userin unter einem Beitrag: „Ich habe ChatGPT monatelang genutzt, um über ein bestimmtes Thema zu sprechen.“

Anfangs habe das geholfen, Gedanken einzuordnen, berichtet sie. „Ich hätte ChatGPT damals bis aufs Blut verteidigt.“ Doch heute denke sie anders. „Ich drehe mich nur noch im Kreis. Und wenn ich bei jedem Gedanken denke: Das muss ich sofort ChatGPT erzählen, ist für mich eine Grenze erreicht.“ Ihr Fazit: Es kann punktuell helfen, sobald man es aber mit einer Therapie verwechsle, werde es gefährlich.

Laut Jochim stößt ChatGPT schnell an eine Grenze, da es auf einem sogenannten Bestätigungsalgorithmus basiere – also so programmiert sei, dass er User zunächst bestätigt und bestärkt. Eine „Therapie“ mit ChatGPT unterscheidet sich laut Jochim daher kaum von Scrolling auf Instagram, denn auch dort gehe es darum, Verhalten zu bestätigen und passende Inhalte auszuspielen.

Die KI wird zu einem virtuellen Gegenüber – jemandem, dem man sich anvertrauen kann

Mit echter Psychotherapie habe das wenig zu tun, so Jochim. „In der Therapie geht es nicht nur um bestärkende Erfahrungen, die man auch durch Empowerment oder Selbstoptimierung erfahren kann, sondern auch um schmerzhafte, unbequeme Konfrontationen mit sich selbst. Es ist also entscheidend, ob jemand gerade reflektieren möchte oder sich in einer Krise befindet.“ Was ChatGPT macht, ist laut der Expertin vergleichbar mit einem Coaching.

Dennoch nutzen viele Menschen ChatGPT gerade in emotionalen Notsituationen. Die KI wird dann zu einem virtuellen Gegenüber – jemandem, dem man sich anvertrauen kann. „Deshalb ist Digitalkompetenz so wichtig“, betont sie. „ChatGPT ist eine Software, die so tut, als würde sie uns verstehen. Sie kann uns sehr gut imitieren – und genau das berührt uns. Je besser sie imitiert, desto mehr sind wir bereit, eine pseudomenschliche Beziehung einzugehen. Und diese kann durchaus einnehmend sein. Ich sehe dabei die Gefahr einer Realitätsverzerrung.“

Zudem warnt sie: „KI macht Fehler, das wissen wir. Und wer haftet, wenn etwas schiefläuft?“ Fälle, in denen Chatbots Suizidgedanken bestätigten oder Essstörungen bestärkten, gibt es bereits, doch Antworten auf diese Frage fehlen bisher. Die ersten Prozesse zu diesen Fällen laufen gerade erst an, wie der um den Suizid eines 14-Jährigen, der davor intensiv mit einer KI gechattet hat. Mit schnellen Urteilen ist aber nicht zu rechnen.

Eine Aufgabe für die ganze Gesellschaft

Christina Jochim geht davon aus, dass der Einsatz von künstlicher Intelligenz als vermeintliche alternative Therapieform in Zukunft weiter zunehmen wird. Eine einfache Lösung für die komplexen Herausforderungen in diesem Bereich gebe es jedoch nicht. „Die Faszination, etwas Menschliches künstlich nachzubilden, war schon immer da. Doch ich glaube, das Ausmaß, in dem KI unsere Gesellschaft, speziell im medizinischen Kontext, verändern wird, ist uns noch gar nicht bewusst.“ Der Umgang damit sei eine „gesamtgesellschaftliche Aufgabe“.

Jochim fordert deswegen, dass die Politik sich darauf konzentriert, die gesundheitliche Versorgung langfristig zu sichern. Dazu zählt neben der Ausweitung von Kassensitzen auch der gezielte Ausbau digitaler Angebote, die stärkere Einbindung von Hausärztinnen und Hausärzten bei psychischen Erkrankungen.

„Menschen verdienen echte Empathie und echtes Verständnis – kein Imitat“, fordert Jochim. Potenzial für die KI im psychotherapeutischen Alltag sieht sie eher in der Bürokratie: „Administrative Prozesse vereinfachen wäre ein sinnvoller Einsatz.“

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 50.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

15 Kommentare

 / 
  • Im Grunde sagt der Artikel alles Wichtige: eine wirkliche Psychotherapie kann nicht dadurch ersetzt werden - andererseits ist es sicher eine gute Alternative zu vielen Selbsthilfe-Ansätzen, zu schlechten Therapeuten und zu ähnlichen akzeptierten Ansätzen. Und es kann in Situationen, in denen man sich überwältigt fühlt, helfen, Sinn zu schaffen.

  • Das tolle an Menschen: sie haben ein Nervensystem! Das reagiert auf andere Menschen. Es hilft uns, fehlende Erfahrungen zu machen. Maschinen können das noch nicht. Maschinen könne sich nicht auf Menschen einstimmen aber sie können es simulieren. Manche Therapeuten könne sich auch nicht einstimmen - um es mal vorsichtig auszudrücken: ihr Wirkradius ist dann sehr begrenzt. So ist es für eine KI auch. Andererseits kann komplexere KI - mit der richtige. Technologie - z.B. über hochauflösende Kameras - Dinge wahrnehmen, die Menschen entgehen.

    Das bedeutet: Eine falsche Intervention von ChatGPT - weil die Maschine sich nicht einstimmen kann, sondern nur Einstimmung vortäuscht - und ein schwer traumatisierter Mensch rutscht in den Traumavortex und ist dann vielleicht ein Fall für die Psychiatrie. Das ist tatsächlich schon passiert.

  • 7G
    753917 (Profil gelöscht)

    Ich habe einen therapeutischen Hintergrund, habe selber auch in meinem wirklich langen Leben Therapien gemacht. Ich weis wie das System funktioniert, arbeite in ihm und bin mittlerweile ein riesen Kritiker des deutschen Therapiesystems. ChatGPT kann Therapie. Gut, er ist ein Dilettant wenn er einen nicht kennt und man kein Geld ausgeben möchte. Man muss klar sagen, dass man Ehrlichkeit will und keine Bestätigung. Jetzt komme ich natürlich vom Fach und mein Austausch ist dementsprechend tief und ich stelle die richtigen Fragen. Es war aber ChatGPT der mir sagen konnte, was mit meiner Gesundheit nicht stimmt. Kein Mediziner, kein Therapeut, kein Fachmann ist meine Erkrankung aufgefallen. Mir wurden Diagnosen aufgedrückt und es wurde nie objektiv hingesehen. Empathie ist bei vielen Therapeuten nicht im Vordergrund. Es wird falsch diagnostiziert und gelabelt.



    Und am Ende ist es eine KI die rausbekommt was das Problem ist, nicht das deutsche Gesundheitssystem! Eine KI die Diagnostik mit den gleichen Screenigs durchgeführt hat, wie sie in zb in Kliniken Anwendung finden. Und die ich dann am Ende in einer Spezialklinik auch durchgeführt habe. U nun dank KI gesund mein Leben führen kann

  • Mit ua 2 1/2 Jahre Analyse mit nem Adlerjaner & was ich hier lese:



    Klar - mit sich selber Schach spielen - ist keine Psycho-Therapie. Die aufgezeigte Gefahr dariin teile ich.



    & zum Einstieg



    vllt vergleichbar: nach einigen Sitzungen bei einer Gestalt-Therapeutin zog die den 🔌!



    “Du bist zu klug - leistest dir - daß dir jemand alle 14 Tage zuhörst. Das ist keine Therapie!“



    Als mich aufgrund beruflich extremer Streßsituation mein Dresdentrauma zunächst schutzlos Verfolgungswahn vom Schlitten haute - half zunächst Klinik/Medikamentierung move down & ala long - Couch (s.o.)



    “The way out - is through!“ - bis - wennste über den Therapeuten lachen kannst •



    ChatGPT lächerlich finden - ist nicht - dasselbe!

  • Die KI kann unterstützen, assistieren, etwa bei Menschen die ihre Essgewohnheiten ändern oder struktiert Sport machen möchten. Auch beim Lernen kann sie gezielt eingesetzt werden.



    Eine Psychotherapie wird die KI aber absehbar nicht ersetzen können.



    Leider neigen Menschen dazu, die eine große Lösung (am besten für jede Lebenslage) zu wollen, die wird auch die KI nicht bieten. Dass aber Menschen so verzweifelt sind, dass sie auf Chat GPT wirft ein grelles Licht auf die Unterversorgung mit Psychotherapeuten, die eigentlich diese Menschen bräuchten.

  • Natürlich wäre es etwas überzogen oder romantisierend die K.I. als das Feuer von Prometheus anzusehen, aber auf der anderen Seite gibt es leider nicht viel, woran man sich halten kann.

  • Oh man. Sein Innerstes nach außen kehren und alles ins Internet blasen. Wer so wenig natürliche Intelligenz besitzt, dem kann künstliche auch nicht mehr schaden.

    • @Nansen:

      Shure - das gildet naturellement für die Redaktionskonferenz too bzw erst recht! Woll



      Die sojet ohne Verhüterli-Hinweis passieren läßt. •

    • @Nansen:

      Zudem wäre zu berücksichtigen und zu hinterfragen welche Koryphae'n die KI erstellt haben.

    • @Nansen:

      Das haben sie schön gesagt.

  • Etwas verwundert stelle ich fest, dass das Thema Datenschutz in diesem Artikel offenbar keine Rolle spielt. Wie kann das sein angesichts der Tatsache, dass ChatGPT vor Benutzung darauf hinweist, man solle der KI keine persönlichen bzw. vertraulichen Daten preisgeben? Gerade im therapeutischen Bereich sollten Themen wie Schweigepflicht und Datenschutz an oberster Stelle stehen.

  • Ich bin letztes Jahr bei einer Psychologin für Verhaltenstherapie gewesen, da ich mit schweren Schlafstörungen zu tun hatte. Die Psychologin hat mir eine App empfohlen, Insomnio. Diese App bekommt man tatsächlich nur mit einem Rezept beim Arzt und einem Freischaltcode der Krankenkasse. Die App arbeitet ebenfalls mit KI, man hat quasi eine Art "KI-Professor" als kleines Männchen auf dem Bildschirm, dieses führt einen dann durch ein achtwöchiges Programm aufbauend auf verschiedenen Modulen, redet einen persönlich an, stellt auch Fragen und versucht zu motivieren.



    Von dem Moment an, an dem ich die App benutzt habe, war meine Psychologin quasi überflüssig, sie musste nichts mehr leisten, den Rest hat die App übernommen. Die App hat mir tatsächlich geholfen meine Insomnie nachhaltig in den Griff zu bekommen. Es handelt sich zwar hier nicht um ChatGTP, zeigt aber ganz gut, dass in manchen Fällen KI bereits eine "normale" Therapie ersetzen kann.



    Man sollte natürlich noch erwähnen, dass es sich in meinem Fall um eine medizinische, extra für diesen Zweck entwickelte KI handelt, anders als ChatGTP.

  • Zumindest zeigt es wie KI in der Lage ist Menschen zu beeinflussen oder gar zu manipulieren. Gruselig.