: „Man lagert das Denken aus“
Wird dümmer, wer KI-Chatbots wie ChatGPT verwendet? Nicht unbedingt, sagt der Forscher Michael Gerlich. Zwar sei die Gefahr real – aber es gibt eine Gegenstrategie
Interview Svenja Bergt
taz: Herr Gerlich, macht die Nutzung von KI-Chatbots wie ChatGPT dumm?
Michael Gerlich: Generell macht die Nutzung nicht dumm. Allerdings lädt generative KI, also Tools wie ChatGPT oder Microsofts Copilot, dazu ein, für den Menschen zu denken. Wenn man diese Dienste falsch nutzt, kann es dazu führen, dass man immer weniger denkt. Man lagert das Denken aus – und damit auch das kritische Denken.
taz: Auslagern – wie ist das gemeint?
Gerlich: Unser Gehirn kann sich nicht alles merken. Daher vergessen wir Dinge und lagern auch immer mal welche aus, was nicht unbedingt schlecht sein muss. Ein Beispiel: Als ich jung war, gab es noch keine Mobiltelefone. Da musste ich mir wichtige Festnetznummern merken, falls ich jemanden anrufen wollte. Heute weiß ich keine Nummern mehr, die sind alle in meinem Telefon. Das schafft im Gehirn Raum für Wichtigeres. Aber: Mit den Telefonnummern lagere ich nur Daten aus.
taz: Bei KI ist das anders?
Gerlich: Genau. Da werden nicht nur Daten ausgelagert, sondern ganze Denkprozesse. Denn die KI gibt mir Lösungen für Probleme. Den Effekt haben wir in einer Studie untersucht. Wir haben die Teilnehmenden gefragt: Was sind die Vorteile der Demokratie? Dabei sollten sie sich entweder erst mal selbst Gedanken machen oder die Frage direkt in einen KI-Chatbot eingeben. Bei Letzterem kommt ein Effekt aus der Psychologie zum Tragen, der Ankereffekt. Der beschreibt, dass Menschen stark von der ersten Information beeinflusst werden, die sie zu einer Sache bekommen.
taz: Deswegen funktioniert ein Preis wie 1,99 Euro, weil sich das Gehirn die 1 als Anker merkt.
Gerlich: Sich dann kritisch mit dieser ersten Information auseinanderzusetzen, ist deutlich schwieriger. Es gibt zudem weitere Befunde, die in eine ähnliche Richtung weisen. Forschende am MIT in Boston haben die Gehirnaktivität von Menschen untersucht, die ChatGPT für das Schreiben eines Essays nutzten. Dabei zeigten sich zwei zentrale Ergebnisse: Erstens fiel die neuronale Aktivierung im Vergleich zum eigenständigen Arbeiten geringer aus. Zweitens erinnerten sich die Probanden deutlich schlechter an Inhalte, die von der KI erzeugt worden waren, während selbst erarbeitete Inhalte auch einige Tage später noch besser erinnert wurden.
taz: Ab welcher Nutzungsschwelle könnten Menschen kritisches Denken verlernen?
Gerlich: Das kann man nicht sagen, wahrscheinlich ist es auch individuell unterschiedlich. Ohnehin ist nicht nur die Häufigkeit der Nutzung entscheidend, sondern noch ein anderer Faktor. Wenn ich bei uns in der Universität in Weiterbildungskursen für Menschen, die schon im Berufsleben stehen, frage, wofür sie generative KI einsetzen, kommt häufig die Antwort: für alles. Das heißt dann meist: Für alle Fragen im beruflichen und privaten Alltag, die man nicht mal im Vorbeigehen selbst löst. Und da kommt man in einen Bereich, in dem man sich Gedanken machen sollte.
taz: Sie haben in Ihrer Forschung festgestellt: Um die Leistungsfähigkeit des Gehirns zu erhalten, sollten wir KI anders nutzen. Was ist der Trick?
Gerlich: Der Trick ist, die kognitive Auslagerung, also das Abgeben der Denkprozesse an die KI, zu vermeiden. Dafür müssen wir nicht auf die Hilfe der KI verzichten, aber wir müssen erst mal selber denken. Wenn wir damit eine Grundlage haben, dann können wir die KI als eine Art Sparringpartner nutzen. Man muss sie etwa auffordern, Gegenargumente für die eigene Argumentation zu suchen. Oder Aussagen zu kritisieren.
taz: Durch die Nutzung von KI versprechen sich viele Menschen einen Effizienzgewinn. Der sollte dann zumindest kleiner ausfallen.
Gerlich: Natürlich dauert unser Ansatz länger. Dafür bringt er nicht nur deutlich bessere Ergebnisse, als wenn man nur die Frage an die KI weiterleitet – sie sind auch besser, als wenn man nur selbst denkt. Denn man ist quasi bis zum eigenen Gedankenmaximum gegangen und kann dieses dann mithilfe der KI erweitern. Damit erhält man neue Denkansätze, erweitert den eigenen gedanklichen Suchraum und vermeidet, weil man sich schon mit dem Thema auseinandergesetzt hat, den Ankereffekt. So schärft man im Ergebnis das eigene kritische Denken.
taz: Die wenigsten Menschen werden das so machen.
Gerlich: Ich denke, dass dies bislang eher die Ausnahme ist. Die meisten werden in die Bequemlichkeitsfalle tappen, und dazu laden die Modelle ja auch ein.
taz: Gibt es Bevölkerungsgruppen, für die dieses Risiko besonders groß ist?
Gerlich: Es gibt jedenfalls keine Bevölkerungsgruppe, die davor gefeit ist. Auch Menschen mit sehr viel Wissen und Kapazität zum kritischen Denken können dort hineintappen und sich einreden, dass es schon nicht so schlimm ist, weil sie sich ja hinterher noch kritisch damit auseinandersetzen. Aber ein besonders hohes Risiko gibt es natürlich in einem Umfeld, in dem es sehr auf Effizienz ankommt. Wenn der Druck hoch ist, etwa am Arbeitsplatz, dann wird die Zeit, die man eigentlich bräuchte, sich mit der KI-Antwort kritisch auseinanderzusetzen, als Erstes eingespart. So entsteht eine Vertrauensspirale: Je mehr ich die KI nutze, desto mehr vertraue ich ihr. Mit wachsendem Vertrauen nimmt die kognitive Auslagerung zu, während die kritische Auseinandersetzung abnimmt.
taz: Ein Teufelskreis.
Gerlich: Genau. Es gibt natürlich noch keine Langzeitstudien. Wir können nicht sagen, ob Leute, die das fünf, sechs Jahre machen, dümmer werden. Wahrscheinlich werden wir das auch nie wissen, weil man den Faktor KI-Nutzung nie isolieren kann. Über einen allgemeinen Rückgang menschlicher kognitiver Leistungsfähigkeit wird in der Forschung diskutiert, aber hier wäre ich mit pauschalen Aussagen sehr vorsichtig. Belastbarer ist die Aussage, dass generative KI in bestimmten Nutzungskontexten kognitive Auslagerung fördern und damit eigenständige Denkleistung schwächen kann.
taz: Das klingt dystopisch genug.
Gerlich: Es gibt jedenfalls schon Thinktanks mit dem Schwerpunkt nationale Sicherheit, die das Thema ernst nehmen. Denn was macht das mit einer Gesellschaft, wenn die Menschen ihre kognitive Leistungsfähigkeit einbüßen?
taz: Gibt’ s schon Antworten?
Gerlich: Noch nicht abschließend, aber es zeichnen sich einige ab. Zum Beispiel lässt sich generative KI ja dadurch manipulieren, dass man Einfluss nimmt auf die Daten, mit denen sie trainiert wird. Wenn dazu noch kommt, dass viele Menschen ohnehin durch die kognitive Auslagerung das kritische Denken verlernen, dann kann man sich da schon Sorgen machen.
taz: Wenn wir also neben dem Problem auch die Lösung kennen, aber der Weg dorthin einzig und allein durch Bequemlichkeit versperrt ist – was lässt sich tun?
Gerlich: Es gibt verschiedene Möglichkeiten. Man kann auf eine staatliche Regulierung dieser Dienste setzen, aber das halte ich für wenig wahrscheinlich. Das sind schließlich kommerzielle Dienste, die irgendwann mal Geld verdienen wollen. Und mal ehrlich: Wer nutzt Dienste, die einem das Leben weniger bequem machen? Das Einzige, was mir da einfällt, ist das Fitnesscenter, aber sonst geben wir doch unser Geld für Dinge aus, die unser Leben einfacher oder bequemer machen. Es wird also der harte Weg bleiben: Wir müssen als Individuen Verantwortung übernehmen.
taz: Kein Lichtblick?
Gerlich: Es gibt immerhin punktuell vielversprechende Ansätze, etwa das niederländische EduGPT. Das ist eine generative KI, die für den Bildungsbereich designt ist und zwar so, dass sie keine Antworten gibt, sondern hilft, selbst einen Weg zu finden. In Europa ist derzeit einiges an KI-Modellen in Entwicklung, in der Schweiz etwa das Open-Source-Modell Apertus. Bei solchen Projekten sehe ich am ehesten die Chance, sie so zu gestalten, dass es nicht zu dieser extremen kognitiven Auslagerung kommt.
taz: Was ist mit den Arbeitgebern? Generative KI einzusetzen, ist bei ihnen schwer in Mode. Müssten die nicht auch ein Interesse daran haben, dass ihre Mitarbeitenden nicht an kognitiver Leistungsfähigkeit verlieren?
Gerlich: Das sollte man meinen. Aber wir sehen bei Unternehmen nicht die Weiterbildungsoffensive für ihre Mitarbeitenden, die es bräuchte. Das zeigt sich auch an populären Ratgebertexten: „Die 10 besten Prompts, wie KI die Arbeit einfacher macht“ – so eine Nutzung führt zu kognitiver Auslagerung. Denn unsere Forschung zeigt: Lässt man sich von KI einfach die Lösung für ein Problem generieren, bringt das mittelmäßige Antworten – und damit letztlich ein mittelmäßiges Ergebnis.
taz: Ist also der Effizienzgewinn, mit dem oft argumentiert wird, ein Märchen?
Gerlich: Nein, der ist schon da. Firmen können jetzt Dinge auf mittelmäßigem Niveau viel schneller erledigen. Das ist aber ein Risiko für die Mitarbeiter: Wer, vereinfacht gesagt, 80 Prozent seiner Arbeit an die KI auslagert, ersetzt sich selbst. Denn die KI ist billiger. Die Mitarbeiter müssten also schauen, dass sie mit KI bessere Ergebnisse schaffen, als es die KI alleine hinkriegen würde. Qualität schafft die KI nicht alleine – sondern nur mit dem Menschen und dessen kritischem Denken. Und eigentlich sollten auch Arbeitgeber ein Interesse daran haben, dass sie nicht Mittelmäßiges schneller bekommen, sondern Besseres – für das es dann etwas mehr Zeit braucht.
Gemeinsam für freie Presse
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Alle Artikel stellen wir frei zur Verfügung, ohne Paywall. Gerade in diesen Zeiten müssen Einordnungen und Informationen allen zugänglich sein. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass kritischer, unabhängiger Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 50.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen