Künstliche Intelligenz in Schule und Uni : KI frisst Hirn
Wer mehr KI benutzt, kommt zwar spielend leicht zu Ergebnissen, diese stellen aber auch für die Anwendenden eine Gefahr dar. Jasmin Arbabian-Vogel und Maxim Keller zu wegweisenden Befunden.
taz FUTURZWEI | Seit vielen Jahren findet jedes Jahr ein bundesweiter Wettbewerb statt, in dem Schüler:innen eigene Firmen gründen. Junge Menschen lernen dabei, eigene Ideen zu entwickeln und umzusetzen.
Eine Gruppe von Schülerinnen hat sich, beispielsweise, mit der Frage beschäftigt, was mit einer halben Aubergine im Kühlschrank passieren könnte. Wir alle kennen diese Situation: In der hintersten Ecke des Kühlschrankes liegt lustlos etwas herum, wofür uns – wie bei der halben Aubergine – die Fantasie fehlt, was damit anzufangen sei.
Die Schülerinnen hatten eine App programmiert, die für das Objekt des Interesses nach dem Scannen Vorschläge für eine Weiterverwertung macht. Was so banal klingt, ist in Wirklichkeit ein ernsthaftes Problem: die Verschwendung von Ressourcen, insbesondere von Lebensmitteln.
Diese App, die dafür eine Lösung parat hat, ist daher nicht nur für sich interessant. Sie zeigt auch, dass junge Menschen sich Gedanken um Themen wie Nachhaltigkeit und Ressourcennutzung machen. Davon profitieren nicht nur die Schüler:innen, auch die erwachsenen Jury-Mitglieder des Wettbewerbs kommen durch die Erweiterung des eigenen Horizonts und die Konfrontation mit Impulsen von außen jedes Mal etwas schlauer heraus, als sie hineingekommen sind.
Kollege KI in den Schülerfirmen
Doch in diesem Jahr gab es einen neuen Player in den Teams der Schülerfirmen: Kollege KI hält offiziell Einzug in das Projekt. Sein Einsatz ist ausdrücklich erwünscht, die Begründung leuchtet ein: die Lehrerschaft ist zu überlastet, und die KI in Gestalt von Gemini und ChatGPT ist aus der Sicht der Lehrenden im Unterricht eine gute Unterstützung.
Das Ergebnis ist allerdings alles andere als wünschenswert: Fast alle Gründungsideen der Schüler:innen wurden von der KI vorgeschlagen. Business-Pläne, Marketing-Strategien und betriebswirtschaftliche Prognosen stammten ebenfalls aus der digitalen Feder und waren nicht selten fehlerhaft, unplausibel und manchmal auch bedenklich.
Dieser Eindruck wird von einer aktuellen Studie des Massachusetts Institute of Technology (MIT) untermauert.
Über einen Zeitraum von vier Monaten bekamen knapp sechzig Teilnehmende, die alle aus einem universitären Kontext rekrutiert wurden, dreimal die Aufgabe gestellt, unter Zeitdruck einen Essay zu schreiben.
Man konnte aus vorgegebenen Fragestellungen wählen, die aus den standardisierten Einstufungstests (SAT) übernommen wurden, die in den USA ein wichtiger Bestandteil jeder Bewerbung um einen Studienplatz sind. Es ging dann, beispielsweise, darum, was Loyalität bedeutet oder ob eine perfekte Gesellschaft möglich oder überhaupt erstrebenswert sei.
Brain-only contra unterstütztes Schreiben
Die Teilnehmenden wurden in drei Gruppen aufgeteilt, denen jeweils unterschiedliche Hilfsmittel zur Verfügung gestellt wurden. Die erste Gruppe durfte nur ChatGPT benutzen, die zweite konnte eigenständig im Internet recherchieren (die KI-Zusammenfassungen, die Google den Suchresultaten mittlerweile voranstellt, wurden geblockt), und die Teilnehmenden aus der dritten Gruppe waren auf sich allein gestellt.
Innerhalb der „Brain only“-Gruppe wurden die Fragestellungen auf vielfältige Weise bearbeitet, doch schon bei den Essays der Suchmaschinen-Gruppe konnte man einige inhaltliche Zusammenhänge wiedererkennen, die man auf Googles Suchalgorithmus zurückführen kann.
Die Gruppe schließlich, die mit ChatGPT arbeitete, hat ausgesprochen homogene Texte produziert, die meistens auch nicht besonders interessant waren. Zwei Englischlehrer:innen, die zur Beurteilung der Texte herbeigezogen wurden, beschrieben die KI-Texte als seelenlos.
Sie würden zwar akademisch klingen, doch die formal perfekten Sätze seien inhaltlich oft leer und würden keine persönlichen Nuancen aufweisen.
taz FUTURZWEI, das Magazin für Zukunft – Ausgabe N°34: Zahlen des Grauens
Die weltweiten Ausgaben für Rüstung betragen 2700 Milliarden Dollar im Jahr, ein 270stel davon wird weltweit gegen Hunger investiert. Wir präsentieren Zahlen des Grauens und plädieren gerade deshalb für Orientierung an Fakten statt an Talkshow-Aufregern.
Mit: Matthias Brandt, Dana Giesecke, Maja Göpel, Wolf Lotter, Armin Nassehi, Sönke Neitzel, Katja Salamo und Harald Welzer.
Abgesehen von der zweifelhaften Qualität der Ergebnisse selbst gibt es aber noch einen weiteren Grund, warum die Auslagerung von Denk- und Schreibprozessen an KI zu denken geben sollte. Während die Teilnehmenden an den Texten arbeiteten, zeichnete ein Headset ihre elektrischen Gehirnaktivitäten auf.
Die Personen, die selbst denken mussten, aktivierten weitverzweigte und verteilte neuronale Netzwerke.
Doch je mehr externer Support verfügbar war, desto weniger arbeiteten die unterschiedlichen Gehirnbereiche zusammen: Beim Schreiben mit Suchmaschinen sank die Konnektivität um 34 bis 48 Prozent, wobei eine verstärkte Aktivität im visuellen Kortex des Gehirns immerhin darauf hinwies, dass Inhalte aktiv gescannt, ausgewählt und bewertet wurden.
Automatisierte Denkmodi
KI-Tools machen auch das überflüssig, was sich in einer um bis zu 55 Prozent geringeren Konnektivität niederschlägt. Die Autor:innen der Studie sprechen von einem automatisierten und eingerüsteten Denkmodus, der weniger auf die innere Bedeutungskonstruktion, sprich: Verständnis, angewiesen ist.
Einige Konsequenzen davon wurden direkt in der Studie erfasst. Gespräche mit den Teilnehmenden zeigten, dass sich die KI-Gruppe schlechter an ihre Essays erinnern konnte. Die Teilnehmenden aus den anderen beiden Gruppen konnten ohne größere Probleme akkurat aus ihren eigenen Texten zitieren. Das gelang in der ersten Runde keiner einzigen Person, die mit ChatGPT gearbeitet hatte.
Gestützt auf die neurowissenschaftlichen Daten warnen die Autor:innen vor einer „kognitiven Verschuldung“, wenn man die aufwendigen kognitiven Prozesse, die mit eigenständigem Denken einhergehen, mit einem KI-Modell ersetzt. Sie befürchten, dass wir verlernen, kreativ zu sein und kritische Auseinandersetzungen zu führen. So würde man eher voreingenommene Perspektiven übernehmen und anfälliger für Manipulation sein.
Was wird aus Neugierde und Idealismus?
Die Macht, die die wenigen Tech-Konzerne auf Konsumverhalten und Kommunikation der jungen Menschen ausüben, wird nun erweitert um die Übernahme der Ideengebung. Und das könnte fatale Konsequenzen haben, nicht nur für die halbe Aubergine, sondern vor allem für junge Menschen, die sich auf die KI verlassen und darauf vertrauen, dass der Business-Plan, den ChatGPT geschrieben hat, schon irgendwie stimmen wird.
Die Geschichte der halben Aubergine ist eigentlich die Geschichte von Neugierde und Idealismus, aus der eine Idee entsteht, wie man die Welt ein ganz kleines bisschen besser machen könnte. Die Grundvoraussetzung dafür ist das eigenständige Denken. Und diese Grundvoraussetzung nimmt uns die KI zunehmend ab. Das ist die schlechte Nachricht.
Es gibt aber auch eine gute Nachricht: Wir sind dieser Entwicklung nicht chancenlos ausgeliefert. Noch haben wir eine Wahl. Sie fängt im Kleinen an, in der 8. Klasse einer hannoverschen Schule, in einem Projekt, das Schüler:innen ermutigt, ihre eigenen Gründungsideen zu entwickeln, statt ChatGPT zu fragen und dessen Vorschläge bedenkenlos zu übernehmen.
🐾 Lesen Sie weiter: Die neue Ausgabe unseres Magazins taz FUTURZWEI N°34 mit dem Titelthema „Zahlen des Grauens“ gibt es jetzt im taz Shop.