Die Illustration zeigt einen Laptop mit ChatGPT-Symbol, einen Lehrer und Schüler:innen, die an Tischen sitzen

Illustration: Christina S. Zhu

ChatGPT löst Bildungskrise aus:Hausaufgaben aus der Maschine

Schüler überlassen das Schreiben ganzer Aufsätze einer künstlichen Intelligenz. Kritiker fürchten, dass der Persönlichkeitsentwicklung dadurch etwas Zentrales verlorengeht. Stimmt das?

Ein Artikel von

18.3.2023, 18:54  Uhr

Die ersten Videos liefen zum Jahreswechsel auf Sihams Smartphone ein. Von da an folgte ein Tiktok-Kurzclip auf den nächsten, neben Kosmetik-, Tanz- und Tiervideos immer wieder ChatGPT, die geniale Erfindung. „Ständig erzählte irgendjemand, wie einfach man damit Hausaufgaben machen kann und wie es das ganze Schulleben auf den Kopf stellen würde“, sagt die Schülerin aus der Fritz-Karsen-Schule in Berlin-Neukölln. „Also habe ich es selbst ausprobiert.“

Seit ChatGPT Ende November 2022 gestartet ist, drehen sich die Diskussionen in sozialen Netzwerken oft um das auf einer künstlichen Intelligenz (KI) basierende Sprachsystem. Und Spiegel, Zeit, FAZ machen KI zum Titelthema. Was KI bereits alles kann, wo KI schon überall eingesetzt wird, wann KI unsere Arbeit übernimmt. Wöchentlich gibt es neue Experteninterviews, oder die KI schreibt die Kolumnen gleich selbst – wie einmal im Monat in der wochentaz, wo die künstliche Intelligenz Anic T. Waed Autorin der Kolumne „Intelligenzbestie“ ist.

Dieser Text stammt aus der wochentaz. Unserer Wochenzeitung von links! In der wochentaz geht es jede Woche um die Welt, wie sie ist – und wie sie sein könnte. Eine linke Wochenzeitung mit Stimme, Haltung und dem besonderen taz-Blick auf die Welt. Jeden Samstag neu am Kiosk und natürlich im Abo.

ChatGPT, so heißt es, könne komplexe Fragen beantworten, gebe Erklärungen und Tipps, helfe genauso schnell bei der Reiseplanung, wie sie einen Computercode oder ein neues Theaterstück schreibt.

„Zuerst habe ich die Englischaufgaben damit gemacht“, sagt Siham. „Frage eingeben und die Antwort kopieren. Das geht total einfach, wenn man mal faul ist oder keine Zeit hat.“ Auch bei grundsätzlichem Lernstoff, für den im Unterricht der Oberstufe mal wieder nicht genug Zeit blieb, hilft ChatGPT nach. Dadurch wurde die KI zum Standard-Tool der 17-Jährigen. „Wenn mir die Antwort nicht ausreicht, schreibe ich:,Erkläre das genauer', oder ich stelle meine Frage anders. Schon bekomme ich einen neuen, detaillierteren Text, der mir beim Lernen hilft.“

War das jetzt schon gemogelt?

In diesen Tagen macht sich mal Begeisterung breit, mal Besorgnis. Dabei hätten wir auch schon vor Jahren von KI überwältigt sein können: Erst bezwingt ein Computer den Weltmeister im Schach, dann helfen Navis beim Autofahren, später empfehlen uns Algorithmen personalisierte Inhalte wie Bücher, Musik, Filme und Schnäppchen. Aber so richtig von den Socken sind wir erst, als eine KI beginnt, auf Zuruf verrückte Bilder zu zeichnen oder in einem Chatfenster mit uns zu plaudern. Faszinierend und gruselig zugleich.

Gruselig vor allem für Schulen und Universitäten. Denn dort, wo Schreiben eine Persönlichkeit ausbilden, kritisches Denken fördern und junge Menschen zu mündigen BürgerInnen erziehen soll, beginnen die jungen Menschen, das Schreiben einer Maschine zu überlassen.

Wenn dieser Schritt aber von einem Computer übernommen wird, geht in der Persönlichkeitsentwicklung nicht etwas Zentrales verloren? Muss das Bildungswesen einschreiten? Kann man das überhaupt verhindern?

Gerade wurde Siham von ihrem Lehrer erwischt. Was heißt schon „erwischt“: „Warum soll ich nicht ChatGPT benutzen? Ist doch auch nicht groß anders als Googeln.“ Siham sucht in ihrem Chatverlauf mit ChatGPT, um welches Thema es ging, kann den Dialog mit der Sprach-KI aber auf die Schnelle nicht finden. Es war im Politikkurs, die Hausaufgabe hatte irgendwas mit Verfassungsorganen und dem Bundesrat zu tun. „ChatGPT hat da auch ganz gute Antworten geliefert, aber dann ist mein Lehrer stutzig geworden.“

„Das war Zufall“, sagt Lehrer Friedemann Gürtler. „Ich hatte mit ChatGPT gespielt und viele dieser typischen, abwägenden Antworten erhalten.“ Si­hams Sätze in der Hausaufgabe hatten einen ganz ähnlichen Ton. „Die abwägende Antwort hat nicht so recht zu der eindeutigen Fragestellung gepasst.“

Hat Siham etwas Verbotenes getan? Hat sie getäuscht? Plagiiert? Friedemann Gürtler war sich da auch nicht so ganz sicher. Also hat er Siham gebeten, ein Referat über ChatGPT zu halten. Da hatten schon die meisten SchülerInnen in Sihams Oberstufe von dem Programm mitbekommen. „Inzwischen nutzt jeder ChatGPT für die Schule“, sagt Siham. „Das ist total nützlich und auch richtig so. Nur wird es ab jetzt für die Lehrkräfte schwierig werden, die schriftlichen Leistungen zu bewerten.“

ChatGPT soll in Minnesota eine Juraprüfung bestanden haben

Dass Computer Fließtexte generieren, die sich nicht von jenen unterscheiden lassen, die Menschen verfassen, ist für die Lehre ein Riesenproblem. ChatGPT soll an der Uni von Minnesota sogar schon eine Juraprüfung bestanden haben. Auch im Theo­rieteil, den MedizinerInnen ablegen müssen, um in den USA praktizieren zu dürfen, hat ChatGPT locker die vorgeschriebene Mindestpunktzahl erreicht.

Warum also nicht einfach ChatGPT verbieten?

In den USA ist das teilweise schon geschehen, der Schulbezirk in New York hat sich dazu entschieden. In der EU feilen Kommission und Parlament seit zwei Jahren am Artificial Intelligence Act, dem ersten Regelwerk für KI. Sogenannte Hochrisikoanwendungen sollen dabei eingeschränkt werden wie die Gesichtserkennung oder die Prüfung der Kreditwürdigkeit. ChatGPT ist per Definition auch ein Hochrisiko, solange die generierten Texte nicht einer Person zugeschrieben werden. Irgendjemand muss ja dafür gerade­stehen, sollte die Maschine sexistischen, rassistischen, manipulativen, zusammengelogenen Mist verzapfen. Kann man Schulen so eine Maschine zumuten?

Berliner Firma bringt eigene Version heraus

Gerade einmal fünf Tage brauchte ChatGPT, um weltweit eine Million NutzerInnen zu erreichen. Kein anderer Onlinedienst hat diese Marke so schnell geknackt. Instagram brauchte knapp drei Monate, Twitter zwei Jahre. Der irrwitzige Hype überrascht auch Fachkreise, denn Sprachmodelle wie GPT, die bei Google LaMDA und bei Face­book OPT-175B und jetzt LLaMA heißen, gibt es schon etwas länger, auch wenn sie noch nicht frei nutzbar sind.

GPT steht für Generative Pretrained Transformer und ist ein neuronales Netz, dessen Verbindungen sich zwischen den Rechenknoten bei Erfolg verstärken. Dadurch lernt das Netzwerk, ähnlich wie unser Gehirn es tut. Die künstliche Intelligenz wurde mit massenhaft Textdaten trainiert: Artikel, Aufsätze, Blogeinträge, wissenschaftliche Papers, Belletristik, Kochrezepte – Millionen Texte, größtenteils aus dem Internet und ein beträchtlicher Stapel Fachbücher.

Es ist in etwa so, als hätte man ein Kind in eine Bibliothek gesperrt, wo es sich mit der Zeit einen Sinn aus den Texten zusammengereimt hat. Welcher Buchstabe folgt mit welcher Wahrscheinlichkeit auf den anderen? Welches Wort folgt auf welches Wort? Welche Wortfolgen passen grammatikalisch und inhaltlich zusammen? Auf der Grundlage von erlernten statistischen Wahrscheinlichkeiten imitiert ChatGPT menschliche Sprache und erzeugt mit jeder Anfrage einen neuen Text. In seiner inzwischen dritten Version macht das Programm das so gut, dass unsereins in der Regel die Luft wegbleibt.

Für ChatGPT wurde das bestehende Sprachmodell lediglich mit einer Chatfunktion garniert. Das macht es leicht, das Programm zu benutzen, und bringt auch noch Spaß mit ins Spiel. So können alle „prompten“, also eine Anfrage an das Programm richten. Und die Erfinder von ChatGPT konnten ihr Monster auf die ganze Welt loslassen, das seitdem durch die Prompts von derzeit weit über 100 Millionen Menschen weiter trainiert und verbessert wird.

Eine gezeichnete Person sitzt auf einem Baumstamm und denkt nach, um sie herum sind verschiedene Grafiken

„Mir wäre es lieber, wenn ChatGPT auch mal zugeben würde, dass es keine Ahnung hat“: Lilli, 10. Klasse Illustration: Christina S. Zhu

Dass diese kostbaren Daten gerade Sekunde für Sekunde den Internet­riesen durch die Lappen gehen, macht ChatGPT zu dem großen Ding, das es gerade ist. Zum ersten Mal spurtet Google nicht vorweg, sondern muss nachziehen. Hastig hat es sein eigenes künstliches Sprachmodell namens Bard veröffentlicht, das bei dessen Vorstellung gleich mal eine falsche Info verbreitete und die Aktie von Googles Mutterkonzern Alphabet absacken ließ. Chinas Suchmaschine Baidu antwortet derweil mit ihrem Chatbot Ernie.

Ernie und Bard, kein Witz. Und ausnahmsweise gibt es mit dem Heidelberger Unternehmen Aleph Alpha auch einen deutschen Player, der in Sachen KI auf Augenhöhe mitmischt.

Andere Firmen nutzen GPT3 für ihre Produkte, alle können die Sprach-KI kostenfrei in ihre Software einbauen. Zu diesen Firmen gehört auch Mindverse aus Berlin-Spandau. Geschäftsführer Noel Lorenz, 25 Jahre alt, spaziert durch die neuen Räume, in die er vor Kurzem mit seinem Team eingezogen ist. Sein Personal verdoppelt sich gerade, der hintere Trakt der Etage ist noch eine Baustelle.

„Von GPT3 war ich schon fasziniert, als es noch in der Beta­phase steckte“, erzählt Lorenz. Da war das Modell endlich in der Lage, selbstständig Muster in seinen Daten zu erkennen und menschenähnliche Texte zu erstellen. Das gelang, weil die KI mit einer Datenmenge trainiert wurde, die bald 1.500-mal so groß war wie die der Vorgängerversion.

Vor zwei Jahren gegründet, surft Mindverse nun auf der Erfolgswelle von ChatGPT mit. „Im Vergleich zu GPT kann Mindverse besser Deutsch und ist dank seiner Livedaten aus dem Internet moderner“, sagt Lorenz. ChatGPT greift nur auf Datensätze bis zum Jahr 2021 zurück. Seit zehn Jahren programmiert Lorenz, vor sieben Jahren hat er seine erste Firma gegründet, dann verkauft. Er hat ein bisschen Medizin studiert, ist aber lieber zu BWL gewechselt. Der schwarze Steve-Jobs-Rolli unter dem Sakko lässt erahnen, welche Richtung seine Karriere einschlagen soll.

Neben der Chatfunktion bietet Mindverse zusätzliche Feintuning-Modelle, die sich gezielter auf die Datensätze beziehen als bei ChatGPT. „Das neuronale Netzwerk antwortet nur so gut, wie es gefragt wird. Daher konkretisieren wir die Anfragen mit unserer Software.“ Eine Funktion ist dafür gemacht, Stichpunkte in Fließtext zu verwandeln, eine andere soll Aufsätze mit Thesen und Argumenten schreiben, die nächste werbewirksame Überschriften erfinden oder Songtexte dichten.

„Die KI wird ständig von unseren Power­usern trainiert und bewertet“, sagt Lorenz. Das bedeutet, dass das Sprachmodell weiter lernt und umso menschlicher wird, während es den Gesprächspartner spielt. Außerdem bezieht die Maschine Formeln ein, die die Lesbarkeit von Texten berechnen: das Flesch-Kincaid-Grade-Level, den Gunning-Fog-Index, den Coleman-Liau-Index. Diese Formeln zählen Buchstaben, Silben und Wörter und berechnen, wie verständlich ein Satz sein muss. Unabhängig von dessen Inhalt ist das wichtig für die Suchmaschinenoptimierung. Je besser die berechnete Lesbarkeit, desto höher das Ranking bei Google und Co.

Im Gegensatz zur ersten Version von ChatGPT gibt Mindverse auch die Websites an, die die KI als Quelle genutzt hat. Das könnte bei Hausarbeiten ein entscheidender Vorteil sein. „Wir haben bestimmte offizielle Websites als seriös eingestuft und bewerten Quellen höher, je häufiger sie verlinkt werden“, sagt Noel Lorenz. Außerdem hat der Mindverse-Kopf auch an den Datenschutz gedacht. Die Prompts und Entwürfe können über anonyme Konten verfasst werden.

Das hat Thomas Süße auf das Programm aufmerksam gemacht. Er steht vor einem Smartboard in den Räumen des Campus Gütersloh, einem schlichten weißen Gebäude hinter dem Bahnhof, auch „Gleis 13“ genannt. Die Studierenden machen hier hauptsächlich etwas mit Maschinen: Mechatronik, Engineering, Logistik, digitale Technologien. Sozialwissenschaftler Süße bringt die menschliche Komponente in die Maschinenwelt, indem er zur Transformation der Arbeit forscht. „Die Technisierung verändert, beschleunigt, erleichtert unsere Arbeit“, erklärt der Professor. „Sie setzt uns aber auch unter Druck.“

Technostress nennt Thomas Süße das, die Schattenseite der Digitalisierung. Er kritzelt blaue Pfeile und Kürzel an die Wand und denkt laut: „Bislang haben sowohl Hochschulen als auch Schulen nur sehr wenig wissenschaftliche Erkenntnisse darüber, wie Schüler und Studierende die Sprach-KI sinnvoll nutzen.“ Es gibt noch keine gesicherten Antworten. Wie auch, ChatGPT ist zu neu – und das Bildungswesen zu langsam. „Darum brauchen wir jetzt Grundlagenforschung, und zwar schnell.“

Doch Lernerfolg lässt sich nicht so einfach nachweisen. Gelernte Kompetenz, das umfasst neben Fachwissen auch kreatives Schaffen, kritisches Denken, Zusammenarbeit, die Fähigkeit, sich mitzuteilen. „Das sind alles persönlich empfundene und eingeschätzte Werte“, sagt Süße. „Mein Job ist es, diese schwer erfassbaren Variablen besser messbar zu machen.“ Dazu will er eine große Gruppe SchülerInnen befragen, die regelmäßig eine Sprach-KI nutzt.

Der Plan: Eine Klassenstufe soll ihre Facharbeit schreiben und dabei Mindverse verwenden dürfen. „Wir wollen wissen, welche Rolle die Sprach-KI spielt: ob sie Ideen einbringt, als Sparringpartnerin im Schreibprozess hilft, oder Co-Autorin wird.“ An der ersten Untersuchung werden 120 junge Leute teilnehmen. Wie praktisch, dass die benötigte Kohorte quasi vor der Haustür des Professors lernt.

Den richtigen Umgang mit ChatGPT lernen

Das Evangelisch Stiftische Gymnasium (ESG) in Gütersloh ist ein bisschen besonders. Protestanten gründeten es, als die ersten Maschinen begannen, die Arbeitswelt auf den Kopf zu stellen, und die Aufgaben des Handwerks übernahmen. Es heißt, hier würden RichterInnen, ChirurgInnen und ManagerInnen von morgen die Schulbank drücken.

Der in Gütersloh ansässige Medienkonzern Bertelsmann hat den Backsteinbau der Schule um eine verspiegelte Mediothek mit Tonstudio und Videoschnittraum ergänzt. Seit einem Vierteljahrhundert sind Laptops hier Teil des Unterrichts. Dank Lernplattform und Endgeräten wechselte das ESG im Lockdown spielend in den Distanzunterricht. Und auch bei der Verwendung von Sprach-KIs gibt es an dieser Schule nur wenig Berührungsängste.

Deutschlehrer Hendrik Haverkamp hat seine 8. Klasse erst neulich gegen ChatGPT antreten lassen. Die Aufgabe war eine Gedichtanalyse. Nachdem die Schülerinnen und Schüler ihre Arbeiten abgegeben hatten, kam die KI an die Reihe. Sie brauchte nur ein paar Sekunden, um ihren Text abzuliefern: eine fein strukturierte Analyse mit aufeinander aufbauenden Argumenten und ohne einen Rechtschreibfehler. „Das sah auf den ersten Blick nach einer hervorragenden Arbeit aus“, erzählt Haverkamp. „Nur war der Text inhaltlich komplett falsch.“

Sprachmaschine statt Wissensmaschine

Die KI schrieb das Gedicht „Berliner Abend“ von Paul Boldt lieber Erich Kästner zu und erzählte etwas über hübsche Naturbeobachtungen, die in Boldts Schilderungen nicht wirklich vorkommen. Die Argumente der Maschine waren teils erzkonservativ, teils weltfremd. Das erste Urteil der Klasse über ChatGPT: „Boomer-Tool“. „ChatGPT ist wie ein Insidergag: Ich verstehe ihn nur dann, wenn ich genug darüber weiß“, sagt Haverkamp.

Es ist Mittwoch, ein eisiger Morgen, erste Stunde, Deutsch. In der 8. Klasse sind die Laptops aufgeklappt, kein Heft, kein Stift liegt auf den Tischen. Lehrer Haverkamp steht vor dem Bildschirm an der Wand, wo früher mal eine Kreidetafel hing, und schickt ein paar Meldungen über Elon Musk auf den Monitor. „Welche Nachricht ist Fake und von ChatGPT, welche ist echt?“ Es gibt erste Vermutungen, der Schreibstil der KI ist der Klasse längst vertraut.

„ChatGPT macht keine Umschreibungen wie ‚Der 51-Jährige‘.“ „Das Wort ‚Milliarden‘ würde nicht mit,Mrd.' abgekürzt.“ Haverkamp zeigt der Klasse ein Tool, das künstlich generierte und von Menschen verfasste Texte unterscheiden können soll. Kann es aber nicht. Die Sprach-KI ist zu weit entwickelt, das Prüfungsprogramm aufgeschmissen. Dann kopiert ein Schüler fix einen Textbaustein der menschengemachten Meldung aus der Zeitung, sucht im Netz und findet die Quelle.

„Mir wäre es lieber, wenn ChatGPT auch mal zugeben würde, dass es keine Ahnung hat“, sagt Lilli aus der 10. Klasse. „Eine eigene Meinung würde ihr auch gut stehen.“ Im Projektunterricht beschäftigt sich die 16-Jährige gerade mit den sogenannten Neuen Medien. „Die KI relativiert alle Argumente und geht nicht so richtig in die Tiefe. Man braucht eigenes Wissen und muss skeptisch bleiben, damit man keine Fehler übernimmt.“ Bei Themen, für die es kein Richtig oder Falsch gibt, sagt Lilli, wenn es ethisch, emotional oder persönlich wird, dann sei ChatGPT blank.

ChatGPT ist eine Sprachmaschine, keine Wissensmaschine. Das Programm schwafelt, immer selbstbewusst, immer wieder inhaltsarm. Es verwendet Worthülsen, bedient sich aus Quellen wie Blogs oder der Boulevardpresse, ignoriert direkte Zitate, liest nicht zwischen den Zeilen, erzählt lieber irgendetwas, als gar nichts zu texten. Viele Floskeln, inflationär verwurstete Fremdwörter, sicheres Auftreten bei völliger Ahnungslosigkeit, eine Illusion des Plausiblen.

Dennoch arbeitet auch Lillis Mitschüler Max viel mit dem Sprachtool. „Wenn ich einen Aufsatz schreibe oder etwas programmieren will. Die KI verkürzt die Zeit für die Fleißarbeit, damit ich mehr Zeit für die Denkarbeit habe.“ Wegen der Sache mit ChatGPT waren auch schon mehrere Medienleute am Gymnasium und haben mit ihm gesprochen. Gerade erst kam ein Fernsehteam vorbei, erzählt Max. Die hätten für ihren Beitrag aber mal schön seine Antworten verdreht. „Es kam so rüber, als würde ich die KI aus purer Faulheit alle Hausaufgaben erledigen lassen.“ Ganz so einfach sei das nun auch wieder nicht.

Im Mai werden Max und Lilli ihre Facharbeiten schreiben, KI-unterstützt, für die Studie von Thomas Süße. „Ich kann mir vorstellen, dass das Programm eine Inspirationsquelle sein wird“, sagt Lilli. „Es hat mir vorher schon gute Überschriften oder auch Argumente vorgeschlagen, auf die ich selbst nicht gekommen wäre. Warum sollte ich solche Ideen nicht benutzen.“

Für die meisten SchülerInnen und Studierenden ist das noch nicht so selbstverständlich wie für Lilli und Max. Künstliche Intelligenz für eine Abschlussarbeit zu verwenden ist zwar kein Plagiat. Dafür müsste das geistige Eigentum einer Person gestohlen werden, und noch machen wir zwischen Mensch und Maschine einen klaren Unterschied. Jedoch kann man die Texte einer KI auch schlecht als eigenes geistiges Eigentum ausgeben. Das wäre eher als Täuschungsversuch zu werten.

Was ist erlaubt, was verboten?

Diese Art der vermeintlichen Täuschung bringt zwei Probleme mit sich.

Erstens: Das ohnehin schon überlastete Lehrpersonal müsste nach maschinellem Ghostwriting fahnden. Aber wann? Und wie? Schon jetzt bekommt es kein Tool hin, zielsicher KI-Content zu erkennen. Das wird auch in Zukunft kaum gelingen, da die Sprach-KI ja ständig besser, menschenähnlicher wird.

Zweitens: Wo fängt die Täuschung an? Ganz sicher, wenn man ganze KI-generierte Absätze verwendet. Aber auch schon bei ein paar Worten? Oder bei einer Idee, die mir von allein nicht eingefallen ist? Oder wenn ich meinen Text durch ein Rechtschreibprogramm laufen lasse? Wenn ich einen Taschenrechner benutze?

Im Gegensatz zu den USA scheinen es die Bundesländer nicht auf ein Verbot von ChatGPT abzusehen. Auf der Bildungsmesse Didacta in Stuttgart hieß es gerade: Sprach-KI hat zu viel Potenzial, um sie zu verbieten.

Seitens des Hessischen Kultusministerium hieß es: KI-Anwendungen könnten „Schülerinnen und Schüler individuell in ihrem Lernprozess unterstützen“. Viel konkreter wird es bis dato nicht. Immerhin veröffentlichte das nordrhein-westfälische Schulministerium einen Leitfaden zum Umgang mit KI. Darin wird die Arbeit mit Textrobotern nicht verboten, stattdessen auf die Pflicht der Schulen hingewiesen, ­Medienkompetenz zu lehren.

Eine Richtlinie, wie die Lehrerinnen und Lehrer künftig Leistungen prüfen sollen, hat noch niemand geschrieben. Und so scheint es, als würden wir der künstlichen Intelligenz genauso begegnen wie den anderen Krisen der jüngeren Zeit auch. Klima, Corona, KI-Weltherrschaft: Wir sehen es kommen, wir wissen, dass wir handeln müssen – und sitzen es lieber aus.

„Die Angst ist vor allem so groß, weil es an Erfahrung fehlt“, sagt Anja Strobel. Die Psychologin forscht im Bereich „Hybrid Societies“ an der TU Chemnitz daran, wie der Mensch mit der Maschine interagiert und ein vertrauensvolles Miteinander in der Arbeitswelt möglich ist. Strobel hat Interviews ausgewertet, die der Gütersloher Sozialwissenschaftler Thomas Süße mit ArbeiterInnen in einer Fabrik geführt hat. Sie sprachen darin über ihre Erfahrung, eine künstliche Intelligenz wie einen Azubi anzulernen.

„Wir haben uns angesehen, wie Menschen Roboter wahrnehmen, welche Eigenschaften sie ihnen zuschreiben und welche Aufgaben sie die Roboter übernehmen lassen“, erklärt die Psychologin. Denn der technologische Fortschritt entwickelt sich nur in die Richtung, die wir bereit sind mitzugehen. Der optimistische Weg ist der: Die KI wird viel Arbeit vereinfachen und Jobs nur dort ersetzen, wo sie neue schafft.

Die Maschinen könnten die anstrengenden, die monotonen Aufgaben übernehmen, sagt Anja Strobel, während die Menschen sich auf das Kreative, das Sinnstiftende, das Miteinander konzentrieren. „Doch das unberechenbare Neue macht uns nervös. Das kennen wir auch aus anderen Bereichen unseres Lebens.“

Was ChatGPT betrifft, hat Strobel weniger Sorge, dass es den universitären Alltag stark beeinflussen wird. „Wir haben einiges ausprobiert und unseren Spaß damit gehabt“, sagt die Professorin. „Manches kann das Programm gut, woanders versagt es grandios.“ Den Uni-Alltag würde die Sprach-KI zunächst wenig verändern. „Die Studierenden dürfen generell keine Texte für bare Münze nehmen, nur weil sie gut klingen.“ Die Prüfungen hat Anja Strobel auch vorher schon lieber mündlich abgenommen. „Das ist zwar sehr zeitaufwendig, aber im Gespräch kann ich ganz anders schauen, ob die Studierenden verstanden haben, was sie gelernt haben.“

Die starken Schüler lassen sich von den Argumenten der KI inspirieren

Wenn es nach Lehrer Haverkamp geht, ist dagegen der Punkt erreicht, den Unterricht und die Prüfungskultur grundlegend zu ändern. „Stellen Sie sich vor, Sie sollen Ihr Handy abgeben, das WLAN ausstellen und sich in einen Raum einschließen, um dort nach 90 Minuten mit einer ausgefeilten Darlegung Ihrer Standpunkte herauszukommen“, schildert er die gängige Prüfungssituation. „Im wahren Leben würde das niemand von Ihnen erwarten, aber genau das erwarten wir von unseren Schülern.“

Kann man das nicht verändern? Schwierig. Zwar sind die Lehrpläne längst kompetenzorientiert, was bedeutet, dass weniger Wissen, dafür mehr Fähigkeiten vermittelt werden. Aber in der praktischen Umsetzung bleibt es meist beim Pauken für den Wissenstest. Die KI kann das jetzt ändern. Vielleicht erzwingt sie es sogar. Denn sie würde es den Lehrkräften leichter machen, ihren Unterricht auf den Lernprozess zu beziehen. Will heißen: mehr Weg statt Ziel, mehr Entwicklung als das geschriebene Ergebnis.

Vom „Flipped Classroom“ ist schon lange die Rede. Dort sollen Hausaufgaben und Vermittlung des Stoffs vertauscht werden: zu Hause Inhalt erarbeiten, im Unterricht anwenden. Die Sprach-KI als Lernassistent macht’s möglich. Ganze Unterrichtsstunden würden hinfällig, weil die Grundlagen ein Programm übernehmen könnte. „Dann müsste ich die Klasse nicht mehr zu stumpfsinnigen Aufgaben ermutigen, die ich danach stumpfsinnig korrigieren muss“, sagt Haverkamp. „Stattdessen könnte ich die Zeit für Feedback nutzen und die Schülerinnen und Schüler individuell betreuen.“

Noch bevor die Studie über die Facharbeiten am Gymnasium in Gütersloh beginnt, hat Haverkamp schon eine Ahnung, was dabei herauskommen wird. Der Deutschlehrer ließ bereits eine Arbeit schreiben, bei der die Klasse ChatGPT nutzen durfte. Die von der KI stammenden Argumente sollten die SchülerInnen kenntlich machen. „Die besten Noten bekamen diejenigen, die die wenigsten KI-Anteile übernommen hatten. Sie ließen sich nur inspirieren. Je schwächer die Schüler in der Arbeit waren, desto mehr hatten sie übernommen.“

Bildungsschere wächst durch Sprach-KIs

Daraus ergibt sich neben der Frage der Prüfung und der Täuschung ein viel größeres Problem: die Bildungsschere. „Die starken Schüler profitieren am meisten von der KI“, sagt Haverkamp. „Sie können die Technologie reflektierter einsetzen. Die einen nutzen die gewonnene Zeit zum Lernen, die anderen für außerschulische Hobbys.“

Die KI könnte die Schere gleich in vielerlei Hinsicht auseinandertreiben: zwischen den Schulen mit besserer und schlechterer Ausrüstung, zwischen den leistungsstärkeren und leistungsschwächeren Schülerinnen und Schülern – und auch zwischen den Armen und Reichen, wenn die kostenpflichtige Premium-Sprach-KI mal besser sein wird als die herkömmliche.

Und das gilt nicht nur für Uni und Schule. Wir alle begegnen künstlicher Intelligenz, benutzen sie aktiv oder unbewusst. Die einen wissen, dass sie von einer Maschine mit Infos geflutet werden. Andere lassen sich eventuell beeinflussen. Wahrscheinlich wird es bald normal sein, dass wir zwischen KI-Inhalten und von Menschen verfassten Texten unterscheiden, zwischen Billigware und feingeistigem Handwerk. Sofern wir den Unterschied überhaupt merken.

In dieser Woche hat OpenAI sein neues Sprachmodell GPT4 veröffentlicht. Im Vergleich zu seinem Vorgänger GPT3 hat es einen fünfmal so großen Datensatz und kann statt nur in Textform auch in Bildern antworten.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.