piwik no script img

FUTURZWEI

GPT und die Uni Der potenteste Bullshitter

Wozu soll man Akademiker in Fähigkeiten ausbilden, die Software wie GPT bereits genauso gut beherrschen?

Immer mehr wissenschaftliche Arbeiten werden von GPTs erstellt Foto: Reuters

Von JAN SÖFFNER

taz FUTURZWEI, 09.03.2023 | Man wartet nur noch darauf, wann es passiert: Die als so streng und unvoreingenommen geltenden Kontrollverfahren der wissenschaftlichen Zeitschriften dürften bald Software-generierte Aufsätze in renommierten wissenschaftlichen Zeitschriften durchgehen lassen. Plagiate sind in Hausarbeiten schon jetzt das kleinere Problem – die größere Herausforderung sind computergenerierte Texte. Seit GPT-2 2019 online ging, war klar, dass es irgendwann so kommen würde. Seit es zu GPT-3 weiterentwickelt wurde und auch alternative Software ähnliche Ergebnisse zeigte, war klar, dass das nicht mehr lange dauern würde. Und nachdem Letzteres kürzlich als ChatGPT freigeschaltet wurde, ist es auch denen klar, die sich vorher nicht darum gekümmert hatten. GPT-4, das angekündigte Update, verspricht, wissenschaftliche Pseudoabhandlungen in voller Länge schreiben zu können.

Wie hat die Wissenschaft bislang darauf reagiert? Im Großen und Ganzen lässt sich die bisherige Haltung als eine paradoxerweise hyperaktive Schockstarre bezeichnen: Einerseits versucht man die Software – die ungehindert alle verfügbaren Daten abgreift und verwendet – auf das Copyright zu verpflichten und also gewissermaßen auszuschalten. In einer Schnelligkeit, die an frühe Coronamaßnahmen erinnert, verbreitet sich zeroGPT als Äquivalent zum Plagiat-Scan. All das unternimmt man aber eigentlich nur, damit alles so bleiben kann, wie es ist. Das ist verständlich für den Moment – aber keine Lösung.

Wie sollten Universitäten also mittelfristig reagieren? Es gibt, denkt man etwas weiter, eine einfache, aber zu kurz greifende Möglichkeit: diejenige des Matheunterrichts. Schon seit Alan Turing rechnen Maschinen schneller und präziser als Menschen. Seit 1956 und dem „Logic Theorist“ von Allen Newell, Herbert A. Simon und Cliff Shaw führen künstliche Intelligenzen mathematische Beweise. Man hat dennoch nicht aufgehört, Kindern Grundrechenarten und mathematisches Denken beizubringen – durch einen pädagogischen Zwang zum Low-Tech (Bleistift und Papier).

Das ginge auch im Bereich der nunmehr betroffenen Bildungsbereiche. Handschriftliche Klausuren und mündliche Prüfungen würden dann die Hausarbeiten ablösen; Letztere in einem „Flipped Classroom“, einem Umgekehrten Hörsaal, auf dem Campus erstellt, während umgekehrt zu Hause die Literaturbeschaffung online und das Methodentraining qua Tutorials stattfinden würde; die Universitäten wären indes der Ort für Erstellung, Diskussion und Kritik der Forschungsarbeiten.

Es stellt sich allerdings nicht nur die Frage nach dem Wie des Lernens und Forschens, sondern auch nach dem Was. Denn wozu sollte man Akademiker in Fähigkeiten ausbilden, die Computer bereits oft genauso gut und auf absehbare Zeit besser beherrschen dürften als sie selbst? Der außerakademische Arbeitsmarkt dürfte diese Fähigkeiten schon in viel kürzerer Frist nicht mehr nachfragen.

Vielleicht hilft auch hier ein vergleichender Blick auf die Mathematik, um das Problem besser einzuschätzen. Denn die mathematische Forschung hat sich in genau jene Bereiche verlagert, die von Computern noch immer nicht richtig bespielt werden können – Bereiche, die die Mathematik in der Unbeirrbarkeit ihres erstaunlich wenig von kulturellem Wandel und gesellschaftlichen Ansprüchen beeinflussten Ganges vermutlich sowieso erreicht hätte, so aber schneller erreichen konnte, da sie den Rest eben den Maschinen überließ. Die einfache Formel lautet also: Überlassen wir der Software also den langweiligen Kram und nutzen wir die Software, diejenigen Wissenschaftler:innen und Studierenden besser sichtbar werden zu lassen, die wirklich denken können, also das beherrschen, was Computer nicht können.

Was können Computer und was können sie nicht?

Aber was können Computer eigentlich nicht? Fragen wir einmal ChatGPT selbst. Dessen (von der Übersetzungssoftware Deepl ins Deutsche übersetzte) Antwort ist:

„Es gibt viele Dinge, die Computer nicht können. Zum Beispiel sind Computer nicht in der Lage, kreativ zu denken oder Probleme auf dieselbe Weise zu lösen, wie es Menschen können. Sie können nur Aufgaben ausführen, für die sie speziell programmiert wurden. Außerdem haben Computer nicht die Fähigkeit, Gefühle zu empfinden oder komplexe soziale Interaktionen zu verstehen.“

Wenn wir verstehen wollen, was Computer nicht können, dürfen wir GPT aber nicht einfach glauben – entscheidend dafür ist zu betrachten, welche Fehler sie macht und woran das liegt.

Gehen wir die Fehler durch. Die Software kann – entgegen ihrer ‚eigenen‘ Auskunft – gerade bei Problemlösungen durchaus sehr viel mehr Möglichkeiten durchspielen als Menschen und ist daher in mancherlei Hinsicht auch viel kreativer als sie. GPT ist da nicht allein: Die Software Midjourney hat zum Beispiel Stills des Science-Fiction-Films Tron von Alejandro Jodorowski generiert, inklusive der Kostüme, Kulissen und auch der atemberaubenden Atmosphäre. Die Stills trafen dabei nicht nur exakt den Filmstil der 70er Jahre, sondern auch denjenigen des Regisseurs, dessen avancierte und ungewöhnliche Ideen unter anderem die alten Blade Runner, Star Wars und Raiders of the Lost Arc beeinflusst haben.

Allein: Den Film Tron gibt es nicht. Die Software war stattdessen genauso kreativ wie Jodorowski selbst. Gewiss: Sie war es auf dieselbe Weise wie er und hätte Schwierigkeiten gehabt, ohne dieses Stil-Vorbild zu arbeiten. Aber das sollte die Wissenschaften nicht beruhigen, denn je schärfer diese sich in immer mehr Qualitätskontrollverfahren gegenseitig einnorden, bilden sie das aus, was Ludwik Fleck Denkstile genannt hat – und dann haben sie exakt dieselben Schwierigkeiten wie GPT.

Lüge versus Bullshit

Der nächste Punkt sind die „Gefühle“. Hier behält GPT zwar recht – aber auf eine eigenwillige Weise. Das Gefühl der Sprecher:innen ist Voraussetzung für die Wahrheitsfähigkeit ihrer Aussagen. GPT spürt – um ein Beispiel für diesen Umstand zu bringen – seine eigenen performativen Selbstwidersprüche nicht. Es hatte kein Gespür dafür, dass es, während es meine Frage beantwortete, genau das tat, was es nicht zu können behauptete (zum Beispiel war es in eine „komplexe soziale Interaktion“ involviert und führte als generative, selbstlernende Software gerade keine Aufgabe aus, „für die es speziell programmiert wurde“).

Wäre GPT ein Mensch, dann hätte es hier gelogen; aber Software kann nicht im vollen Sinne des Wortes lügen – also sich mit Täuschungsabsicht verstellen. Software hat keine eigene Erfahrung, aus der heraus sie wüsste, dass nicht stimmt, was sie sagt, und sie hat auch keine Absicht. Sie hat einfach auf Grundlage einer riesigen Datenmenge kollektive Denk-Gewohnheiten individuiert, um sie dann zu reproduzieren – und das wiederum, weil sie darauf programmiert ist, sich aus jeder Frage, die ihr als Aufgabe gestellt wird, auf die beste und möglichst reibungslose Weise herauszulavieren.

Nun ist dies geradezu exakt das, was Harry Frankfurt als Bullshit definiert und von der Lüge unterschieden hat: Wer lügt, sagt Frankfurt nicht ohne unterschwellige Sympathie, erkennt die Wahrheit an, um über sie täuschen zu können. Der Bullshitter mogelt sich stattdessen auf einer Ebene der Mitteilung durch, für die es egal ist, ob etwas stimmt oder nicht. GPT ist der potenteste Bullshitter der Gegenwart.

In dem Umstand, dass GPT wahrheitsindifferent ist, liegt nun aber leider keine Beruhigung für die Wissenschaften, sondern eine drohende immense Peinlichkeit. Die Wissenschaften sind dann ihrer wichtigsten Aufgabe nicht gerecht geworden, die da wäre, dass ihr die Wahrheit gerade nicht egal sein darf. Je mehr sich computergenerierte Hausarbeiten und Aufsätze in ihren Betrieb einschleichen, desto mehr haben die vielgelobten und oft bis zur Selbstgängelung verschärften wissenschaftlichen Kontrollmechanismen offenbar schon vorher jede Menge Bullshit durchgelassen, oder schlimmer noch: geradezu befördert, indem sie eben Denkstile oder methodische Autopiloten beförderten und das Wahrheitsgespür der Wissenschaftler nicht ernst nahmen oder als subjektiv und unwissenschaftlich abtaten.

Dabei wäre der Auftrag dieser Selbstkontrolle gewesen, den einzigen Bereich unserer Gesellschaften zu sichern, in dem die Bullshit-Detektoren scharfgestellt sind. Man hat sich auf die Lügen eingeschossen und den schlimmeren Bullshit vergessen. Man hat verhindert, dass einzelne Lügner sie mit einem klug erfundenen Experiment, schlau gefälschten Daten, einer gut erfundenen Quelle, einem auf plausible Weise Kant untergeschobenen Gedanken oder einem Plagiat von einem guten, aber unbekannten Text getäuscht hat. Das wäre aber nur ein partielles Versagen gewesen. Bullshit durchzulassen ist hingegen Totalversagen.

Was ist echtes Denken?

Gibt man eine wissenschaftlich relevante Frage bei ChatGPT ein und sagt ihm, es solle wissenschaftlich schreiben, wird dieses Versagen leider recht klar. Denn die Antworten unterscheiden sich oft erstaunlich wenig von dem, was man in Hausarbeiten und Aufsätzen gelesen hätte. Gewiss: Das wundert insofern nicht, als das Programm gerade auf ebendiese Hausarbeiten und Aufsätze zurückgreift. Aber es wundert insofern schon, als es nahelegt, dass sehr viele Hausarbeiten und Aufsätze ihrerseits auf eine Weise geschrieben worden sind, die mehr um die Erfüllung irgendwelcher „Standards“ bekümmert waren als um die Wahrheit – oder schlimmer noch die Standarderfüllung mit der Wahrheitssuche gleichsetzten und den Unterschied ausblendeten.

Auch das sollte nicht überraschen. Beobachten ließ sich das Problem schon länger. Martin Heidegger behauptete bereits vor über 70 Jahren in seiner Vorlesung „Was heißt Denken?“, dass die Wissenschaft eben nicht denkt – und zwar „zur Sicherung ihres eigenen festgelegten Ganges.“ Ins heutige Deutsch übersetzt bedeutet das, dass die Wissenschaft nicht denkt, weil sie ihre Selbst-Kontrolle auch als Selbst-Zweck betreibt. Und dass dem so ist, belegt nun GPT, eine Software, die die Standards dieser Selbstkontrolle zu simulieren versteht und daher ohne zu denken und unter vollständiger Wahrheitsindifferenz ‚wissenschaftlich‘ schreiben kann.

Was wäre aber echtes Denken? Würde es uns aus der Konkurrenz mit einer unbewussten Software führen können? Man könnte es ausprobieren, indem man GPT zur Kontrollinstanz erhebt und nur noch das als Wissenschaft zuließe, was die Software niemals gesagt hätte – und trotzdem überzeugt. Die Aufgabe wäre es also, nur noch solche Arbeiten als Wissenschaft zu bezeichnen, die die Denkstile verlässt oder aufbricht und mit ungewöhnlich erhobenen Daten, abgefahrenen Experimentalaufbauten, unerwarteten Gedanken daherkommt.

Nur Anders-Denken wäre dann Wissenschaft – den langweiligen Rest kann die Software. Das zweite bekannte Zitat aus der besagten Heidegger-Vorlesung lautet: „Das Bedenklichste in unserer bedenklichen Zeit ist, dass wir noch nicht denken“.

Vielleicht hilft uns GPT und helfen Nachfolgeprogramme, es zu lernen.

JAN SÖFFNER ist Professor für Kulturtheorie an der Zeppelin Universität Friedrichshafen.