KI und ChatGPT: Wenn Maschinen schreiben
Eine künstliche Intelligenz, die schreibt – wird der Mensch als Autor:in bald überflüssig sein?
V iele sind erschrocken angesichts dessen, was die künstliche Intelligenz (KI) leistet. In einer Gesellschaft, die zutiefst von Schriftlichkeit geprägt ist, ist der Gedanke unangenehm bedrohlich, dass bald etwas, das als genuin menschliche Domäne galt – die Sprache – von Maschinen übernommen werden könnte. Das Schreiben ist eine Kulturtechnik, deren Bedeutung über einfache Kommunikation weit hinausgeht.
Empfohlener externer Inhalt
Wir schreiben aus unendlich vielen Gründen: um uns zu verständigen, um Wichtiges festzuhalten, um uns zu erinnern. Um andere zu verstehen, um die Welt zu verstehen, um uns selbst zu verstehen. Um uns Gehör zu verschaffen, um zu lernen, um zu denken, aus Spaß, aus Wut oder aus Trauer. Geht das verloren, wenn Maschinen anfangen, da mitzumischen?
GPT-3, das Sprachmodell, auf dem die meisten textgenerierenden Anwendungen basieren, wurde von Open AI schon 2020 veröffentlicht. Versuche, natürliche Sprache mithilfe von Maschinen zu simulieren, gehen indes noch viel weiter zurück. Der erste „Chatbot“ war ELIZA, eine Rogerianische Therapeutin, die 1966 von Joseph Weizenbaum entwickelt wurde. Fiktionen von künstlichen Menschen, die wie echte sprechen und sich verhalten, gibt es seit Jahrtausenden.
Doch um Androiden oder Gynoiden soll es in diesem Text nicht gehen. Am Beispiel Universität lässt sich zeigen, vor welch komplizierte Aushandlungsprozesse uns die sogenannte schwache KI stellt. In einer Schreibberatung erkundigte sich ein technikversierter Student, ob er kennzeichnen müsse, dass er GPT-3 seine Forschungsfrage gestellt, die Antworten sortiert und die besten in seine Argumentation eingebaut habe.
arbeitet am Zentrum für Wissenschaftsdidaktik der Ruhr-Universität Bochum im Schreibzentrum zum Thema KI-basierte Schreibtools und Schreibdidaktik.
Ähnlich wie beim Taschenrechner
Unter den Kolleg:innen gingen die Meinungen dazu deutlich auseinander: Nein, wenn ich mich mit Kommiliton:innen austausche, muss ich ja auch nicht jede Idee ausweisen, die im Gespräch aufkommt, genauso wenn ich online in einem Diskussionsforum nachfrage. Natürlich müssen Hilfsmittel gekennzeichnet werden. Aber geben wir auch die Word-Rechtschreibprüfung oder jede Google-Anfrage an? Es geht ganz viel auch um Konventionen.
Dass Studierende sich untereinander austauschen, dass sie das von den Dozent:innen im Seminar Diskutierte verarbeiten, dass sie googeln und Korrekturlesen lassen, ist klar. Wie KI da reinpasst, bleibt vorläufig ungewiss. Die Frage, die sich dabei stellt, lautet: Ist die Kompetenz, aus verschiedenen Argumenten auswählen zu können, gleichwertig dazu, eigene Argumente zu finden? Und daraus folgt schon die nächste Frage: Was ist überhaupt das Ziel der Argumentation?
Der fertige Text, der in sich schlüssig ist und gute Argumente aufweist? Oder der Prozess, bei dem kritisches Denken gefordert ist? KI-basierte Anwendungen wie ChatGPT können an ganz unterschiedlichen Stellen im Schreibprozess zum Einsatz kommen. Im Beispiel mit dem Studenten ging es um Wissen und Ideen: ChatGPT kann mir Sachverhalte erklären, die ich sonst erst recherchieren müsste, und mir Ideen für Argumente liefern, die mir sonst nicht eingefallen wären.
KI-Anwendungen können bei Formulierungen und dabei, meine eigenen Gedanken aufs Papier zu bringen, helfen. Oder lästige Arbeiten loszuwerden, wie das Verfassen von Mails und Abstracts wissenschaftlicher Artikel. Das an eine Maschine auszulagern, wäre eine große Arbeitserleichterung und Zeitersparnis. Ähnliche Diskussionen gab es übrigens bei fast jeder neuen Technologie – man denke an den Taschenrechner.
Nicht für alle Disziplinen geeignet
Wenn die Schüler:innen in Klassenarbeiten umständliche Rechenoperationen nicht mehr selbst ausführen müssen, bleibt mehr Zeit für andere Aufgabentypen und Problemlösungen. Andererseits lernen die Schüler:innen trotzdem noch Kopfrechnen, bevor sie mit einem Taschenrechner arbeiten dürfen. Bevor ich mir Abstracts von einer KI schreiben lasse, muss ich selbst erst mal verstehen, was dort reingehört.
Wie beim Taschenrechner sollte die Frage also eigentlich nicht lauten: KI-gestütztes Schreiben – ja oder nein?, sondern vielmehr: ab wann? Wie sinnvoll der Einsatz von KI-basierten Schreibtools ist, lässt sich nicht verallgemeinern. Schaut man allein in die Wissenschaft, wird man mit völlig unterschiedlichen Konzepten über das Schreiben konfrontiert, je nachdem, wen man fragt. In der Psychologie gehört hinter jede Aussage ein Beleg. Die KI bringt da wenig, denn GPT-3 ist nicht in der Lage, richtig zu referenzieren.
Wenn es zitiert, dann nur mit Glück auch tatsächlich existierende Texte. Man nennt das mittlerweile ‚Datenhalluzinationen‘. In der Literaturwissenschaft ist es Teil der Leistung, sich eine gute Forschungsfrage zu überlegen, während sie in anderen Fächern vorgegeben wird. Selbst für den Bereich der Hochschule lässt sich also kein allgemeingültiges Rezept dafür geben, wann und wo der Einsatz von künstlicher Intelligenz irgendwie nützlich wäre.
Schreiben ist ein komplexer Prozess, und es zählt nicht nur der fertige Text. Schreiben kann unendlich viele Funktionen haben, es ist auch Denk- und Forschungsinstrument. So vielfältig wie die Gründe sind, aus denen wir schreiben, so kompliziert wird es auch, wenn wir darüber nachdenken, wie sich künstliche Intelligenz darauf auswirkt.
Geduldige Co-Autorin
In der Wissenschaft spielen Quellen- und Literaturverweise eine wichtige Rolle. Wo habe ich eine Information her? Wie man richtig zitiert, gehört zu den ersten Lektionen eines Studiums. Zitieren dient der Transparenz: Jede:r kann meine Quelle einsehen und nachvollziehen, wo meine Informationen herkommen. Zitieren ist auch eine Absicherung: Das habe ich mir nicht selbst ausgedacht, sondern das geht auf die Forschung anderer zurück. Ich zeige damit auch, dass ich mich im Forschungsdiskurs auskenne und die Erkenntnisse der Wissenschaftler:innen, die ich zitiere, anerkenne.
Deshalb ist Autor:innenschaft ein zentrales Thema: Wer ist für ein publiziertes Forschungsergebnis verantwortlich. Dabei geht es natürlich auch um Karrieren, die auch an der Zahl der eigenen wissenschaftlichen Publikationen hängt. In diesem Zusammenhang wird KI dann oft als Kollaborationspartnerin gehandelt: Man gibt sie als Co-Autorin an. Aber so einfach diese Lösung erscheint, sie stellt vieles infrage: Kann man eine KI zitieren, wenn das Ergebnis nicht reproduzierbar ist? Braucht eine KI Wertschätzung? Kann eine KI verantwortlich sein für das, was sie ausgibt?
Es geht um geistiges Eigentum und Urheberschaft, aber es berührt auch Autor:innenschaft als Idee. Dass Autor:innenschaft ein höchst variables Konzept ist, zeigt ein Blick in die Vergangenheit. Im europäischen Mittelalter – zumindest im deutschsprachigen Raum – gab es keine feste Einheit von Text und Autor:in. Viele Texte sind anonym überliefert, und selbst die, die bestimmten und in der Regel männlichen Autoren zugeschrieben werden, weisen in der Überlieferung sogenannte Varianz auf, das bedeutet, dass sie in verschiedenen Handschriften zum Teil völlig anders erscheinen.
Für Erzählungen wird auf Bekanntes zurückgegriffen, Originalität ist nicht besonders wichtig; das Handwerkliche steht im Vordergrund, und die Verfasser rühmen sich vor allem damit, das Alte in neuem, besserem Gewand zu präsentieren. Die Erfindung der künstlerischen Originalität wird gemeinhin dem Sturm und Drang zugeschrieben, in dem das Konzept der ‚Genieästhetik‘ Form annahm.
Davor gab es in der Frühen Neuzeit einen Boom in der Übersetzungspraxis, wo einerseits der Vorlage mit ihrer Einheit aus Sprache, Form und Autor besondere Wertschätzung zukam, während andererseits trotzdem stark in die Texte eingegriffen wurde. Tatsächlich war es noch viel komplizierter. Im Konzept von Autor:innenschaft einer Epoche zeigen sich die Werte einer Kultur oder Gesellschaft, und es zeigt sich auch, wie heterogen diese sein können. Das macht das Ganze mit der KI nicht einfacher.
Das eigene Buch in sieben Tagen
Ob KI als Autorin genannt werden darf, wird in der Wissenschaft gerade entsprechend kontrovers diskutiert, und einige Journals haben es in ihren Richtlinien bereits verboten. Man solle sie lieber im Methodenteil oder in der Danksagung nennen. Aber auch das hat natürlich ganz eigene Implikationen. Die Auseinandersetzung mit schreibender KI bringt uns dazu, uns mit diesen ganz grundlegenden Werten und Prinzipien zu beschäftigen. Wir werden nicht umhinkommen, vieles neu zu definieren.
Aber das muss nicht von heute auf morgen und mit blindem Aktionismus passieren. Etwas mehr Gelassenheit bedeutet gleichzeitig nicht, die Hände in den Schoß zu legen und das mit der schreibenden KI einfach passieren zu lassen. KI kann ein nützliches Hilfsmittel sein, aber auf die ethischen Implikationen bin ich noch gar nicht eingegangen: Was der Technokapitalismus, dessen Ausdruck der emsige Fortschritt im Bereich künstlicher Intelligenz ist, für die Gesellschaft und das Klima bedeutet, haben Kate Crawford („Atlas of AI“) und Meredith Broussard („Artificial Unintelligence“) eindrücklich beschrieben.
Künstler:innen rufen gerade in Social Media und auf der Kunstplattform ArtStation zum Boykott KI-generierter Bilder auf. Hier geht es um echtes Einkommen, denn diese Künstler:innen verdienen ihr Geld über Aufträge. Während Daniel Kehlmann sich in seinem Experiment („Mein Algorithmus und ich“) noch unbeeindruckt vom Können der KI zeigt, sind im Journalismus und beim Copywriting automatisch generierte Texte schon etabliert – inklusive Workshops: „Write your book in 7 days!“
Künstliche Intelligenz war schon immer eine hilfreiche Folie für die Entwicklung dystopischer oder utopischer Gesellschaftsentwürfe. Das ist sie auch jetzt, nur, dass wir langsam den Bereich der Fiktion verlassen. In diesem Text ist übrigens kein von einer KI generierter Absatz, auch wenn das gerade der Running Gag ist. Ob es dem Text gutgetan hätte? Sie können es ja ausprobieren und mir Bescheid geben.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
Israelische Drohnen in Gaza
Testlabor des Grauens
Nan Goldin in Neuer Nationalgalerie
Claudia Roth entsetzt über Proteste
Proteste bei Nan Goldin
Logiken des Boykotts
Bundeskongress der Jusos
Was Scholz von Esken lernen kann
Bündnis Sahra Wagenknecht
Ein Bestsellerautor will in den Bundestag
Politikwissenschaftlerin über Ukraine
„Land gegen Frieden funktioniert nicht“