Künstliche Intelligenz erwünscht: ChatGPT darf in Kiel mitstudieren
Stellt der neue Chatbot eine Gefahr für Prüfungsleistungen dar? Nein, sagt eine Kieler Hochschulprofessorin und sieht darin viel mehr eine Chance.
Nun ist der sogenannte Chatbot „ChatGPT“, der seit November 2022 als Testversion frei zugänglich ist, hinzugekommen.Entwickelt wurde der Bot von dem Konzern OpenAI, der in San Francisco sitzt. Hinter dem Akronym verbirgt sich die sperrige Beschreibung: „Generative Pre-training Transformer“. Trainert wurde er mit riesigen Datensätzen und ist fähig, in einem Chat Anfragen zu beantworten.
Hier sind der Fantasie prinzipiell keine Grenzen gesetzt. Der Bot kann Rechenaufgaben lösen, aber ebenso eine Hochzeitsrede schreiben. Die Datensätze reichen allerdings nur bis zum Jahr 2021. Wenn man nach dem Amt der*des Verteidigungsminster*in fragt, ist die Antwort: „Annegret Kramp-Karrenbauer“.
Während die einen darin eine technologische Errungenschaft sehen, gibt es auch einige Kritiker*innen. Die Bedenken beziehen sich vor allem auf die Implikationen der Technologie für Bildungsinstitutionen. Ist der Bot das Ende für universitäre Hausarbeiten? Denn wie sollen Schulen oder Hochschulen verhindern, dass in Zukunft ChatGPT statt der Studierenden die Seminararbeiten schreibt?
Gamechanger für Bildungseinrichtungen
Die Professorin für Wirtschaftsinformatik Doris Weßels an der FH Kiel hat dafür eine einfache Antwort: gar nicht. Im Gegenteil, sie sieht darin einen Gamechanger für Bildungseinrichtungen. Die aktuelle Version des Bots sei durch die minimalistische Benutzeroberfläche sowie die Chatfunktion für eine breite Masse zugänglich und nützlich.
Sollte der Dienst noch besser werden, könne man den Bot als „interaktives und digitales Lexikon mit individueller Erklärfunktion nutzen“, sagt sie. „Das heutige Wikipedia wäre im Vergleich unattraktiv“. Man dürfe jedoch nicht vergessen, dass es sich aktuell noch um „fiktionale Texte“ handle. Der Wahrheitsgehalt müsse somit stetig gegengeprüft werden, warnt Weßels.
Sie hält die Einwände, Studierende könnten mit dem neuen Tool „betrügen“ für fehlgerichtet. Statt den Schüler*innen und Studierenden „hinterher zu spionieren“ solle man überlegen, „wie solche Tools in die Lehre integriert werden können“. In einem ihrer Kurse habe sie den Chatbot mit ihren Studierenden gemeinsam ausprobiert.
Wichtig sei, dass der Prozess dokumentiert wird, der zum Ergebnis geführt hat. Das Staunen über einen solchen Vorschlag relativiert sich schnell, wenn man an den Aufschrei bei der Einführung des Taschenrechners als Hilfswerkzeug in Prüfungen zurückdenkt.
Beim ChatGPT-Bot gehe es um einen „interaktiven Austausch zwischen Mensch und Maschine“. Durch das Ausprobieren des Dienstes lerne man mit dem Programm umzugehen und Schwachstellen ebenso wie Limitationen zu lokalisieren.
Eben das beschreibt auch Moritz Larsen, der ChatGPT als Hilfswerkzeug für seine Masterarbeit verwendet hat. Die Qualität des Outputs hänge „vor allem davon ab, welche Fragen man stellt“, sagt er. Die Eigenleistung gehe somit nicht verloren. Gerade bei „Schreibblockaden“ sei es hilfreich, durch den Bot eine „Inspiration“ zu erhalten. Die Ergebnisse habe er jedoch immer genau geprüft, was auch nötig gewesen sei. Oft antworte ChatGPT nämlich „um den heißen Brei herum“. Es sei somit obligatorisch, im Gespräch mit dem Bot zu bleiben.
Man könne sich diesen wie einen „fiktiven Teilnehmer einer Gruppenarbeit“ vorstellen, dem man Fragen stellt, um sich dem Endergebnis anzunähern. Der Prozess, um zu einem Endergebnis zu gelangen, ist somit interaktiv und keineswegs bloßer Output von ChatGPT.
Doris Weßels bewertet bei Arbeiten, die mit dem Hilfsmittel ChatGPT angefertigt wurden, deswegen nicht nur das Endergebnis in Form von Daten oder Aussagen, sondern auch den Weg dorthin: methodisches und technisches Vorgehen. Auch wenn am Ende nicht mehr auseinanderzuhalten ist, was der Chatbot und was der Mensch geschrieben hat, muss dokumentiert werden, wo welche Hilfsmittel verwendet wurden. Legitime Hilfsmittel werden schlichtweg durch den Bot erweitert.
Nun hat das Unternehmen hinter ChatGPT eine kostenpflichtige Vollversion angekündigt. Diese Entwicklung sieht Weßels kritisch. Wenn sich den Bot nur wenige leisten könnten, drohe eine „digitale Spaltung“, die eine Bildungsungerechtigkeit zur Folge habe. Deshalb bedürfe es der „digitalen Souveränität“ in Form eines europäischen oder deutschen KI-Sprachmodells, das kostenfrei verfügbar ist. Das hätte außerdem den Vorteil, dass sich das Werte- und Kulturverständnis, das der Bot inkorporiert hat, nicht mehr wie jetzt primär aus amerikanischen Quellen speist.
Die Frage, ob Hausarbeiten nun überflüssig werden, beantwortet der Bot übrigens selbst so: „Es ist unwahrscheinlich, dass die universitäre Hausarbeit wegen ChatGPT oder anderen maschinellen Lernmodellen der Vergangenheit angehört. Eine universitäre Hausarbeit erfordert in der Regel eine gründliche Recherche, Analyse und Synthese von Informationen sowie die Anwendung von wissenschaftlichen Methoden.“
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
Müntefering und die K-Frage bei der SPD
Pistorius statt Scholz!
Kampf gegen die Klimakrise
Eine Hoffnung, die nicht glitzert
Angeblich zu „woke“ Videospiele
Gamer:innen gegen Gendergaga
Altersgrenze für Führerschein
Testosteron und PS
Haldenwang über Wechsel in die Politik
„Ich habe mir nichts vorzuwerfen“
Rentner beleidigt Habeck
Beleidigung hat Grenzen