Künstliche Intelligenz erwünscht: ChatGPT darf in Kiel mitstudieren

Stellt der neue Chatbot eine Gefahr für Prüfungsleistungen dar? Nein, sagt eine Kieler Hochschulprofessorin und sieht darin viel mehr eine Chance.

Ein Kind reicht einem Roboter die Hand

Helfende Hand: Die Kooperation mit „intelligenten“ Robotern wird künftig normal sein Foto: Andy Kelly/unsplash

HAMBURG taz | Sie haben keine Lust, eine Geburtstagskarte zu schreiben? Kein Problem, ab jetzt kann das der Bot „ChatGPT“ für sie übernehmen. Künstliche Intelligenz ist auf dem Vormarsch und hat verschiedene Namen: Die bekanntesten sind sicherlich Alexa und Siri.

Nun ist der sogenannte Chatbot „ChatGPT“, der seit November 2022 als Testversion frei zugänglich ist, hinzugekommen.Entwickelt wurde der Bot von dem Konzern OpenAI, der in San Francisco sitzt. Hinter dem Akronym verbirgt sich die sperrige Beschreibung: „Generative Pre-training Transformer“. Trainert wurde er mit riesigen Datensätzen und ist fähig, in einem Chat Anfragen zu beantworten.

Hier sind der Fantasie prinzipiell keine Grenzen gesetzt. Der Bot kann Rechenaufgaben lösen, aber ebenso eine Hochzeitsrede schreiben. Die Datensätze reichen allerdings nur bis zum Jahr 2021. Wenn man nach dem Amt der*­des Ver­tei­di­gungs­min­s­te­r*in fragt, ist die Antwort: „Annegret Kramp-Karrenbauer“.

Während die einen darin eine technologische Errungenschaft sehen, gibt es auch einige Kritiker*innen. Die Bedenken beziehen sich vor allem auf die Implikationen der Technologie für Bildungsinstitutionen. Ist der Bot das Ende für universitäre Hausarbeiten? Denn wie sollen Schulen oder Hochschulen verhindern, dass in Zukunft ChatGPT statt der Studierenden die Seminararbeiten schreibt?

Gamechanger für Bildungseinrichtungen

Die Professorin für Wirtschaftsinformatik Doris Weßels an der FH Kiel hat dafür eine einfache Antwort: gar nicht. Im Gegenteil, sie sieht darin einen Gamechanger für Bildungseinrichtungen. Die aktuelle Version des Bots sei durch die minimalistische Benutzeroberfläche sowie die Chatfunktion für eine breite Masse zugänglich und nützlich.

Sollte der Dienst noch besser werden, könne man den Bot als „interaktives und digitales Lexikon mit individueller Erklärfunktion nutzen“, sagt sie. „Das heutige Wikipedia wäre im Vergleich unattraktiv“. Man dürfe jedoch nicht vergessen, dass es sich aktuell noch um „fiktionale Texte“ handle. Der Wahrheitsgehalt müsse somit stetig gegengeprüft werden, warnt Weßels.

Sie hält die Einwände, Studierende könnten mit dem neuen Tool „betrügen“ für fehlgerichtet. Statt den Schü­le­r*in­nen und Studierenden „hinterher zu spionieren“ solle man überlegen, „wie solche Tools in die Lehre integriert werden können“. In einem ihrer Kurse habe sie den Chatbot mit ihren Studierenden gemeinsam ausprobiert.

Wichtig sei, dass der Prozess dokumentiert wird, der zum Ergebnis geführt hat. Das Staunen über einen solchen Vorschlag relativiert sich schnell, wenn man an den Aufschrei bei der Einführung des Taschenrechners als Hilfswerkzeug in Prüfungen zurückdenkt.

Beim ChatGPT-Bot gehe es um einen „interaktiven Austausch zwischen Mensch und Maschine“. Durch das Ausprobieren des Dienstes lerne man mit dem Programm umzugehen und Schwachstellen ebenso wie Limitationen zu lokalisieren.

Eben das beschreibt auch Moritz Larsen, der ChatGPT als Hilfswerkzeug für seine Masterarbeit verwendet hat. Die Qualität des Outputs hänge „vor allem davon ab, welche Fragen man stellt“, sagt er. Die Eigenleistung gehe somit nicht verloren. Gerade bei „Schreibblockaden“ sei es hilfreich, durch den Bot eine „Inspiration“ zu erhalten. Die Ergebnisse habe er jedoch immer genau geprüft, was auch nötig gewesen sei. Oft antworte ChatGPT nämlich „um den heißen Brei herum“. Es sei somit obligatorisch, im Gespräch mit dem Bot zu bleiben.

Man könne sich diesen wie einen „fiktiven Teilnehmer einer Gruppenarbeit“ vorstellen, dem man Fragen stellt, um sich dem Endergebnis anzunähern. Der Prozess, um zu einem Endergebnis zu gelangen, ist somit interaktiv und keineswegs bloßer Output von ChatGPT.

Doris Weßels bewertet bei Arbeiten, die mit dem Hilfsmittel ChatGPT angefertigt wurden, deswegen nicht nur das Endergebnis in Form von Daten oder Aussagen, sondern auch den Weg dorthin: methodisches und technisches Vorgehen. Auch wenn am Ende nicht mehr auseinanderzuhalten ist, was der Chatbot und was der Mensch geschrieben hat, muss dokumentiert werden, wo welche Hilfsmittel verwendet wurden. Legitime Hilfsmittel werden schlichtweg durch den Bot erweitert.

Nun hat das Unternehmen hinter ChatGPT eine kostenpflichtige Vollversion angekündigt

Nun hat das Unternehmen hinter ChatGPT eine kostenpflichtige Vollversion angekündigt. Diese Entwicklung sieht Weßels kritisch. Wenn sich den Bot nur wenige leisten könnten, drohe eine „digitale Spaltung“, die eine Bildungsungerechtigkeit zur Folge habe. Deshalb bedürfe es der „digitalen Souveränität“ in Form eines europäischen oder deutschen KI-Sprachmodells, das kostenfrei verfügbar ist. Das hätte außerdem den Vorteil, dass sich das Werte- und Kulturverständnis, das der Bot inkorporiert hat, nicht mehr wie jetzt primär aus amerikanischen Quellen speist.

Die Frage, ob Hausarbeiten nun überflüssig werden, beantwortet der Bot übrigens selbst so: „Es ist unwahrscheinlich, dass die universitäre Hausarbeit wegen ChatGPT oder anderen maschinellen Lernmodellen der Vergangenheit angehört. Eine universitäre Hausarbeit erfordert in der Regel eine gründliche Recherche, Analyse und Synthese von Informationen sowie die Anwendung von wissenschaftlichen Methoden.“

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.