Präsident der Karlshochschule über KI: „Es gibt noch genug zu tun“

Künstliche Intelligenz verändert die Gesellschaft – und das Lernen. Die Klausur als Maßstab für erfolgreiche Bildung taugt nicht mehr, meint Robert Lepenies.

Studierende sitzen auf dem Boden vor ihren Laptops rum

Reale Intelligenz: Stu­den­t:in­nen in der Ludwig-Maximilians-Universität München Foto: Ulrich Baumgarten/getty images

taz: Die Künstliche Intelligenz ChatGPT generiert auf Prüfungsfragen in Jura oder Medizin so gute Antworten, dass Stu­den­t:in­nen damit Bestnoten erzielen würden. Wie verändert diese Entwicklung die Bedeutung des Wissens?

Robert Lepenies: Selbst wenn eine Anwendung wie ChatGPT eines Tages verlässlich das bereits vorhandene Wissen der Welt zusammenfassen würde – es bliebe immer noch genug übrig, was uns keine Software abnehmen kann. Wir müssen zum Beispiel wissen, wie wir es schaffen, eine nachhaltige gesellschaftliche Transformation hinzukriegen. Wenn wir uns also fragen, was Hochschulen im Speziellen und Bildung im Allgemeinen in Zeiten von Künstlicher Intelligenz noch für eine Aufgabe hat, dann würde ich sagen: Es gibt noch genug zu tun.

Jahrgang 1984, ist Politik- und Wirtschaftswissenschaftler und Präsident der privaten Karlshochschule in Karlsruhe

Was verändert denn ChatGPT?

Erst mal macht es uns klar, wie falsch es ist, Bildung immer nur im Kontext von Prüfungen oder Seminararbeiten zu sehen. Wissen muss etwas sein, das die Welt voranbringt. Bringt uns diese Debatte hin zu mehr Praxisnähe, zum Ausprobieren, zum experimentellen Lernen? Das wäre toll. Ein reiner Fokus auf Hausarbeit oder Klausur als Maßstab für erfolgreiche Bildung – davon müssen wir uns befreien.

Und ganz konkret?

Die Leichtigkeit, mit der es möglich ist, mit ChatGPT schnell große Mengen an Text zu produzieren, die wälzt viel um. Und das betrifft tatsächlich alle Menschen, die an Bildungseinrichtungen arbeiten. Man kann eine schnelle Seminararbeit erstellen, eine Modulbeschreibung, man kann Werbetexte, Konferenzankündigungen, Bewerbungen oder Anträge unglaublich schnell generieren.

Ist das jetzt gut oder schlecht?

Ambivalent.

Warum?

Wir können einerseits ganz viel Hilfreiches damit anfangen. Nach Abschluss einer Bildungseinheit kann ich mir als Lehrender von der Software zum Beispiel ein Quiz dazu generieren lassen. Ich kann meinen Seminarplan hochladen mit der Frage, ob ich etwas Wichtiges vergessen habe. Bald werden wir wohl auf Knopfdruck einzelne Lernvideos erstellen und bebildern lassen können. Schon heute kann ich im Seminar einen Chatbot im Prozess des Brainstormings mit einbinden und dann gemeinschaftlich die Ergebnisse diskutieren. Da sind die Ergebnisse meiner Erfahrung nach viel höherwertiger, als wenn zunächst jeder für sich selbst nachdenkt oder mit Nachbarin oder Nachbarn. Das ist wie vor 30 Jahren in der Kneipe: Hatte da jemand eine Faktenfrage, konnte man auch nicht einfach nachschauen. Heute geht das. Und das kann eine Diskussion durchaus voranbringen oder Falschinformationen ausräumen.

Und andererseits?

Andererseits hängt die normative Bewertung solcher Technologien von mehreren Faktoren ab. Unter anderem auch davon, wie gerecht die Gesellschaft ist, auf die eine Technologie trifft – in unserer Welt, in der Lebenschancen global extrem ungleich verteilt sind, werden wir sicher bald die Auswirkungen spüren. Trifft eine disruptive Technologie auf eine sehr ungerechte Gesellschaft, wird sie davon höchstwahrscheinlich noch ungerechter. Trifft sie auf einen paradiesischen Zustand der Gleichheit, dann wird es mehr positive Effekte geben.

Letzteres haben wir jedenfalls nicht. Welche Auswirkungen hat das also in der Praxis?

Erstmal merken wir, dass sich etwas verändert. Und das ist gut, denn wann immer wir Veränderung wahrnehmen, können wir sie auch reflektieren und damit bewusst umgehen. Das heißt: An jedem Tag der Lehre an jeder Uni ist ChatGPT auch ein Thema. Da stellt sich etwa die Frage, wie wir unsere Studierenden auf eine Welt vorbereiten, in der sie sich ständig auf neue Technologien einstellen müssen. Wer wird von diesen Veränderungen betroffen sein? Was bedeutet es für eine Gesellschaft, wenn die Technologien ein ständiges Umorientieren erfordern? Hier sind wir wieder beim Thema Gerechtigkeit. Oder ganz konkret: Wie gehen die Prüfungsämter damit um, dass sich Seminararbeiten oder Teile davon einfach maschinell erstellen lassen?

Ist das ein Problem, das Sie in der Praxis sehen?

Noch nicht. Mit Betonung auf „noch“. Denn momentan kann man darüber lachen, dass es inhaltlich häufig Quatsch ist, was bei dem Programm rauskommt. Manche Studierende nutzen es trotzdem und fallen auf die Nase damit. Zum Beispiel, weil sie das Programm als Suchmaschine nutzen und Falschbehauptungen übernehmen. Die Frage ist: Was ist denn in drei Jahren, wenn diese Funktionen überall eingebettet sind? Haben dann noch Menschen die Konzentration, seitenlange Artikel durchzulesen? Oder haben wir das verlernt, weil alle sich nur noch KI-generierte Zusammenfassungen anschauen? Es ist faszinierend zu sehen, wie schnell sich Kulturtechniken verändern.

Und welche Antworten haben Sie?

Eine Antwort ist eine Pluralität der Prüfungsformen. Wir müssen vom Auswendiglernen und Reproduzieren weg zur Anwendung, zur Transformation – der Welt und der eigenen Persönlichkeit. Zum Beispiel Gruppenarbeit in konkreten Projekten in der Praxis. Da lernen die Studierenden direkt am Zahn der Zeit, was die Gesellschaft, was die Unternehmen oder Organisationen eigentlich denken und brauchen und welche Fragen sie sich stellen. Dabei verbringt beispielsweise eine Gruppe Studierender ein Semester bei einer zivilgesellschaftlichen Organisation und entwickelt gemeinsam mit denen ein durchführbares Konzept zu einer gesellschaftlich relevanten Frage. Was man jetzt schon absehen kann: Wir werden in Zukunft ganz neue Fähigkeiten brauchen. Eine ist, den Output eines solchen Programms richtig einzuordnen. Und zwar nicht nur offensichtliche Falschinformationen, sondern beispielsweise Verzerrungen, die sich durch einseitige Trainingsdaten ergeben können. Eine andere Kompetenz, die wichtiger werden wird: Wie bekomme ich das Programm überhaupt dazu, etwas Sinnvolles zu erzeugen? Das ist gar nicht so einfach, etwa bei einem Bildgenerator genau das Bild generiert zu bekommen, was man im Kopf hat. Da braucht man Ausdauer, aber auch ein gewisses Maß an Interaktion, Sozialität und intui­tivem Wissen über die Welt jenseits der Maschine. Man braucht Impressionen von draußen, um in der Lage zu sein, einen guten Prompt …

…das ist der Textbefehl für eine Künstliche Intelligenz …

… zu generieren. Dieses Silicon-Valley-Bild, dass man einfach die Lernenden vor die Bildschirme setzt und dann wird das schon, das wird nie aufgehen können. Wir werden immer noch die Welt jenseits des Bildschirms brauchen.

Inwieweit sind Sie in dem ganzen Prozess als Bildungseinrichtungen Getriebene oder Gestalterinnen?

Ich hoffe natürlich, dass wir zu den Gestaltern gehören. Dass wir es schaffen, Reflektionsräume zu öffnen, Raum für Kritik zu geben – und nicht einfach beibringen, wie man die besten Prompts schreibt. Stattdessen geht es vor allem darum, kritisches Denken zu vermitteln: Wer bekommt denn die ganzen Daten der Nutzenden? Woher kommen die Trainingsdaten für die KI? Welche Biases, also Verzerrungen sind da möglicherweise drin? Wie geht man damit um? Wie checken wir Quellen? Das alles macht einen noch nicht zum Gestalter, aber es schafft eine Digitalkompetenz. Und die ist die Basis zum Gestalten.

Und was braucht es noch?

Ich glaube, wir brauchen mehrere große, politische Lösungen. Europäische KI-Modelle, die offen und privatsphärefreundlich sind, und eine wirksame Regulierung beispielsweise. Da passiert gerade noch nicht genug und vor allem nicht schnell genug.

Je stärker wir KI-Anwendungen einbinden, desto abhängiger machen wir uns von ihnen – davon, dass das Internet funktioniert oder das Unternehmen OpenAI sein Programm ChatGPT weiterhin für alle kostenlos bereitstellt.

Ja, da ist es wichtig, dass wir als Gesellschaft darauf achten, die Souveränität zu behalten. Dass wir also Entscheidungen weiterhin selber treffen und Kompetenzen – wie etwa die Fähigkeit zu einer medizinischen Diagnosestellung – immer noch haben, auch wenn die KI das vielleicht besser kann. Es braucht ein Reservoir an Menschen, die elementare Kulturtechniken beherrschen, wie etwa das Schreiben. Ob es aber deshalb sinnvoll ist, alle Schü­le­r:in­nen in einer Abiturprüfung fünf Stunden lang mit einem Kugelschreiber ein Papier bearbeiten zu lassen – das bezweifel ich.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.