piwik no script img

Künstliche Intelligenz an Berliner UnisTextgenerator? Läuft!

Wie gehen Berliner Hochschulen mit Arbeiten um, die möglicherweise von KI verfasst wurde? Verbieten geht nicht, heißt es an der Technischen Uni.

Heute schon die Kreativität deines Rechners getestet? Homepage vonChatGPT Foto: dpa

Berlin dpa | Er formuliert schnell und flüssig, das Ergebnis wirkt wie von Menschen geschrieben: Die wachsenden Fähigkeiten von Textgeneratoren wie ChatGPT lassen auch Universitäten in Berlin aufhorchen. Eine Sorge ist, dass der Nachweis von Täuschungen immer schwieriger wird, etwa bei Hausarbeiten. Es werden aber auch Chancen gesehen, wie Anfragen der Deutschen Presse-Agentur bei den drei großen Universitäten Berlins und bei der Senatsverwaltung für Wissenschaft ergeben haben.

Insbesondere der seit Ende November 2022 kostenfrei zugängliche Chatbot ChatGPT des Entwicklers OpenAI hat in den vergangenen Wochen viel Aufmerksamkeit auf sich gezogen. Nach einer Registrierung können Nutzer sich unter anderem auf Kommando binnen Sekunden Texte generieren lassen. Der Bot liefert – zumindest auf den ersten Blick – intelligente Antworten. Egal, ob man zum Beispiel nach der Zusammenfassung eines literarischen Werks, der Biografie eines Politikers oder nach der Sicherheit von Impfstoffen fragt.

„Es wird schon längst benutzt. Es ist so. Gerade Leute unter Zeitdruck greifen darauf zurück“, sagte die Berliner Informatikerin und Plagiatsexpertin Debora Weber-Wulff von der Hochschule für Technik und Wirtschaft Berlin (HTW) kürzlich dem Spiegel. Die Schwierigkeit bei ChatGPT sei, dass die Maschine einzigartige Texte produziere, die von Suchmaschinen nicht gefunden würden.

„Aus meiner Sicht müssen wir proaktiv mit solchen Softwarelösungen umgehen“, sagte Christian Schröder, Vizepräsident für Studium und Lehre der Technischen Universität (TU). Man müsse wissen, was sie können und sie auch aktiv einsetzen. „Totschweigen und verbieten geht nicht und ist auch nicht sinnvoll.“ Digitale Prüfungen würden wohl weniger von zu Hause, sondern eher in speziellen Zentren erbracht, wo die Geräte kontrolliert würden. Schwierig werde es bei Arbeiten ohne direkte Aufsicht, wie etwa Hausarbeiten. „Hier muss gegebenenfalls völlig neu gedacht werden.“

Momentan ist ein Enthusiasmus da, der die Fähigkeiten von ChatGPT überschätzt

Oliver Brock, TU Berlin

Die Möglichkeiten Künstlicher Intelligenz (KI) sehe man „nicht (nur) als Bedrohung, sondern auch als Chance“, hieß es von der Humboldt-Universität (HU). Man überlege, wie Lehr- und Prüfungsformen unter Berücksichtigung von KI gestaltet werden können und sollten. „Komplett verhindern lassen wird sich der Einsatz von textgenerierender KI zum Beispiel bei Hausarbeiten oder Abschlussarbeiten in der Praxis kaum – es wird darum gehen, gemeinsam an reflektierten Einsatzszenarien zu arbeiten.“

Noch kein Fall von Täuschung bekannt

„An der Freien Universität wird derzeit darüber diskutiert, wie die Hochschule mit dem Einsatz von beispielsweise ChatGPT in Lehre und Forschung umgeht“, teilte die FU auf Anfrage mit. Prüfungsrechtlich würde ein solches Vorgehen als Täuschung eingeordnet, zentral sei an der FU aber kein solcher Fall bekannt.

Berlins Wissenschaftssenatorin Ulrike Gote (Grüne) sagte kürzlich im Ausschuss für Wissenschaft und Forschung des Abgeordnetenhauses, dass es seitens der Hochschulen bislang keine Problem- oder Warnanzeigen zu dem Thema gegeben habe. Sie müsse derzeit keine dezidierten Vorgaben machen und vertraue auf die Autonomie der Hochschulen. Diese beschäftigten sich intensiv mit dem Thema.

IT-Weiterentwicklungen hätten auch schon in der Vergangenheit zu Weiterentwicklungen in Forschung und Lehre geführt, sagte Gote weiter. Als Beispiel nannte sie etwa die Online-Enzyklopädie Wikipedia. Eine Lösungsmöglichkeit seien kombinierte Prüfungen aus schriftlicher Arbeit und mündlicher Verteidigung. Lehrende und Studierende sollten sich kennen.

Auch wenn die neuen Möglichkeiten verlockend klingen: Noch handelt es sich bei ChatGPT um ein Versuchsprojekt, das hinzulernen soll. Die Software wurde bereits mit großen Informationsmengen trainiert. Kritiker geben auch zu bedenken, dass sie Vorurteile und Fehler verbreiten könnte, die sich aus ihrer Datenbasis ergeben.

Fakten prüfen und Sinnvolles von Unsinnigem trennen – das muss bislang noch der Nutzer selbst. Ein Beispiel: Angela Merkel ist für das Programm noch Bundeskanzlerin in Deutschland. Denn der Wissensstand ist bislang nicht auf der Höhe der Zeit.

Das Programm bedeute zwar einen „bedeutenden Fortschritt“, sagte Oliver Brock, Professor am Robotics and Biology Laboratory der TU Berlin, am Donnerstag. Derzeit sehe man aber nur das, was funktioniere. „Momentan ist ein Enthusiasmus da, der die Fähigkeiten von ChatGPT überschätzt.“

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

4 Kommentare

 / 
  • So lange ich den Turing Test noch selbst ziemlich einfach durchführen kann, ist die Gefahr noch nicht so groß



    (hier ein Transskript-Auszug mit ChatGPT:

    Frage: "ok, geografie ist nich deine stärke, etwas anderes: welchen laut macht eine kuh?"

    Antwort:"Kühe machen verschiedene Laute, je nach dem was sie ausdrücken möchten. Muh, Mäh und Meckern sind die häufigsten Laute, dei Kühe machen. Sie können auch wiehern, brüllen und sogar miauen."

    Drei Tage später:

    Frage:"welche laute macht eine kuh?"



    Antwort:"Eine Kuh macht das Geräusch "muh"

    Frage:"beim letzten mal hast du mir gesagt, sie macht auch mäh und miaut?"

    Antwort:"Ich entschuldige mich, das war ein Fehler meinerseits. Eine Kuh macht tatsächlich in der Regel nur das Geräusch "muh". Mäh und miau sind Laute, die eher von Schafen und Katzen gemacht werden."

    Frage:"Und wie ist das bei wollmäusen?

    Antwort:"Wollmäuse (auch bekannt als Wollhörnchen) sind Tiere, die in der Regel keine Laute von sich geben. Sie kommunizieren hauptsächlich durch Körpersprache und Geruchsmarkierungen. Wenn Wollmäuse jedoch gestresst oder bedroht sind, können sie ein leises Zischen oder Knurren von sich geben."

    Jetzt weiß ich endlich, woher das Knurren unter meinem Bett kommt :-)

  • Die nächste gefähliche Stufe: Der Roboter sagt die Wahrheit oder lügt, oder ist es doch ein Mensch? Vielleicht auch genau umgekehrt? Bitte mit Google, Twitter u.s.w. verzahnen! Dann schreibt der Robi den Twittertext für den anderen Robi, aber bitte mit Ökostrom!

  • "Eine Lösungsmöglichkeit seien kombinierte Prüfungen aus schriftlicher Arbeit und mündlicher Verteidigung. "

    Soso - wie man ja an Hand der nicht so seltenen zurückgezogenen Doktorgrade sieht.

    Nicht immer strafbar - aber immer eine Blamage für die Promotionsausschüsse.

  • Es gibt mehrere Risiken, die durch künstliche Texte in Lehre und Forschung entstehen können:

    Plagiat: Künstliche Texte können einfach generiert werden, was es Schülern und Studenten ermöglicht, Arbeiten abzuschreiben und so Plagiate zu begehen.

    Verzerrung der Ergebnisse: Künstliche Texte können in der Forschung verwendet werden, um falsche oder verzerrte Ergebnisse zu erzielen.

    Verlust des Vertrauens in die Wissenschaft: Wenn die Öffentlichkeit erfährt, dass künstliche Texte in der Wissenschaft verwendet werden, kann das Vertrauen in die Wissenschaft und ihre Ergebnisse beeinträchtigt werden.

    Unbefugte Verwendung: Künstliche Texte können auch für unethische oder strafbare Zwecke verwendet werden, wie z.B. das Verfassen von gefälschten Nachrichtenartikeln oder das Generieren von betrügerischen Inhalten.

    Es ist wichtig, dass Lehrer und Forscher sorgfältig prüfen, wie und wann sie künstliche Texte verwenden und die potenziellen Risiken berücksichtigen.

    ... schreibt mir chat.openai.com/chat dazu.