ChatGPT mit Tücken: Kein Entkommen vor der KI

Neue Technologie, neue Versuchungen. Ex­per­t:in­nen sehen in ChatGPT den Anfang einer rasanten Entwicklung – die auch Risiken birgt.

Eine Illustration eines Roboter-Armes

Eine der nächsten Entwicklungen, in denen KI verschiedene Bereiche verbindet, könnte die Robotik sein Foto: Marco Osorio/imago

BERLIN taz | Wie wird Künstliche Intelligenz (KI) unsere Gesellschaft verändern? Und welche Weiterentwicklungen sind in nächster Zeit zu erwarten? Mit der Veröffentlichung des KI-Chatbots ChatGPT sind diese Fragen nicht nur in der Wissenschaft, sondern auch in der Gesellschaft in den Vordergrund gerückt. „Ich würde das als eine technologische Revolution bezeichnen“, sagte der KI-Experte Hinrich Schütze bei einem Gespräch des Science Media Centers am Donnerstag zu den jüngsten Entwicklungen.

Revolutionär sei unter anderem die Menge der verwendeten Trainingsdaten und der Fortschritt, dass ein Chatbot auch in der Lage sei, daraus dialogische Situationen zu generieren. Und bei aller Kritik an den Falschinformationen, die ChatGPT erzeugt: Im Vergleich zur ersten Generation an KI-Textgeneratoren, so Schütz, hätten sich grobe Fehler und Probleme wie Rassismus und Falschinformationen „um Größenordnungen verbessert“.

Das US-Unternehmen OpenAI hatte ChatGPT im November vorgestellt. Die KI wurde mit großen Textmengen trainiert und generiert auf Basis dieser Trainingsdaten neue Texte. In der vergangenen Woche wurde für zahlende Kun­d:in­nen eine neue Version freigeschaltet. Die kann nicht nur Texte, sondern auch Bilder verarbeiten. Ex­per­t:in­nen nennen das Multimodalität. Diese Multimodalität ist ein erster Schritt hin von einer schwachen KI, die nur eine Disziplin beherrscht, zu einer starken KI, die viele Bereiche miteinander verbindet.

Mit ChatGPT hat es eine KI-Anwendung erstmals geschafft, Künstliche Intelligenz für eine breite Masse an Menschen erfahrbar zu machen – sowohl was die Potenziale als auch was die Grenzen angeht. Als besonders problematisch gilt, dass das Programm auch in nennenswertem Umfang Falschinformationen generiert. Diese sind für Nut­ze­r:in­nen jedoch nicht direkt erkennbar, denn ChatGPT gibt keine Quellen für die erstellten Texte an.

Nicole Krämer, Professorin für Sozialpsychologie an der Universität Duisburg-Essen, wies auf ein weiteres Problem hin: „Menschen verstehen viel zu wenig, wie solche Systeme funktionieren.“ Das führe zu Fehleinschätzungen – einerseits bezüglich des Vertrauens, das der Software entgegengebracht werde. Andererseits aber auch in Bezug auf den Umgang mit den eigenen Daten. Menschen vertrauten KI-Systemen wie ChatGPT, aber auch Amazons Alexa zahlreiche persönliche Daten an.

„Die Gefahr ist nicht unbedingt die einzelne Info, die ich durch meine Anfrage an das System reingebe, sondern die Tatsache, dass das wieder mit anderen Daten zusammengebracht werden kann“, warnte sie. Hier sei der Gesetzgeber gefordert. Der müsse mindestens sicherstellen, dass die Nut­ze­r:in­nen sich tatsächlich darüber im Klaren seien, welche Daten wie verarbeitet würden.

Kaum ein digitales Dasein ohne KI

Das wäre um so wichtiger, weil es Krämer zufolge in den kommenden Jahren immer schwieriger werde, keine Daten an eine KI zu liefern. Selbst wer sich keinen Sprachassistenten wie Alexa in die Wohnung holt, auf ChatGPT und KI-gestützte Suchmaschinen verzichtet, nutze vielleicht soziale Medien – und auch da würde unter anderem KI über die Sortierung und Sichtbarkeit von Nachrichten eine Rolle spielen. „Ich glaube, ganz entkommen kann man der KI nicht.“

Schütze, Inhaber des Lehrstuhls für Computerlinguistik und Direktor des Centrums für Informations- und Sprachverarbeitung an der Ludwig-Maximilians-Universität München, wies ebenso auf die Kehrseiten der neuen Technologie hin: Berufsfelder, die überflüssig würden, eine zunehmende Intransparenz der Systeme, wenn Menschen bei Suchanfragen nur noch Antworten, aber keine Quellen mehr angezeigt bekommen.

Und: „Es wird die Versuchung bestehen, Entscheidungen durch diese Maschinen machen zu lassen.“ In den Bereichen Recht und Vermögensberatung beispielsweise, aber auch in der Medizin. Das Problem dabei: Die Entscheidung der KI komme mit einer hohen Glaubwürdigkeit daher – dabei sei die Sicherheit der Aussage überhaupt nicht einschätzbar. „Und die Menschen sind nicht daran gewöhnt, dass jemand mit hundertprozentiger Sicherheit und Selbstvertrauen spricht, aber völlig falsch liegt.“ Das müssten wir als Gesellschaft lernen und das werde „ein schwieriger Prozess.“

Eine der nächsten Entwicklungen, in denen KI verschiedene Bereiche verbindet, könnte die Robotik sein. Marc Toussaint ist Leiter des Fachgebietes Intelligente Systeme an der Technischen Universität Berlin und hat selbst an einem KI-Modell mitgearbeitet, das Sprache und Robotik verbindet. Ein Roboter, ausgestattet mit Kamera und Greifarm, konnte so Sprachbefehle ausführen – und etwa Chips aus der richtigen Schublade holen. Toussaint teilt den Revolutionsgedanken: Mit der „Verschränkung von Sprache und physischer Welt“ eröffneten sich ganz neue Möglichkeiten.

Doch Revolution hin oder der – Schütze warnt gleichzeitig davor, zu viel Potenzial in den neuesten Entwicklungen zu sehen. „Wir haben noch keine echte Künstliche Intelligenz erreicht“, sagte er. Die sehe er erst, wenn bei der KI ein „tiefes Verständnis der physischen und sozialen Welt“ erreicht sei – und da rechne er noch mit jahrzentelanger Arbeit.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.