ChatGPT mit Tücken: Kein Entkommen vor der KI
Neue Technologie, neue Versuchungen. Expert:innen sehen in ChatGPT den Anfang einer rasanten Entwicklung – die auch Risiken birgt.
Revolutionär sei unter anderem die Menge der verwendeten Trainingsdaten und der Fortschritt, dass ein Chatbot auch in der Lage sei, daraus dialogische Situationen zu generieren. Und bei aller Kritik an den Falschinformationen, die ChatGPT erzeugt: Im Vergleich zur ersten Generation an KI-Textgeneratoren, so Schütz, hätten sich grobe Fehler und Probleme wie Rassismus und Falschinformationen „um Größenordnungen verbessert“.
Das US-Unternehmen OpenAI hatte ChatGPT im November vorgestellt. Die KI wurde mit großen Textmengen trainiert und generiert auf Basis dieser Trainingsdaten neue Texte. In der vergangenen Woche wurde für zahlende Kund:innen eine neue Version freigeschaltet. Die kann nicht nur Texte, sondern auch Bilder verarbeiten. Expert:innen nennen das Multimodalität. Diese Multimodalität ist ein erster Schritt hin von einer schwachen KI, die nur eine Disziplin beherrscht, zu einer starken KI, die viele Bereiche miteinander verbindet.
Mit ChatGPT hat es eine KI-Anwendung erstmals geschafft, Künstliche Intelligenz für eine breite Masse an Menschen erfahrbar zu machen – sowohl was die Potenziale als auch was die Grenzen angeht. Als besonders problematisch gilt, dass das Programm auch in nennenswertem Umfang Falschinformationen generiert. Diese sind für Nutzer:innen jedoch nicht direkt erkennbar, denn ChatGPT gibt keine Quellen für die erstellten Texte an.
Nicole Krämer, Professorin für Sozialpsychologie an der Universität Duisburg-Essen, wies auf ein weiteres Problem hin: „Menschen verstehen viel zu wenig, wie solche Systeme funktionieren.“ Das führe zu Fehleinschätzungen – einerseits bezüglich des Vertrauens, das der Software entgegengebracht werde. Andererseits aber auch in Bezug auf den Umgang mit den eigenen Daten. Menschen vertrauten KI-Systemen wie ChatGPT, aber auch Amazons Alexa zahlreiche persönliche Daten an.
„Die Gefahr ist nicht unbedingt die einzelne Info, die ich durch meine Anfrage an das System reingebe, sondern die Tatsache, dass das wieder mit anderen Daten zusammengebracht werden kann“, warnte sie. Hier sei der Gesetzgeber gefordert. Der müsse mindestens sicherstellen, dass die Nutzer:innen sich tatsächlich darüber im Klaren seien, welche Daten wie verarbeitet würden.
Kaum ein digitales Dasein ohne KI
Das wäre um so wichtiger, weil es Krämer zufolge in den kommenden Jahren immer schwieriger werde, keine Daten an eine KI zu liefern. Selbst wer sich keinen Sprachassistenten wie Alexa in die Wohnung holt, auf ChatGPT und KI-gestützte Suchmaschinen verzichtet, nutze vielleicht soziale Medien – und auch da würde unter anderem KI über die Sortierung und Sichtbarkeit von Nachrichten eine Rolle spielen. „Ich glaube, ganz entkommen kann man der KI nicht.“
Schütze, Inhaber des Lehrstuhls für Computerlinguistik und Direktor des Centrums für Informations- und Sprachverarbeitung an der Ludwig-Maximilians-Universität München, wies ebenso auf die Kehrseiten der neuen Technologie hin: Berufsfelder, die überflüssig würden, eine zunehmende Intransparenz der Systeme, wenn Menschen bei Suchanfragen nur noch Antworten, aber keine Quellen mehr angezeigt bekommen.
Und: „Es wird die Versuchung bestehen, Entscheidungen durch diese Maschinen machen zu lassen.“ In den Bereichen Recht und Vermögensberatung beispielsweise, aber auch in der Medizin. Das Problem dabei: Die Entscheidung der KI komme mit einer hohen Glaubwürdigkeit daher – dabei sei die Sicherheit der Aussage überhaupt nicht einschätzbar. „Und die Menschen sind nicht daran gewöhnt, dass jemand mit hundertprozentiger Sicherheit und Selbstvertrauen spricht, aber völlig falsch liegt.“ Das müssten wir als Gesellschaft lernen und das werde „ein schwieriger Prozess.“
Eine der nächsten Entwicklungen, in denen KI verschiedene Bereiche verbindet, könnte die Robotik sein. Marc Toussaint ist Leiter des Fachgebietes Intelligente Systeme an der Technischen Universität Berlin und hat selbst an einem KI-Modell mitgearbeitet, das Sprache und Robotik verbindet. Ein Roboter, ausgestattet mit Kamera und Greifarm, konnte so Sprachbefehle ausführen – und etwa Chips aus der richtigen Schublade holen. Toussaint teilt den Revolutionsgedanken: Mit der „Verschränkung von Sprache und physischer Welt“ eröffneten sich ganz neue Möglichkeiten.
Doch Revolution hin oder der – Schütze warnt gleichzeitig davor, zu viel Potenzial in den neuesten Entwicklungen zu sehen. „Wir haben noch keine echte Künstliche Intelligenz erreicht“, sagte er. Die sehe er erst, wenn bei der KI ein „tiefes Verständnis der physischen und sozialen Welt“ erreicht sei – und da rechne er noch mit jahrzentelanger Arbeit.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
Nach dem Anschlag in Magdeburg
Rechtsextreme instrumentalisieren Gedenken
Bundestagswahl am 23. Februar
An der Wählerschaft vorbei
Erderwärmung und Donald Trump
Kipppunkt für unseren Klimaschutz
Anschlag in Magdeburg
„Eine Schockstarre, die bis jetzt anhält“
EU-Gipfel zur Ukraine-Frage
Am Horizont droht Trump – und die EU ist leider planlos
Wirbel um KI von Apple
BBC kritisiert „Apple Intelligence“