piwik no script img

ChatGPT mit TückenKein Entkommen vor der KI

Neue Technologie, neue Versuchungen. Ex­per­t:in­nen sehen in ChatGPT den Anfang einer rasanten Entwicklung – die auch Risiken birgt.

Eine der nächsten Entwicklungen, in denen KI verschiedene Bereiche verbindet, könnte die Robotik sein Foto: Marco Osorio/imago

Berlin taz | Wie wird Künstliche Intelligenz (KI) unsere Gesellschaft verändern? Und welche Weiterentwicklungen sind in nächster Zeit zu erwarten? Mit der Veröffentlichung des KI-Chatbots ChatGPT sind diese Fragen nicht nur in der Wissenschaft, sondern auch in der Gesellschaft in den Vordergrund gerückt. „Ich würde das als eine technologische Revolution bezeichnen“, sagte der KI-Experte Hinrich Schütze bei einem Gespräch des Science Media Centers am Donnerstag zu den jüngsten Entwicklungen.

Revolutionär sei unter anderem die Menge der verwendeten Trainingsdaten und der Fortschritt, dass ein Chatbot auch in der Lage sei, daraus dialogische Situationen zu generieren. Und bei aller Kritik an den Falschinformationen, die ChatGPT erzeugt: Im Vergleich zur ersten Generation an KI-Textgeneratoren, so Schütz, hätten sich grobe Fehler und Probleme wie Rassismus und Falschinformationen „um Größenordnungen verbessert“.

Das US-Unternehmen OpenAI hatte ChatGPT im November vorgestellt. Die KI wurde mit großen Textmengen trainiert und generiert auf Basis dieser Trainingsdaten neue Texte. In der vergangenen Woche wurde für zahlende Kun­d:in­nen eine neue Version freigeschaltet. Die kann nicht nur Texte, sondern auch Bilder verarbeiten. Ex­per­t:in­nen nennen das Multimodalität. Diese Multimodalität ist ein erster Schritt hin von einer schwachen KI, die nur eine Disziplin beherrscht, zu einer starken KI, die viele Bereiche miteinander verbindet.

Mit ChatGPT hat es eine KI-Anwendung erstmals geschafft, Künstliche Intelligenz für eine breite Masse an Menschen erfahrbar zu machen – sowohl was die Potenziale als auch was die Grenzen angeht. Als besonders problematisch gilt, dass das Programm auch in nennenswertem Umfang Falschinformationen generiert. Diese sind für Nut­ze­r:in­nen jedoch nicht direkt erkennbar, denn ChatGPT gibt keine Quellen für die erstellten Texte an.

Nicole Krämer, Professorin für Sozialpsychologie an der Universität Duisburg-Essen, wies auf ein weiteres Problem hin: „Menschen verstehen viel zu wenig, wie solche Systeme funktionieren.“ Das führe zu Fehleinschätzungen – einerseits bezüglich des Vertrauens, das der Software entgegengebracht werde. Andererseits aber auch in Bezug auf den Umgang mit den eigenen Daten. Menschen vertrauten KI-Systemen wie ChatGPT, aber auch Amazons Alexa zahlreiche persönliche Daten an.

„Die Gefahr ist nicht unbedingt die einzelne Info, die ich durch meine Anfrage an das System reingebe, sondern die Tatsache, dass das wieder mit anderen Daten zusammengebracht werden kann“, warnte sie. Hier sei der Gesetzgeber gefordert. Der müsse mindestens sicherstellen, dass die Nut­ze­r:in­nen sich tatsächlich darüber im Klaren seien, welche Daten wie verarbeitet würden.

Kaum ein digitales Dasein ohne KI

Das wäre um so wichtiger, weil es Krämer zufolge in den kommenden Jahren immer schwieriger werde, keine Daten an eine KI zu liefern. Selbst wer sich keinen Sprachassistenten wie Alexa in die Wohnung holt, auf ChatGPT und KI-gestützte Suchmaschinen verzichtet, nutze vielleicht soziale Medien – und auch da würde unter anderem KI über die Sortierung und Sichtbarkeit von Nachrichten eine Rolle spielen. „Ich glaube, ganz entkommen kann man der KI nicht.“

Schütze, Inhaber des Lehrstuhls für Computerlinguistik und Direktor des Centrums für Informations- und Sprachverarbeitung an der Ludwig-Maximilians-Universität München, wies ebenso auf die Kehrseiten der neuen Technologie hin: Berufsfelder, die überflüssig würden, eine zunehmende Intransparenz der Systeme, wenn Menschen bei Suchanfragen nur noch Antworten, aber keine Quellen mehr angezeigt bekommen.

Und: „Es wird die Versuchung bestehen, Entscheidungen durch diese Maschinen machen zu lassen.“ In den Bereichen Recht und Vermögensberatung beispielsweise, aber auch in der Medizin. Das Problem dabei: Die Entscheidung der KI komme mit einer hohen Glaubwürdigkeit daher – dabei sei die Sicherheit der Aussage überhaupt nicht einschätzbar. „Und die Menschen sind nicht daran gewöhnt, dass jemand mit hundertprozentiger Sicherheit und Selbstvertrauen spricht, aber völlig falsch liegt.“ Das müssten wir als Gesellschaft lernen und das werde „ein schwieriger Prozess.“

Eine der nächsten Entwicklungen, in denen KI verschiedene Bereiche verbindet, könnte die Robotik sein. Marc Toussaint ist Leiter des Fachgebietes Intelligente Systeme an der Technischen Universität Berlin und hat selbst an einem KI-Modell mitgearbeitet, das Sprache und Robotik verbindet. Ein Roboter, ausgestattet mit Kamera und Greifarm, konnte so Sprachbefehle ausführen – und etwa Chips aus der richtigen Schublade holen. Toussaint teilt den Revolutionsgedanken: Mit der „Verschränkung von Sprache und physischer Welt“ eröffneten sich ganz neue Möglichkeiten.

Doch Revolution hin oder der – Schütze warnt gleichzeitig davor, zu viel Potenzial in den neuesten Entwicklungen zu sehen. „Wir haben noch keine echte Künstliche Intelligenz erreicht“, sagte er. Die sehe er erst, wenn bei der KI ein „tiefes Verständnis der physischen und sozialen Welt“ erreicht sei – und da rechne er noch mit jahrzentelanger Arbeit.

Links lesen, Rechts bekämpfen

Gerade jetzt, wo der Rechtsextremismus weiter erstarkt, braucht es Zusammenhalt und Solidarität. Auch und vor allem mit den Menschen, die sich vor Ort für eine starke Zivilgesellschaft einsetzen. Die taz kooperiert deshalb mit Polylux. Das Netzwerk engagiert sich seit 2018 gegen den Rechtsruck in Ostdeutschland und unterstützt Projekte, die sich für Demokratie und Toleranz einsetzen. Eine offene Gesellschaft braucht guten, frei zugänglichen Journalismus – und zivilgesellschaftliches Engagement. Finden Sie auch? Dann machen Sie mit und unterstützen Sie unsere Aktion. Noch bis zum 31. Oktober gehen 50 Prozent aller Einnahmen aus den Anmeldungen bei taz zahl ich an das Netzwerk gegen Rechts. In Zeiten wie diesen brauchen alle, die für eine offene Gesellschaft eintreten, unsere Unterstützung. Sind Sie dabei? Jetzt unterstützen

Mehr zum Thema

13 Kommentare

 / 
  • Terminator lässt grüßen

    "Hier spricht ihre Bundes-KI. Wenn sie nicht sofort die Demo verlassen, werden die KI-Drohnen...."

    Am meisten befürchte ich einen Missbrauch der KI in Kriegswaffen oder gar staatlicher Sicherheitskräften gegen das Volk. Dann entscheidet irgendwann die Drohne selbst, wer jetzt stirbt und wer nicht.



    Wo die Moral eines Menschen "halt Kind" sagen kann, "denkt" eine KI nur "Tränengas los!".



    So sehr auch eine KI einen großen Nutzen für die Menschen haben kann, so gefährlich ist auch die Gefahr des Missbrauchs. KI kann keiner mehr stoppen, der Missbrauch wird kommen.

  • Manche Diskussionen erinnern an die historische Debatten über die Vor- und Nachteile der Nutzung der Eisenbahn für den Personentransport.

  • Hmm,



    Und was machen wir wenn die nächsten Handys KI basierte Betriebssysteme bekommen?



    Dieses System hat ein großes Potenzial, eine eigens Plattform zu werden und die 5 großen Player werden zu einem verschmelzen. Die Blase, in der Blase der Blase sozusagen…

    Das wünsche ich den Sozialwissenschaftlern Viel Freude dabei.

    Gruß Roberto

  • Vielleicht muss KI Unsicherheiten erkennen lassen - wie ein Mensch, der vertrauenswürdig ist, weil er die Stirn runzelt, rot anläuft oder stottert. Dann kann man die Validität der Information besser einordnen und noch einmal nachhaken.

  • Der letze Satz ist schön, klingt doch schon wieder ganz nach den guten, alten regelbasierten Ansätzen. Oder wie man sich das eben mal vorstellte, lange, bevor die Statistiker um die Ecke kamen und mit dem extragroßen Satz an Daten und dem übergroßen Rechenzentrum im Rücken einfach mal so alles abräumten. Spielverderber. Schütze ist einer derer, nicht grad Wenigen, die selbst lang auf's falsche Pferd setzten, und manchen Schülern doch auch falsche Flöhe ins Ohr. Nur verständlich dann die Hoffnung, dass man ihnen doch noch was übrig lasse. Zu erwarten aber eher, dass sich auch grundlegende physische oder soziale Weltaspekte ganz gut werden in Modelle integrieren lassen. Modelle die weithin ohne Regeln auskommen und übrigens auch praktisch keiner Linguistik mehr bedürfen, auch nicht computergerecht. Google meinte sogar mal, ihre Engines würden nur performanter mit jedem Linguisten, den sie feuerten. Wir dachten, wir müssten Computern Sprache beibringen, heute bringen sie's uns bei und wir verstehen's nicht mal.

    Ansonsten melde ich Zweifel an. Homesteading the Noosphere - könnte sich noch als große Ironie erweisen. In Amerika ist ja Homesteading, Hortikultur, auch Farming, Selbstversorgung so ganz beliebte Ausflucht für allerlei Geekdropouts, schon lange. Anders geht immer. Während Machine Learning, die neuronalen Netze bzw. der Konnektionismus als Grundidee so allerhand interessante Querbezüge aufweisen zum Neoliberalismus, um nicht zu sagen Libertarismus. Einschließlich visionärer Vorgriffe bereits eines F.A. von Hayek. Für die Kybernetik und den späten Kapitalismus galt ja schon Ähnliches, von einigen sogar in etwa gleichgesetzt. Da ist natürlich erst mal viel Musik drin, aber irgendwann ist der Saal, für den das alles spielen soll, irgendwie leer. Trotz (oder wegen?) Robo-Utopie und für alle andern Universal Basic Income?! Und dann wird's interessant. Werte ohne Menschen sind nix mehr wert. Wir müssen nicht entkommen. Wir müssten mitgenommen werden.

  • Schon in den 70iger Jahren sagte Willem Flusses: je mehr der Mensch verschwindet, desto mehr erscheint das Menschliche.

  • 8G
    80410 (Profil gelöscht)

    „Und die Menschen sind nicht daran gewöhnt, dass jemand mit hundertprozentiger Sicherheit und Selbstvertrauen spricht, aber völlig falsch liegt.“ - Kommt drauf an welchen Chef man hat.

    • @80410 (Profil gelöscht):

      Oder welches Parlament.

  • Mit völliger Sicherheit etwas behaupten und komplett falsch liegen kennt die Gesellschaft doch schon von KI ( keine Intelligenz) Wissing

  • Menschen sind es nicht gewohnt, dass andere mit völliger Sicherheit über Dinge reden, ohne sie zu belegen? Menschen tun meist exakt genau das, ständig. Die Medien, die Politik und auch die sozialen Medien sind voll davon.

    Je mehr man sich mit KI beschäftigt, desto mehr stellt sich einem fast die Frage, ob konkrete, einzelne Menschen eigentlich wirklich intelligent sind oder ob das nur eine idealisierte Abstraktion ist, die man im Alltag kaum jemals antrifft...

  • Ob die starke KI noch Jahrzehnte braucht, kann glaube ich niemand mehr sagen. Die Revolution jetzt, die seit sehr wehnigen Jahren läuft, verwendet das immer gleiche Grundsprinzip (deswegen geht es auch so schnell) und trainiert einfach mit immer neuen Daten und neuen Aufgaben. Bis jetzt ohne Grenze und mit immer neuen Erfolgen, egal auf welche neue Aufgabe man das DeepLearning loslässt.

    Ob die KI dabei rassistisch ist, scheint mir wirklich das kleinste Problem. Unter Rassismus verstehen wir ja heute nicht mehr, ob die KI uns angekettet in Schiffsrümpfe schmeißen wird - das ist bis jetzt nicht so. Der Rassismus der KI besteht ja darin, ob sie mal ein N-Wort oder Z-Wort falsch verwendet, oder bei der Kunstkritik nicht neutral genug nach Hautfarben ist oder so. Soetwas schockt zwar Menschen bis ins Mark, aber es geht glaube ich doch um größere Probleme und wir sollten uns mehr überlegen, was uns wichtig ist.

    Es ist absehbar, dass KI Systeme in vielen bereichen weittragende Enstscheidungen mittreffen, die niemand überblickt. Menschen müssen die einfach umsetzen, wollen sie nicht ins Hintertreffen geraten. Wie gehen wir damit um?

    • @Markus Michaelis:

      Beim Rassismus geht's darum, ob zB jemand ins Gefängnis geht, oder Bewährung bekommt (da sind die Algorithmen schon gut dabei - Vorhersagen für Rückfälligkeit machen, und das selbstverständlich ganz rassistisch). Also genau dass KI Systeme "Entscheidungen treffen" (also subjektive Entscheidungen von Menschen als irgendwie objektiv erscheinen lassen).

  • Ich komme aus der Medienbranche und wenn ich mir anschaue was Ki-Programme wie ChatGPT, Dall-E, Synthesia oder das angekündigte Adobe Firefly jetzt schon leisten bekomme ich ein flaues Gefühl im Magen. Das wird qualifizierte Arbeitsplätze kosten. Außer Schlagwörter zu tippen muss man nix können. Es arbeitet unglaublich schnell und das Potential zu manipulieren ist enorm.