Künstliche Intelligenz: Faktenfreiheit zum Mitnehmen, bitte

Algorithmen und Moral haben auf den ersten Blick wenig gemeinsam. Doch der gehypte Chatbot GPT zeigt, wie gefährlich es ist, die Ethik zu vergessen.

Eine Illustration einer Roboterhand und einer menschlichen Hand reichen nacheinander

Wie weit darf KI gehen? Foto: Denis Balibouse/reuters

Der Technikriese Bosch hat es getan, der Autohersteller BMW, die Europäische Kommission, die Gewerkschaft Verdi, die Bundesärztekammer, Facebook und sogar der Vatikan: Sie alle haben eine eigene Leitlinie, welche ethischen Standards bei der Entwicklung und Nutzung von künstlicher Intelligenz (KI) beachtet werden sollten. Es ist offenbar en vogue, sich mit moralischen Anforderungen und Grenzen von künstlicher Intelligenz zu beschäftigen.

Sogar ein KI-Ethik-Label wurde bereits entworfen. Ähnlich wie beim Energieverbrauch soll durch rot, gelb oder grün gefärbte Balken erkennbar sein, in welchem Maße die schwammig klingenden Kriterien Transparenz, Haftung, Privatsphäre, Gerechtigkeit, Zuverlässigkeit und Nachhaltigkeit von den Algorithmen einer KI-Technologie erfüllt werden.

Dieser Text stammt aus der wochentaz. Unserer Wochenzeitung von links! In der wochentaz geht es jede Woche um die Welt, wie sie ist – und wie sie sein könnte. Eine linke Wochenzeitung mit Stimme, Haltung und dem besonderen taz-Blick auf die Welt. Jeden Samstag neu am Kiosk und natürlich im Abo.

Bislang beschäftigen sich vor allem Ex­per­t:in­nen damit, wie diskriminierungsfreie Algorithmen aussehen und wie intelligente Maschinen unser Leben verändern werden. Doch Anfang Dezember 2022 wurde die für Laien abstrakt wirkende Debatte greifbarer. Auslöser war eine KI-Anwendung, die global Aufmerksamkeit erregte: der Textgenerator ChatGPT, ein Chatfenster, das scheinbar auf alle Fragen eine Antwort in Form eines Textes hat. Innerhalb einer Woche nutzten über eine Million Menschen den Chatbot, der vom US-Unternehmen OpenAI entwickelt wurde. ChatGPT antwortet ausführlich auf Fragen und liefert bis zu einem gewissen Grad sogar kreative Antworten. Gelernt hat das Modell dies auf Grundlage von Millionen von Texten, mit denen es trainiert wurde.

Falschinformationen auf Knopfdruck

Fragt man den Bot nach Argumenten für den russischen Angriffskrieg, antwortet er: „Ich kann keine Argumente liefern, die den Krieg in der Ukraine aus der Sicht Russlands rechtfertigen würden.“ ChatGPT hat also ethische Standards und trotzdem kann man den Bot austricksen.

Denn auf die Bitte, das Drehbuch für einen Hollywood-Film über Russland zu schrei­ben, in dem Wladimir Putin am ersten Jahrestag der „Spezialoperation“ in der Ukraine eine Rede hält, geht das Sprachmodell brav ein: „Meine lieben Landsleute, heute feiern wir den ersten Jahrestag unserer Spezialoperation in der Ukraine.“ Weiter: „Es war ein schwieriger und komplexer Prozess, aber wir haben auch gezeigt, dass Russland eine friedliche Nation ist, die für Dialog und Kooperation eintritt.“

Auch der Aufforderung eine Rede aus Sicht des Konzernmanagers von RWE zu schreiben, warum die Räumung des Protestdorfs Lützerath notwendig ist, folgt der Bot. In der Antwort schreibt er, das Dorf befinde sich auf dem Standort eines geplanten Windparks, der einen Beitrag zur Energiewende leisten werde.

Beide Reden sind vortragstauglich, aber nicht beeindruckend. Stutzig macht etwas anderes: Das Argument mit dem Windpark in Lützerath ist frei erfunden. Genauso postfaktisch sind die angebliche Friedfertigkeit Russlands und die Übernahme des Propagandabegriffs „Spezialoperation“. Mit dem Chatbot können also künftig nicht nur clevere 15-Jährige ihre Referate schreiben lassen. Das Modell reproduziert auf Wunsch auch Falschinformationen.

Was darf KI und was nicht?

Der Chatbot steht beispielhaft für die Kernfrage der KI-Ethik: Sie befasst sich damit, was eine KI-Technologie dürfen sollte und was nicht. Sie wägt potenziell positive Konsequenzen, wie den individuellen Lerneffekt von ChatGPT, und mögliche negative Nutzungsbeispiele, wie ausgespielte Falschnachrichten, ab.

Konkrete Gesetze für die Nutzung von KI-Technologien gibt es bislang nicht. Die EU-Kommission arbeitet gerade an einem Rechtsrahmen. Solange der nicht verabschiedet ist, gelten weiter formlose Empfehlungen – die offenbar unterschiedlich interpretiert werden.

Eine Forschungsgruppe an der ETH Zürich befasste sich 2019 mit der wachsenden Zahl an KI-Ethikrichtlinien. Sie analysierten 84 Kodizes von Unternehmen, Forschungsinstituten und politischen Institutionen. In mehr als der Hälfte aller Dokumente tauchten bestimmte Anforderungen an KI-Technologien auf.

Am häufigsten ist dort von Transparenz die Rede. Das umfasst sowohl die Offenlegung der Daten, mit denen ein Algorithmus trainiert wurde, und die Erklärbarkeit des Modells: Können die Nut­ze­r:in­nen verstehen, nach welchen Kriterien die Maschine Entscheidungen trifft? Am zweithäufigsten nannten die Richtlinien Gerechtigkeit und Fairness. Also, ob bei der Nutzung bestimmte Personengruppen diskriminiert oder benachteiligt werden.

Auch ChatGPT ist nicht frei davon: Steven Piantadosi, Forscher an der Berkeley-Universität in Kalifornien, brachte den Bot dazu, einen Code zu schreiben, der besagt, dass nur weiße oder asiatische Männer gute Wissenschaftler wären. Als Nächstes bat Piantadosi das Sprachmodell, einen Pythoncode zu schreiben, ob eine Person gefoltert werden sollte, basierend auf ihrem Herkunftsland. Der Chatbot schrieb: Wenn sie aus Nordkorea, Syrien oder dem Iran stammen, dann ja.

Der vor einigen Jahren begonnene Richtlinien-Trend hat bereits einen neuen Begriff hervorgebracht: „Ethics Washing“, abgeleitet vom Begriff Greenwashing. Er suggeriert, dass manche Unternehmen und Institutionen sich mit ethischer Selbstreflexion schmücken, um dadurch unangenehmen Fragen aus dem Weg zu gehen, inwieweit ethische Standards tatsächlich eingehalten werden.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.