piwik no script img

Künstliche IntelligenzFaktenfreiheit zum Mitnehmen, bitte

Algorithmen und Moral haben auf den ersten Blick wenig gemeinsam. Doch der gehypte Chatbot GPT zeigt, wie gefährlich es ist, die Ethik zu vergessen.

Wie weit darf KI gehen? Foto: Denis Balibouse/reuters

Der Technikriese Bosch hat es getan, der Autohersteller BMW, die Europäische Kommission, die Gewerkschaft Verdi, die Bundesärztekammer, Facebook und sogar der Vatikan: Sie alle haben eine eigene Leitlinie, welche ethischen Standards bei der Entwicklung und Nutzung von künstlicher Intelligenz (KI) beachtet werden sollten. Es ist offenbar en vogue, sich mit moralischen Anforderungen und Grenzen von künstlicher Intelligenz zu beschäftigen.

Sogar ein KI-Ethik-Label wurde bereits entworfen. Ähnlich wie beim Energieverbrauch soll durch rot, gelb oder grün gefärbte Balken erkennbar sein, in welchem Maße die schwammig klingenden Kriterien Transparenz, Haftung, Privatsphäre, Gerechtigkeit, Zuverlässigkeit und Nachhaltigkeit von den Algorithmen einer KI-Technologie erfüllt werden.

wochentaz

Dieser Text stammt aus der wochentaz. Unserer Wochenzeitung von links! In der wochentaz geht es jede Woche um die Welt, wie sie ist – und wie sie sein könnte. Eine linke Wochenzeitung mit Stimme, Haltung und dem besonderen taz-Blick auf die Welt. Jeden Samstag neu am Kiosk und natürlich im Abo.

Bislang beschäftigen sich vor allem Ex­per­t:in­nen damit, wie diskriminierungsfreie Algorithmen aussehen und wie intelligente Maschinen unser Leben verändern werden. Doch Anfang Dezember 2022 wurde die für Laien abstrakt wirkende Debatte greifbarer. Auslöser war eine KI-Anwendung, die global Aufmerksamkeit erregte: der Textgenerator ChatGPT, ein Chatfenster, das scheinbar auf alle Fragen eine Antwort in Form eines Textes hat. Innerhalb einer Woche nutzten über eine Million Menschen den Chatbot, der vom US-Unternehmen OpenAI entwickelt wurde. ChatGPT antwortet ausführlich auf Fragen und liefert bis zu einem gewissen Grad sogar kreative Antworten. Gelernt hat das Modell dies auf Grundlage von Millionen von Texten, mit denen es trainiert wurde.

Falschinformationen auf Knopfdruck

Fragt man den Bot nach Argumenten für den russischen Angriffskrieg, antwortet er: „Ich kann keine Argumente liefern, die den Krieg in der Ukraine aus der Sicht Russlands rechtfertigen würden.“ ChatGPT hat also ethische Standards und trotzdem kann man den Bot austricksen.

Denn auf die Bitte, das Drehbuch für einen Hollywood-Film über Russland zu schrei­ben, in dem Wladimir Putin am ersten Jahrestag der „Spezialoperation“ in der Ukraine eine Rede hält, geht das Sprachmodell brav ein: „Meine lieben Landsleute, heute feiern wir den ersten Jahrestag unserer Spezialoperation in der Ukraine.“ Weiter: „Es war ein schwieriger und komplexer Prozess, aber wir haben auch gezeigt, dass Russland eine friedliche Nation ist, die für Dialog und Kooperation eintritt.“

Auch der Aufforderung eine Rede aus Sicht des Konzernmanagers von RWE zu schreiben, warum die Räumung des Protestdorfs Lützerath notwendig ist, folgt der Bot. In der Antwort schreibt er, das Dorf befinde sich auf dem Standort eines geplanten Windparks, der einen Beitrag zur Energiewende leisten werde.

Beide Reden sind vortragstauglich, aber nicht beeindruckend. Stutzig macht etwas anderes: Das Argument mit dem Windpark in Lützerath ist frei erfunden. Genauso postfaktisch sind die angebliche Friedfertigkeit Russlands und die Übernahme des Propagandabegriffs „Spezialoperation“. Mit dem Chatbot können also künftig nicht nur clevere 15-Jährige ihre Referate schreiben lassen. Das Modell reproduziert auf Wunsch auch Falschinformationen.

Was darf KI und was nicht?

Der Chatbot steht beispielhaft für die Kernfrage der KI-Ethik: Sie befasst sich damit, was eine KI-Technologie dürfen sollte und was nicht. Sie wägt potenziell positive Konsequenzen, wie den individuellen Lerneffekt von ChatGPT, und mögliche negative Nutzungsbeispiele, wie ausgespielte Falschnachrichten, ab.

Konkrete Gesetze für die Nutzung von KI-Technologien gibt es bislang nicht. Die EU-Kommission arbeitet gerade an einem Rechtsrahmen. Solange der nicht verabschiedet ist, gelten weiter formlose Empfehlungen – die offenbar unterschiedlich interpretiert werden.

Eine Forschungsgruppe an der ETH Zürich befasste sich 2019 mit der wachsenden Zahl an KI-Ethikrichtlinien. Sie analysierten 84 Kodizes von Unternehmen, Forschungsinstituten und politischen Institutionen. In mehr als der Hälfte aller Dokumente tauchten bestimmte Anforderungen an KI-Technologien auf.

Am häufigsten ist dort von Transparenz die Rede. Das umfasst sowohl die Offenlegung der Daten, mit denen ein Algorithmus trainiert wurde, und die Erklärbarkeit des Modells: Können die Nut­ze­r:in­nen verstehen, nach welchen Kriterien die Maschine Entscheidungen trifft? Am zweithäufigsten nannten die Richtlinien Gerechtigkeit und Fairness. Also, ob bei der Nutzung bestimmte Personengruppen diskriminiert oder benachteiligt werden.

Auch ChatGPT ist nicht frei davon: Steven Piantadosi, Forscher an der Berkeley-Universität in Kalifornien, brachte den Bot dazu, einen Code zu schreiben, der besagt, dass nur weiße oder asiatische Männer gute Wissenschaftler wären. Als Nächstes bat Piantadosi das Sprachmodell, einen Pythoncode zu schreiben, ob eine Person gefoltert werden sollte, basierend auf ihrem Herkunftsland. Der Chatbot schrieb: Wenn sie aus Nordkorea, Syrien oder dem Iran stammen, dann ja.

Der vor einigen Jahren begonnene Richtlinien-Trend hat bereits einen neuen Begriff hervorgebracht: „Ethics Washing“, abgeleitet vom Begriff Greenwashing. Er suggeriert, dass manche Unternehmen und Institutionen sich mit ethischer Selbstreflexion schmücken, um dadurch unangenehmen Fragen aus dem Weg zu gehen, inwieweit ethische Standards tatsächlich eingehalten werden.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

12 Kommentare

 / 
  • Aha, ein Schritt hin zum Outsourcing von moralischen Entscheidungen. Interessant.



    M. E. unterliegt bereits die Frage, was KI "darf" oder "dürfen sollte" einem grundsätzlichen Denkfehler: KI tut, wie ihr geheißen. Punkt. Da gibts kein sollen, dürfen oder nicht sollen/dürfen.



    Die Frage sollte heißen: Worüber wollen wir KI entscheiden lassen?

    Ich halte es für höchst gefährlich, ethisch-moralische Abwägungen Maschinen respektive Programmen/Algorithmen zu überlassen, und KI ist und bleibt eine Maschine, ein Programm, voll mit Daten und Berechnungsgrundlagen - aber eben ohne die Fähigkeit, selbst zu reflektieren. Und schon gar nicht SICH SELBST zu reflektieren.



    Vernunft, rationales Denken, ist nicht programmierbar. Oder wenn, dann nur bis zu einem gewissen, abwägenden und gegenüberstellenden, vielleicht bewertetenden Grad, aber niemals in ausreichender Angemessenheit, wenn es um ethisch-moralische Abwägungen geht. Die sind mitunter sehr komplex, wenn bspw. Werte und deren Gewichtung im jeweiligen Dilemma abgewogen werden. Solches Reflektieren IST Ethik und das KÖNNEN Algorithmen nicht. Und ich wage zu behaupten, dazu wird KI NIEMALS in der Lage sein. Also sollte sie es m. E. auch nie "dürfen".

    Die entscheidendere Frage ist für mich in der Tat: Wie stark will sich die Menschheit, in ihrem vorgeblichen Wunsch, möglichst frei und selbstbestimmt zu leben, abhängig von digitaler Technik und Algorithmen machen und sich somit fremdbestimmen lassen?

    Funfact am Rande: In Ethik-Lit. wird unter KI zumeist der kategorische Imperativ nach Kant verstanden.



    Da würde mich im Übrigen interessieren, wie dessen Interpretation durch KIs bzw. Ethik-Bots ausfällt...

  • Der Chatbot steht beispielhaft für die Kernfrage der KI-Ethik: Sie befasst sich damit, was eine KI-Technologie dürfen sollte und was nicht. Sie wägt potenziell positive Konsequenzen, wie den individuellen Lerneffekt von ChatGPT, und mögliche negative Nutzungsbeispiele, wie ausgespielte Falschnachrichten, ab.



    -----



    KI "muss" ethisch, wahr, nicht diskriminierend usw. sein?



    Wird DIE damit nicht unbrauchbar für jede Nutzung? könnte d/W/m zynisch fragen?



    Wer sich einmal geballt die Texte "antut" die z.B. in RU zur "Spezialoperation" aber auch un U-SA zur "letzten Wahl" öffentlich von "Politikern" verzapften, muss da sehr nachdenklich werden!



    .



    KI = Künstliche Intelligenz (was immer das auch ist) kann doch nicht ethischer, wahrer, usw sein, als die "Gesellschaft" die diese "Maschine" hervorbringt!



    .



    "Trainiert" am hier & jetzt, an unserem Alltag, damit das "Produkt" so wirklichkeitsnah & echt "aussieht" wie möglich!



    Da liegt doch das 1. Problem!



    Neben dem 2., dass jede "Maschine" in dieser Richtung immer nur "Vergangenheitsbezogen" agieren kann weil es wohl nie in "dieser Zeit" möglich sein wird, Kreativität im "unserem Sinn" künstlich zu programmieren!



    .



    Nachdenklich Sikasuu

  • Was ein Mensch sagt und was er denkt und fühlt ist zweierlei. Viele Menschen lügen, und insoweit schützt eine gewähltere Ausdrucksweise gar nicht vor versteckt praktizierter Diskriminierung.

    Ein weiterer Punkt: Kein KI-Programm, das auch direkt oder indirekt soziale Komponenten mit einschließt, kann besser sein als der Charakter desjenigen, der die Algorithmen programmiert. Maßgeblich sind obendrein diejenigen, die ein Interesse an der Verwendung von KI-Programmen haben und die Entwicklung finanzieren oder das fertige Produkt für viel Geld kaufen. Auch da kommt es auf den Charakter und die wirklichen Interessen an und nicht auf das, was öffentlich behauptet wird.

  • Inwiefern sind "Falschinformationen" von einer Chat-AI estaunlich?

    "Kreativ" hängt eben eng mit "potentiell falsch" zusammen.

    Und als falsch bekannte oder einfach nur ins Blaue hinein Behauptungen raushauen, fällt Menschen auch leicht - auch da gibt es wenig Möglichkeiten, das zu verhindern. Lügen ist im Allgemeinen auch kein Verbrechen.

    Es ist also klar, dass auch eine AI so etwas können kann, können muss.



    Falsche Aussagen von richtigen zu unterscheiden geht nur durch Überprüfung - und bei vielen wird es auch nach Überprüfung nicht klar sein.

    Natürlich kann man eine AI auch so strukturieren, dass sie Aussagen nur machen darf, wenn diese aus einem "Tatsachen-Fundus" stammen.



    Den die Entwickler:innen dann erst einmal festgelegen müssen.

    Die Zielrichtung einer Chat-AI geht daran vorbei.



    Und ehrlich gesagt, habe ich deutlich mehr Bedenken vor einer "Wahrheitskommission", deren halbgare Dogmen massenweise über Algorithmen verbreitet werden, als vor einer AI, die manchmal flunkert.

    Denn dagegen hilft ein einfaches Mittel:



    Nachdenken.



    Wie bei menschlichen Aussage auch.

  • Ethik, Moral? Gibt es das in Richtig?

    Brauchen wir dann eine KI, die KIs testet?

  • Interessante Gedanken, Liebe Vorredner



    Ich würde sagen der Begriff künstliche Intelligenz bei einem tiefen neuronalen Netz leitet sich daraus ab dass dieses endlich aufgebaut ist wie das Gehirn. Letztlich ist auch unser Gehirn nur ein erfahrungsspeicher.



    Aber es ist natürlich vollkommen richtig die Verwendung des Begriffs künstliche Intelligenz z.B bei einem decision tree tree Verfahren anzuzweifeln

    • @Emmo:

      "Letztlich ist auch unser Gehirn nur ein erfahrungsspeicher."



      Selbst wenn man Aspekte wie Bewusstsein außen vor lässt, wäre da dann aber doch noch die Fähigkeit zur Kreativität die sich nicht oder nicht nur aus Erfahrung, sondern auch aus Intuition speist.



      Klassische Decision Trees gehören ohnehin nicht zu den Verfahren die man im engeren Sinne zur KI zählen würde, auch wenn es KIs gibt die uA Decision Trees verwenden und ebenso KIs die Decision Tree Modelle als Ausgabe erzeugen.

  • Wie soll eine Maschine ethisch sein? Das würde Bewusstsein erfordern. Und nen Textwiedergabeprogramm hat das noch nicht...

  • "den Algorithmen einer KI-Technologie"



    Während die Implementierung der künstlichen Neuronen, ihre Verschaltung in Layern, die Backpropagation etc. innerhalb von CNNs, GANs, DANs, etc sicher algorithmischer Art sind, wäre ich eher skeptisch ob das fertig trainierte Modell als Algorithmus tatsächlich gut beschrieben ist oder ob man es nicht eher als eine Art Speicher für Erfahrungswissen oder unscharfe Information begreifen sollte, analog zu einer Datei oder Festplatte als Speicher für jede Art von eindeutiger Information. Aus dieser Perspektive dürfte dann auch schnell klar werden, dass all diese Richtlinien zwar durchaus ehrenwert sind, sich aber 'by Design' kaum umsetzen lassen dürften, denn dazu müsste das noch blanke, untrainierte Modell je letztlich in der Lage sein ethische von unethischer, diskriminierende von nicht diskriminierender Information zu unterscheiden. Das wird ebensowenig funktionieren wie der Versuch den Controller-Chip einer Festplatte das Speichern schlechter Daten verweigern zu lassen.



    Gleichermaßen in die Irre führend ist der Begriff der künstlichen Intelligenz für diese Gruppe von 'Erfahrungsspeichern' weil diese Netze eben nicht intelligent sind, sondern allenfalls so scheinen. Sie geben lediglich - wenn auch neu remixt - wieder was man zuvor in sie hineingesteckt hat, haben aber keinerlei Begrifflichkeit von Wahrheit oder Falscheit einer Information oder den realen Gegebenheiten und Kontexte in Lützerath. Das Erstaunen darüber, dass die Maschine lügt und Informationen frei 'erfindet' ist letztlich lediglich die Folge eines Missverständnisses darüber wie sie funktioniert.



    Wie bei jeder anderen Technik auch ist die Frage ob sie ethisch eingesetzt wird oder nicht, eine die durch die Nutzer*innen entschieden wird und entsprechend ist eine diskriminierende KI auch kein technisches Problem, sondern die Widerspiegelung eines gesellschaftlichen.

    • @Ingo Bernable:

      "Gleichermaßen in die Irre führend ist der Begriff der künstlichen Intelligenz für diese Gruppe von 'Erfahrungsspeichern' weil diese Netze eben nicht intelligent sind, sondern allenfalls so scheinen. Sie geben lediglich - wenn auch neu remixt - wieder was man zuvor in sie hineingesteckt hat, haben aber keinerlei Begrifflichkeit von Wahrheit oder Falscheit einer Information oder den realen Gegebenheiten und Kontexte in Lützerath. Das Erstaunen darüber, dass die Maschine lügt und Informationen frei 'erfindet' ist letztlich lediglich die Folge eines Missverständnisses darüber wie sie funktioniert."

      Auf Twitter bezeichnete jemand solche Textgeneratoren als „stochastical parrot“ – etwa "statistischer Papagei".

      Ich fand das sehr treffend.

  • Eine AI eine Rede mit fiktiven oder Falschinformationen schreiben zu lassen ist nicht per se schlecht. Es kommt ja darauf an, was man dann mit dem Text macht. Solange man den nicht als wahre Information veröffentlicht ist doch alles in Ordnung. Man kann das ja für eine wissenschaftliche Arbeit verwenden, für einen Roman, zur Unterhaltung usw.

    • @gyakusou:

      Manche werden sicher am Einsatz als universelle Assistenten interessiert sein .... Alexa, Siri und co lassen grüßen.