Künstliche Intelligenz und Moral: Guter Roboter, schlechter Roboter
Jobverlust durch Automatisierung? Roboter, die über Recht und Unrecht entscheiden? Das sind keine Debatten der Zukunft. Wir sind mittendrin.
Ein selbstfahrendes Auto muss entscheiden, ob es in eine Gruppe Kinder fährt oder eine Rentnerin umfährt – wie entscheidet es? Eine autonome Kampfdrohne erschießt einen Zivilisten – wer ist schuld? Was machen die Millionen Menschen, wenn ihre Jobs von Robotern und Computerprogrammen besser erledigt werden können als von ihnen. Was passiert, wenn nicht nur körperliche Arbeit, sondern auch geistige von Computerprogrammen übernommen werden?
In der Debatte um künstliche Intelligenz und Automatisierung werden derzeit große moralische Fragen diskutiert und mögliche Dystopien: Computer, die die Welt beherrschen wollen, weitreichende Arbeitslosigkeit. Es sind große und wichtige Debatten, doch ihre Zuspitzung auf die möglichst schrecklichen Szenarien, zu Fragen über Leben und Tod lenken auch ab: Wir sind derzeit mittendrin in solchen Debatten.
Kurz nach dem Massaker von Las Vegas, stießen Menschen, die im Netz nach Informationen suchten, auf ein Problem: Plattformen wie Google, Facebook und Youtube verwiesen in ihren Nachrichtenrubriken auf fragwürdige Seiten, auf Falschmeldungen, Hoaxes und Propaganda. Sowohl Google – dem Konzern gehört auch Youtube – als auch Facebook verwiesen darauf, dass Computerprogramme entschieden hatten, was in dort angezeigt wird, und dass Menschen erst im Nachhinein eingriffen, um sie zu korrigieren.
Das Problem gibt es auch an anderer Stelle: Erst vor wenigen Wochen erschien eine Reihe Artikel, die aufzeigte, wie Werbung auf Facebook, Twitter und Google zu rassistischen Schlagwörtern ausgespielt werden konnte. Auch hier war Software verantwortlich und auch hier griffen die Konzerne erst ein, als sie von außen darauf hingewiesen wurden. Ähnliche Sicherheitslücken konnten offenbar viel effektiver ausgenutzt werden: Inzwischen mehren sich die Hinweise, dass Agenten der russischen Regierung mit gezielten Anzeigen auf Facebook und Twitter (und vielleicht Google) versuchten, die Wahl zu beeinflussen.
Hier sind Entscheidungen, die eine eindeutige moralische Komponente haben, an Computerprogramme ausgelagert worden, an eine sehr einfache Variante von künstlicher Intelligenz. Kein Programmierer konnte im Vorfeld wissen, wie die Algorithmen konkret über die Sortierung von Nachrichten entscheiden sollten, als in Las Vegas das Massaker losging. Stattdessen haben sie allgemeine Regeln verfasst und den Einzelfall der Software überlassen. Und diese entschied falsch.
Dass Computerprogramme keine verlässlichen Entscheidungsinstanzen sind, sollte niemanden überraschen. Erst 2016 feuerte Facebook sein gesamtes redaktionelles Team wegen Vorwürfen der Parteilichkeit und ersetzte sie mit Software. Prompt am nächsten Tag verbreitete der „Trending Topics“-Bereich des Netzwerkes nur noch Falschmeldungen. Das ist auch nicht überraschend, denn Software übernimmt meist die Vorurteile von Menschen. Das beste Beispiel dafür: Der Microsoft-Gesprächsroboter „Tay“, der nach weniger als einem Tag zu einem Hitler- und Sex-Fan wurde.
Was bedeutet das für Leben und Tod?
Auch in Fragen von Jobverlusten sind wir inzwischen mittendrin. Nur selten läuft es dabei ab wie bei Facebook, dass Menschen konkret gefeuert werden und ein Computerprogramm den Job übernimmt. Google und Facebook dominieren gemeinsam den Online-Werbemarkt und setzen damit jährlich rund 100 Milliarden Dollar um. Früher hätten sie riesige Anzeigenabteilungen beschäftigt, heute regeln Algorithmen den Anzeigenverkauf. Anderswo schrumpft der Anzeigenmarkt und Menschen verlieren ihre Jobs – so übernehmen „Roboter“ leise und ohne große Skandale die Arbeitsplätze.
Wenn wir schon jetzt die großen moralischen Fragen verhandeln, was bedeutet das dann für die Zukunft? Konzerne werden sich hüten, irgendwelche Verantwortung für die Untaten ihrer künstlichen Intelligenzen zu übernehmen. Eher werden sie diese durch AGBs an die Käufer abgeben. Das wird auch die Programmierer*innen schützen. Sehr grobe Fehlleistungen werden sie – wie jetzt bei Anzeigen- und Nachrichtenalgorithmen – nachträglich korrigieren.
Danach heißt es dann: Dein selbstfahrendes Auto hat jemanden überfahren? Du warst dazu verpflichtet, es während der Fahrt zu überwachen. Deine autonome Waffe hat Unschuldige erschossen? Du hast schriftlich die Verantwortung übernommen. Die Schuldfrage wird formal geklärt und die Verantwortung bleibt bei denjenigen hängen, die vermutlich am wenigsten über das Innenleben der Roboter wissen.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
Israelische Drohnen in Gaza
Testlabor des Grauens
Politikwissenschaftlerin über Ukraine
„Land gegen Frieden funktioniert nicht“
Proteste bei Nan Goldin
Logiken des Boykotts
Bündnis Sahra Wagenknecht
Ein Bestsellerautor will in den Bundestag
Bundeskongress der Jusos
Was Scholz von Esken lernen kann
Nan Goldin in Neuer Nationalgalerie
Claudia Roth entsetzt über Proteste