Künstliche Intelligenz und Moral: Guter Roboter, schlechter Roboter

Jobverlust durch Automatisierung? Roboter, die über Recht und Unrecht entscheiden? Das sind keine Debatten der Zukunft. Wir sind mittendrin.

Eine Frau schiebt einen Roboter in einem Wagen über eine Straße

Wer ist schuld, wenn ein selbstfahrendes Auto deinen Roboter umfährt? Foto: dpa

Ein selbstfahrendes Auto muss entscheiden, ob es in eine Gruppe Kinder fährt oder eine Rentnerin umfährt – wie entscheidet es? Eine autonome Kampfdrohne erschießt einen Zivilisten – wer ist schuld? Was machen die Millionen Menschen, wenn ihre Jobs von Robotern und Computerprogrammen besser erledigt werden können als von ihnen. Was passiert, wenn nicht nur körperliche Arbeit, sondern auch geistige von Computerprogrammen übernommen werden?

In der Debatte um künstliche Intelligenz und Automatisierung werden derzeit große moralische Fragen diskutiert und mögliche Dystopien: Computer, die die Welt beherrschen wollen, weitreichende Arbeitslosigkeit. Es sind große und wichtige Debatten, doch ihre Zuspitzung auf die möglichst schrecklichen Szenarien, zu Fragen über Leben und Tod lenken auch ab: Wir sind derzeit mittendrin in solchen Debatten.

Kurz nach dem Massaker von Las Vegas, stießen Menschen, die im Netz nach Informationen suchten, auf ein Problem: Plattformen wie Google, Facebook und Youtube verwiesen in ihren Nachrichtenrubriken auf fragwürdige Seiten, auf Falschmeldungen, Hoaxes und Propaganda. Sowohl Google – dem Konzern gehört auch Youtube – als auch Facebook verwiesen darauf, dass Computerprogramme entschieden hatten, was in dort angezeigt wird, und dass Menschen erst im Nachhinein eingriffen, um sie zu korrigieren.

Das Problem gibt es auch an anderer Stelle: Erst vor wenigen Wochen erschien eine Reihe Artikel, die aufzeigte, wie Werbung auf Facebook, Twitter und Google zu rassistischen Schlagwörtern ausgespielt werden konnte. Auch hier war Software verantwortlich und auch hier griffen die Konzerne erst ein, als sie von außen darauf hingewiesen wurden. Ähnliche Sicherheitslücken konnten offenbar viel effektiver ausgenutzt werden: Inzwischen mehren sich die Hinweise, dass Agenten der russischen Regierung mit gezielten Anzeigen auf Facebook und Twitter (und vielleicht Google) versuchten, die Wahl zu beeinflussen.

Hier sind Entscheidungen, die eine eindeutige moralische Komponente haben, an Computerprogramme ausgelagert worden, an eine sehr einfache Variante von künstlicher Intelligenz. Kein Programmierer konnte im Vorfeld wissen, wie die Algorithmen konkret über die Sortierung von Nachrichten entscheiden sollten, als in Las Vegas das Massaker losging. Stattdessen haben sie allgemeine Regeln verfasst und den Einzelfall der Software überlassen. Und diese entschied falsch.

Dass Computerprogramme keine verlässlichen Entscheidungsinstanzen sind, sollte niemanden überraschen. Erst 2016 feuerte Facebook sein gesamtes redaktionelles Team wegen Vorwürfen der Parteilichkeit und ersetzte sie mit Software. Prompt am nächsten Tag verbreitete der „Trending Topics“-Bereich des Netzwerkes nur noch Falschmeldungen. Das ist auch nicht überraschend, denn Software übernimmt meist die Vorurteile von Menschen. Das beste Beispiel dafür: Der Microsoft-Gesprächsroboter „Tay“, der nach weniger als einem Tag zu einem Hitler- und Sex-Fan wurde.

Was bedeutet das für Leben und Tod?

Auch in Fragen von Jobverlusten sind wir inzwischen mittendrin. Nur selten läuft es dabei ab wie bei Facebook, dass Menschen konkret gefeuert werden und ein Computerprogramm den Job übernimmt. Google und Facebook dominieren gemeinsam den Online-Werbemarkt und setzen damit jährlich rund 100 Milliarden Dollar um. Früher hätten sie riesige Anzeigenabteilungen beschäftigt, heute regeln Algorithmen den Anzeigenverkauf. Anderswo schrumpft der Anzeigenmarkt und Menschen verlieren ihre Jobs – so übernehmen „Roboter“ leise und ohne große Skandale die Arbeitsplätze.

Wenn wir schon jetzt die großen moralischen Fragen verhandeln, was bedeutet das dann für die Zukunft? Konzerne werden sich hüten, irgendwelche Verantwortung für die Untaten ihrer künstlichen Intelligenzen zu übernehmen. Eher werden sie diese durch AGBs an die Käufer abgeben. Das wird auch die Programmierer*innen schützen. Sehr grobe Fehlleistungen werden sie – wie jetzt bei Anzeigen- und Nachrichtenalgorithmen – nachträglich korrigieren.

Danach heißt es dann: Dein selbstfahrendes Auto hat jemanden überfahren? Du warst dazu verpflichtet, es während der Fahrt zu überwachen. Deine autonome Waffe hat Unschuldige erschossen? Du hast schriftlich die Verantwortung übernommen. Die Schuldfrage wird formal geklärt und die Verantwortung bleibt bei denjenigen hängen, die vermutlich am wenigsten über das Innenleben der Roboter wissen.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.