Debatte Künstliche Intelligenz im Krieg: Der Google-Militär-Komplex
Das Pentagon setzt für zukünftige Einsätze zunehmend auf künstliche Intelligenz. Dafür engagiert es unter anderen den IT-Konzern Google.
D as Google-Postfach war schon zum Greifen nahe, da sprang das verhasste Fenster wieder auf. „Bitte bestätigen Sie, dass sie kein Roboter sind“. Alle Bildchen aus der Matrix mit Straßen- oder Straßenschildanteil anklicken – schon verschwindet das Dialogfeld wieder. Das klingt bekannt? Glückwunsch, dann haben auch Sie Googles künstliche Intelligenz trainiert. Und damit indirekt dem US-Außenministerium bei seinen Drohneneinsätzen in Kriegsgebieten geholfen. Mit dem Beweis ihrer Menschlichkeit helfen Sie der Technologie, Bilder immer präziser ohne menschliches Auge zu analysieren. Maschinenlernen heißt das im Fachjargon. Google verkauft die Technologie an die US-Einsatzkräfte, die wiederum sie zur Terrorismusbekämpfung nutzen. Bisher sind fast nur Googles eigene Mitarbeiter entsetzt.
Während also über Facebook eine Empörungswelle hereinbricht, verschwinden andere Tech-Giganten wie Google in deren Windschatten. Dabei entwickeln sie Technologie für das US-Militär, die gezielt in der Terrorabwehr eingesetzt wird. Die Kunden sind, meist unwissentlich, die Versuchskaninchen. Es greift deshalb zu kurz, Facebook als das schwarze Schaf des Silicon Valley herauszugreifen und zur Verantwortung zu ziehen. Wir brauchen eine breitere und öffentlichere Debatte über die moralischen Grenzen der gesamten Branche, besonders wenn es um die Verwertung von Kundendaten für politische oder, wie im Fall Google, gar militärische Zwecke geht.
Öffentlich sollte Googles Arbeit für das Pentagon nicht werden. Das amerikanische Onlineportal Gizmodo zwang das Unternehmen zu einer Stellungnahme, bevor die New York Times das Thema aufgriff. Auch das US-Außenministerium bekannte sich öffentlich zu Googles Beteiligung am „Maven Project“, das die Verquickung von Big Data und Maschinenlernen für das Pentagon ausbauen soll. Laut Wall Street Journal gab das Pentagon 2017 7,4 Milliarden US-Dollar für Künstliche-Intelligenz-Projekte aus. Das Forschungsfeld boomt. Google, dessen Aktienkurse seit Bekanntwerden der Kooperation stiegen, ist nicht das einzige Technikunternehmen mit Verbindungen zum US-Militär: Microsoft etwa stellt Systeme zur Speicherplatzverwaltung bereit, Amazon bietet ebenfalls eine Bilderkennungssoftware an.
Laut Google handelt es sich bisher um Technologie, die lediglich bei der Erkennung von bewegten und unbewegten Objekten auf Drohnenbildern helfe – so können Militärangestellte ihre Zeit besser nutzen, als Tausende Stunden lang Bildmaterial zu durchsuchen. Nicht angewendet werde die Technologie auf Menschen und in Kriegshandlungen, erklärt das Unternehmen. Man wolle mit dem Militär erst noch Richtlinien für den Einsatz der Technologie erarbeiten. Sonderbar, denn das Department of Defense erklärte im Juli 2017 in einer Pressemitteilung, die Technologie ab „Ende des Jahres“ in Kriegsgebieten einsetzen zu wollen, um Antiterrorismusoperationen zu unterstützen.
Googles Argument, dass die Technologie nicht direkt für Kriegshandlungen und zur gezielten Tötung genutzt werde, empfinden knapp 3.100 der 70.000 Angestellten als scheinheilig. In einem offenen Brief wandten sie sich Anfang April 2018 gegen die Firmenführung: „Einmal geliefert, kann die Technologie für alles Mögliche eingesetzt werden“, argumentieren sie. „Wir können die moralische Verantwortung für unsere Technologie nicht an Dritte weitergeben, besonders weil uns unsere Kunden mit ihren Daten vertrauen.“ Dass die enge Verquickung der Branche mit dem Militär auch intern zunehmend für Entrüstung sorgt, zeigt, wie konkret die Unterstützung bereits geworden ist.
Die Unternehmensspitze zeigt sich davon eher unbeeindruckt. Bereits im November 2017 sprach der ehemalige Google-Chef Eric Schmidt (2001 bis 2011) am Center For a New American Security darüber, wie Google langfristig das Pentagon mit künstlicher Intelligenz bei seiner Arbeit unterstützen wolle. Er sei sich bewusst, dass es Bedenken in der Tech-Community gebe, dass ihre Kreativität vom Militär zur gezielten Tötung missbraucht werden würde. Letztlich, sagte der eingetragene Demokrat und Hillary-Clinton-Unterstützer, ginge es aber um die nationale Sicherheit – da sei es genau richtig, die neusten Möglichkeiten auszuschöpfen. Solcher Patriotismus scheint derzeit besonders im Weißen Haus gut anzukommen.
Das moralische Problem ist nicht nur, dass Google künstliche Intelligenz für das US-Militär zur Verfügung stellt. Es ist auch problematisch, dass dies ohne das Wissen der Nutzer passiert – deren Nutzung des Systems die Technologie überhaupt erst ermöglichte. Die Diskussion über Facebook und Cambridge Analytica ist nur eine Facette der weitaus größeren Frage, wo die moralischen Grenzen der Happy-Family-Unternehmen aus dem Silicon Valley liegen. Bisher wird diese Debatte hauptsächlich von ein paar Spezialisten und US-Senatoren geführt. In der Mitte der Gesellschaft ist sie nur in Form von resignierter Wut angekommen. Das ist fatal, da jetzt der Zeitpunkt ist, um die Spielregeln festzulegen. Die am 25. Mai 2018 in Kraft tretende Datenschutz-Grundverordnung ist da nur der Anfang.
Google ändert schon mal sein Motto
Was Schmidt angeht, so verließ er seinen Posten als Vorstandsvorsitzender bei Google-Mutterkonzern „Alphabet“ noch im Herbst 2017 – obwohl er im Aufsichtsrat verbleibt. Eine bessere Position als Vorsitzender des Defense Innovation Board war freigeworden, direkt im Herzen des Pentagons. Auch Milo Medin, Vizepräsident bei Google, ist jetzt Teil der Gruppe. Sie arbeiten nun an der Entwicklung des Waffenarsenals der Zukunft und beraten die Trump-Administration in militärischen Fragen; gerade der Syrienkrieg erfordert immer mehr technische Expertise.
Dass es sich dabei um eine republikanische und keine demokratische Regierung handelt, scheint den Demokraten Schmidt wenig zu stören – schließlich geht es ja um die nationale Sicherheit. Googles Motto wurde derweil von „Don’t be evil“ in „Do the right thing“ umgeändert.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
Putins Atomdrohungen
Angst auf allen Seiten
Nahost-Konflikt
Alternative Narrative
James Bridle bekommt Preis aberkannt
Boykottieren und boykottiert werden
Krise der Linke
Drei Silberlocken für ein Halleluja
Umweltfolgen des Kriegs in Gaza
Eine Toilettenspülung Wasser pro Tag und Person
Stromversorgung im Krieg
Ukraine will Atomkraft um das Dreifache ausbauen