Forderung nach Verbot von Killerrobotern: Nicht länger Science Fiction
In Genf verhandeln Vertreter aus mehr als 75 Nationen über Waffensysteme mit künstlicher Intelligenz. Es gibt gute Argumente für ihr Verbot.
Sie stehen schon bereit, werden aber noch nicht eingesetzt: mit künstlicher Intelligenz ausgestattete Kampfmaschinen, die – weil lernfähig – ihre Ziele autonom ansteuern, zerstören oder töten. Darüber wie, wo und wann sie zum Einsatz kommen sollen, verhandeln ab Montag Regierungsexperten aus mehr als 75 Nationen im Rahmen der „UN-Konvention über bestimmte konventionelle Waffen“ drei Tage lang in Genf.
Ein Vorschlag liegt schon auf dem Tisch. Er stammt von Amnesty International. Die Menschenrechtsorganisation fordert ein generelles Verbot sogenannter Killerroboter. Entscheidungen über Tod und Leben dürften nicht Maschinen überlassen werden, erklärte Amnesty in der Nacht zu Montag in einer Mitteilung. „Wir bewegen uns in eine Zukunft, in der Menschen aus den Entscheidungsprozessen beim Einsatz von Gewalt ausgeschlossen sind“, erklärte die Amnesty-Mitarbeiterin Rasha Abdul Rahim.
Amnesty steht mit seiner Forderung nicht allein. Tatsächlich wollen zahlreiche Staaten sogenannte Killerroboter verbieten. Länder wie etwa die USA, Rußland, China, Großbritannien und Israel, die solche Waffen bauen, wollen dagegen ihre technischen Neuentwicklungen nicht behindert sehen. Sie streiten deshalb über eine genaue Definition, welche Geräte und Systeme überhaupt als autonome Waffen gelten sollen.
Zwar sind Killerroboter, wie Amnesty richtig sagt, nicht mehr Stoff nur von Science-Fiction, die entsprechenden Drehbuchszenen lassen sich freilich weiterhin schön ausmalen. An erster Stelle steht der Plot, in dem sich die Waffensysteme gegen ihre Entwickler beziehungsweise ihre Anwender richten. Aber diese Idee ist dann wahrscheinlich doch zu schön, um wahr zu sein. Eher werden sie von feindlichen Hackern gekapert und umprogrammiert, so dass sie ein Massaker unter Zivilisten anrichten. Damit ist der Gegner eines Kriegsverbrechens überführt und seine Mission untergraben.
Einen solchen Plot fordert schon die militärisch-technische Entwicklungslogik der neuesten Waffensysteme heraus. Diese geht dahin, die eigenen teuren Soldaten weitmöglichst vor den Folgen des Waffeneinsatzes zu schützen, sie also nach Möglichkeit gleich ganz aus dem Kampfgeschehen herauszuhalten. Mittendrin im Kampfgeschehen, das zeigen sämtliche aktuellen Kriege, die selbst im globalen Süden vor allem Kämpfe um die Städte sind, ist die Zivilbevölkerung. Mit ihrer Flucht und Vernichtung wird Politik gemacht.
Man kann sich natürlich vorstellen, dass die Militärs sagen werden, eben weil Kriege in den urbanen, dicht besiedelten Zentren gewonnen werden, sind Kampfroboter eine ideale Waffe, die Bevölkerung zu schonen. Der Science-Fiction-Clip „Slaughterbots“ von 2017 zeigt eine nicht mal Streichholzschachtel große Mini-Drohne, die sirrend durch einen Konferenzraum schwebt, wo ein Bühnenredner im Stile von Steve Jobs zu Gange ist. Immerhin noch auf dessen Befehl hin wird die Drohne zum Kamikaze-Flieger, der eine Versuchspuppe auf der Bühne zielgenau explodieren lässt. In der Logik von Militärs könnte eine Invasion tausender solcher fliegender Sprengvorrichtungen zehntausende Zivilisten vom Kampfgeschehen unberührt lassen.
Der Schwarm könnte sich aber auch ganz selektiv auf zehntausende Zivilisten stürzen, die der falschen Religion, der falschen Ethnie, dem falschen Geschlecht oder der falschen Partei angehören. Trotzdem: Auszuschließen, es könne eine KI-gesteuerte Technik entwickelt werden, die in stressigen Kampfsituationen besser als Menschen darin ist, das Kriegsvölkerrecht zu beachten, wäre vielleicht doch voreilig. Zumal man ja nicht sagen kann, dass in der langen Geschichte des Krieges sich menschliche Kampftruppen hier als irgendwie vorbildlich gezeigt hätten.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
Trumps Krieg gegen die Forschung
Bye-bye, Wissenschaftsfreiheit!
Kritik am Deutschen Ethikrat
Bisschen viel Gott
Menschenrechtsverletzungen durch Israel
„So kann man Terror nicht bekämpfen“
Ungelöstes Problem der Erneuerbaren
Ein November voller Dunkelflauten
Altvordere sollen Linke retten
Hoffen auf die „Silberlocken“
Autobranche in der Krise
Kaum einer will die E-Autos