Forderung nach Verbot von Killerrobotern: Nicht länger Science Fiction

In Genf verhandeln Vertreter aus mehr als 75 Nationen über Waffensysteme mit künstlicher Intelligenz. Es gibt gute Argumente für ihr Verbot.

Zwei Roboterdarsteller duellieren sich spielerisch

Demonstration am Sonntag vor dem Brandenburger Tor in Berlin gegen militärische Killerroboter Foto: dpa

Sie stehen schon bereit, werden aber noch nicht eingesetzt: mit künstlicher Intelligenz ausgestattete Kampfmaschinen, die – weil lernfähig – ihre Ziele autonom ansteuern, zerstören oder töten. Darüber wie, wo und wann sie zum Einsatz kommen sollen, verhandeln ab Montag Regierungsexperten aus mehr als 75 Nationen im Rahmen der „UN-Konvention über bestimmte konventionelle Waffen“ drei Tage lang in Genf.

Ein Vorschlag liegt schon auf dem Tisch. Er stammt von Amnesty International. Die Menschenrechtsorganisation fordert ein generelles Verbot sogenannter Killerroboter. Entscheidungen über Tod und Leben dürften nicht Maschinen überlassen werden, erklärte Amnesty in der Nacht zu Montag in einer Mitteilung. „Wir bewegen uns in eine Zukunft, in der Menschen aus den Entscheidungsprozessen beim Einsatz von Gewalt ausgeschlossen sind“, erklärte die Amnesty-Mitarbeiterin Rasha Abdul Rahim.

Amnesty steht mit seiner Forderung nicht allein. Tatsächlich wollen zahlreiche Staaten sogenannte Killerroboter verbieten. Länder wie etwa die USA, Rußland, China, Großbritannien und Israel, die solche Waffen bauen, wollen dagegen ihre technischen Neuentwicklungen nicht behindert sehen. Sie streiten deshalb über eine genaue Definition, welche Geräte und Systeme überhaupt als autonome Waffen gelten sollen.

Zwar sind Killerroboter, wie Amnesty richtig sagt, nicht mehr Stoff nur von Science-Fiction, die entsprechenden Drehbuchszenen lassen sich freilich weiterhin schön ausmalen. An erster Stelle steht der Plot, in dem sich die Waffensysteme gegen ihre Entwickler beziehungsweise ihre Anwender richten. Aber diese Idee ist dann wahrscheinlich doch zu schön, um wahr zu sein. Eher werden sie von feindlichen Hackern gekapert und umprogrammiert, so dass sie ein Massaker unter Zivilisten anrichten. Damit ist der Gegner eines Kriegsverbrechens überführt und seine Mission untergraben.

Einen solchen Plot fordert schon die militärisch-technische Entwicklungslogik der neuesten Waffensysteme heraus. Diese geht dahin, die eigenen teuren Soldaten weitmöglichst vor den Folgen des Waffeneinsatzes zu schützen, sie also nach Möglichkeit gleich ganz aus dem Kampfgeschehen herauszuhalten. Mittendrin im Kampfgeschehen, das zeigen sämtliche aktuellen Kriege, die selbst im globalen Süden vor allem Kämpfe um die Städte sind, ist die Zivilbevölkerung. Mit ihrer Flucht und Vernichtung wird Politik gemacht.

Man kann sich natürlich vorstellen, dass die Militärs sagen werden, eben weil Kriege in den urbanen, dicht besiedelten Zentren gewonnen werden, sind Kampfroboter eine ideale Waffe, die Bevölkerung zu schonen

Man kann sich natürlich vorstellen, dass die Militärs sagen werden, eben weil Kriege in den urbanen, dicht besiedelten Zentren gewonnen werden, sind Kampfroboter eine ideale Waffe, die Bevölkerung zu schonen. Der Science-Fiction-Clip „Slaughterbots“ von 2017 zeigt eine nicht mal Streichholzschachtel große Mini-Drohne, die sirrend durch einen Konferenzraum schwebt, wo ein Bühnenredner im Stile von Steve Jobs zu Gange ist. Immerhin noch auf dessen Befehl hin wird die Drohne zum Kamikaze-Flieger, der eine Versuchspuppe auf der Bühne zielgenau explodieren lässt. In der Logik von Militärs könnte eine Invasion tausender solcher fliegender Sprengvorrichtungen zehntausende Zivilisten vom Kampfgeschehen unberührt lassen.

Der Schwarm könnte sich aber auch ganz selektiv auf zehntausende Zivilisten stürzen, die der falschen Religion, der falschen Ethnie, dem falschen Geschlecht oder der falschen Partei angehören. Trotzdem: Auszuschließen, es könne eine KI-gesteuerte Technik entwickelt werden, die in stressigen Kampfsituationen besser als Menschen darin ist, das Kriegsvölkerrecht zu beachten, wäre vielleicht doch voreilig. Zumal man ja nicht sagen kann, dass in der langen Geschichte des Krieges sich menschliche Kampftruppen hier als irgendwie vorbildlich gezeigt hätten.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.