Drohnen mit todbringender Fracht: Militärische Roboter
Bewaffnete Drohnen sollen künftig autonom agierend in den Krieg ziehen. Forscher und Politiker befürchten eine neue Rüstungsspirale.
Aufsehen erregte vor einigen Wochen ein Bericht der Vereinten Nationen über den Einsatz von Angriffsdrohnen des türkischen Typs „Kargu-2“ im libyschen Bürgerkrieg. Dem Bericht zufolge, aus dem die britische Wissenschaftszeitschrift New Scientist zitierte, habe es sich um „tödliche autonome Waffensysteme“ gehandelt, die in der Lage waren, aus der Luft Bürgerkriegs-Rebellen zu verfolgen und so programmiert waren, dass es „keinerlei aktiver Datenverbindung“ zwischen dem Operator und dem Flugobjekt bedurft hätte.
Nicht bestätigen konnte der Bericht, dass es bei diesem Einsatz Todesopfer gab. Es dürfte sich dabei aber um den ersten Vorfall gehandelt haben, bei dem Drohnen Menschen ohne Anweisung angegriffen hätten, zitierte New Scientist den Experten für unbemannte Waffensysteme, Zak Kellenborn.
Auch im militärischen Konflikt um die Region Bergkarabach in Zentralasien kamen sogenannte Kamikazedrohnen bereits zum Einsatz. Nach ihrem Start suchen sie selbständig die Luftverteidigungssysteme des Gegners und bringen sie zur Detonation. Nach Untersuchungen des Center for Strategic and International Studies in Washington hat Aserbaidschan mehr als 200 Drohnen aus hochentwickelter israelischer Produktion eingesetzt.
Die Situation wurde vom Büro für Technikfolgenabschätzung beim Deutschen Bundestag (TAB) in einer 180-Seiten-Studie umfassend analysiert. „Die zunehmende Nutzung von automatisierten oder zukünftig autonomen Waffensystemen könnte einen Paradigmenwechsel darstellen, der die Kriegsführung im 21. Jahrhundert revolutionieren würde“, heißt es in dem Report. Er behandelt die technischen Aspekte, ethische Gesichtspunkte und internationale Politikfragen.
Angriff im Schwarm
Die technologischen Trends der Waffenentwicklung gehen einerseits in Richtung extrem leistungsfähiger Großgeräte, wie etwa autonome Kampfdrohnen mit Strahlantrieb und Tarnkappenfähigkeiten, die im Luftkampf über umkämpftem Gebiet eingesetzt werden können. Der zweite Trend verfolgt die Entwicklung immer kleinerer Systeme, die in großer Zahl kostengünstig hergestellt und im Schwarm eingesetzt werden können.
Bei militärischen Robotern, die am Boden operieren, können stationäre und mobile Systeme unterschieden werden. Hier trifft die Technik auf das Bewertungsfeld der Ethik, denn einige Befürworter dieser Entwicklung versprechen sich von autonomen Waffensystemen neben militärischen auch „humanitäre Vorteile“, weil weniger Menschen – Soldaten wie Zivilisten – zu Tode kommen würden. Dagegen steht die Kritik, ob es ethisch vertretbar und völkerrechtlich erlaubt sein kann, die Entscheidung über Leben und Tod von Menschen an Maschinen zu delegieren.
Bei den Empfehlungen an die Politik wird im TAB-Bericht betont: „Derzeit existiert ein Fenster von Möglichkeiten, um mit einem international abgestimmten, zielgerichteten Vorgehen die möglichen Gefahren einzuhegen, die AWS mit sich bringen könnten.“ Dieses Fenster schließe sich sukzessive mit fortschreitender technologischer Entwicklung. Es sei „dringend geboten, diese Herausforderungen unverzüglich anzugehen und Lösungen zu entwickeln“, fordert das TAB-Büro.
Dabei geht es vor allem darum, die rasanten Fortschritte in den Bereichen Robotik und künstlicher Intelligenz (KI) zu „zivilisieren“ und ihr Eindringen in militärische Nutzungen zu verhindern. „Oberhalb von Kernwaffen entsteht eine neue Ebene des Wettrüstens zwischen China und den USA“, warnt Thomas Metzinger, Professor für Theoretische Philosophie an der Universität Mainz. Er war Mitglied einer von der EU-Kommission eingesetzten „High-Level Expert Group on Artificial Intelligence“, die Regulierungsvorschläge erarbeiten sollte.
Leider sei das Thema der „autonomen Waffensysteme“ aus dem Gesetzentwurf der Gruppe „vollständig herausgefallen“, bedauert Metzinger: „Das war ein großer Streitpunkt, da einige Gruppenmitglieder der Meinung waren, dass Europa nicht in das KI-Wettrüsten auf militärischer Ebene eintreten solle“. Wie kam es dazu? „Ich denke, das ist ein Erfolg der Rüstungslobby“, sagte Metzinger in einem Interview mit der Zeitschrift Forschung und Lehre.
Nötig sind globale Lösungen
Eine Regulierung allein auf EU-Ebene wäre zudem auch wenig sachdienlich, denn nötig sind globale Lösungen. „Wie biologische (B-Waffen) und chemische Waffen (C-Waffen) und auch bestimmte konventionelle Waffen können autonome Waffen unproblematisch durch einen völkerrechtlichen Vertrag verboten werden“, ist die Auffassung von Silja Vöneky, Professorin für Völkerrecht und Rechtsethik an der Universität Freiburg und Mitglied der FRIAS Forschungsgruppe Responsible AI. Allerdings müsste die Barriere schon früher aufgestellt werden – nicht erst vor dem Einsatz der autonomen Waffen, sondern bereits bei ihrer Erforschung und Entwicklung.
„Schwieriger wäre ein Entwicklungs- und Herstellungsverbot durchzusetzen und die Durchsetzung zu kontrollieren“, räumt Vöneky ein. „Auch hier gibt es aber mit der C-Waffenkonvention und deren Implementierungsprotokoll eine ‚Blaupause‘, um ein Waffenentwicklungsverbot auch im Frieden schon umzusetzen und dennoch friedliche Forschung zuzulassen.“ Wichtig sei, dass der politische Wille gegeben ist. „Andernfalls bleibt es (wie bei der B-Waffenkonvention) bei einem Verbot, dessen Überwachung nicht vor Ort in den Staaten überprüft werden kann.“
Für Bundesaußenminister Heiko Maas (SPD) kann nur ein internationaler Vertrag zur Ächtung der AWS das Ziel sein. „Genau wie wir das bei Nuklearwaffen über viele Jahrzehnte geschafft haben, müssen wir auch bei neuen Waffentechnologien zu internationalen Verträgen kommen“, sagte Maas in einem Statement für die Deutsche-Welle-Dokumentation „Future Wars – and How to Prevent Them“.
Darin solle zum Ausdruck kommen, „dass bestimmte Entwicklungen zwar technisch möglich, aber nicht verantwortbar, sondern international zu ächten sind“, so der Minister. Erste Schritte dazu gibt es inzwischen im Rahmen der Convention on Certain Conventional Weapons (CCW) der Vereinten Nationen, die eine „Einhegung der mit AWS möglicherweise verbundenen Risiken beleuchtet“ und daraus Überlegungen zu Möglichkeiten der präventiven Rüstungskontrolle ableiten will.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
Spiegel-Kolumnist über Zukunft
„Langfristig ist doch alles super“
+++ Nachrichten im Ukraine-Krieg +++
Slowakischer Regierungschef bei Putin im Kreml
Hoffnung und Klimakrise
Was wir meinen, wenn wir Hoffnung sagen
Rechte Gewalt in Görlitz
Mutmaßliche Neonazis greifen linke Aktivist*innen an
Nachtcafé für Obdachlose
Störende Armut
James Bond
Schluss mit Empfindsamkeit und Selbstzweifeln!