Waffen mit künstlicher Intelligenz: 26 Staaten für Killerroboter-Verbot
UNO-Staaten beraten, ob die Entwicklung autonomer tödlicher Waffen verhindert werden soll. Deutschland hält Unverbindliches für ausreichend.
Dabei geht es um Killerroboter, unbemannte Drohnen oder U-Boote – also jene Waffen, die ihre Ziele selbstständig bestimmen, erkennen, verfolgen, töten und zerstören, ohne dass Menschen dabei noch irgendeinen Einfluss nehmen können. Zumindest in den USA, Israel, Frankreich, Großbritannien, Russland, China und Südkorea arbeiten Spezialisten für Künstliche Intelligenz (KI) im Regierungsauftrag bereits an der Entwicklung solcher Killerroboter.
Experten schätzen, dass sie in spätestens 20 Jahren bereit für den Kriegseinsatz sein könnten. Diese „autonomen“ Waffen gehen technisch einen Schritt weiter als bestehende „automatische“ Systeme wie etwa die Patriot-Raketen oder bewaffnete unbemannte Drohnen: Letztere schießen zwar automatisch, wenn sie ein feindliches Ziel erkennen. Aber die Zieldaten müssen zuvor von Menschen einprogrammiert werden. Bereits seit vier Jahren diskutieren Rüstungskontroll-ExpertInnen, DiplomatInnen und VölkerrechtlerInnen darüber, welche Folgen der Einsatz von AWS in künftigen Kriegen haben könnten.
Gegner dieser Waffen sagen: Die Entscheidung über die Tötung von Menschen oder die Zerstörung überlebenswichtiger Infrastruktur dürfe aus ethischen und völkerrechtlichen Gründen niemals Maschinen, Computern und Algorithmen überlassen werden. Nur Menschen dürften darüber entscheiden – und können für ihr Handeln dann auch zur Rechenschaft gezogen werden.
Die „UNO-Konvention über bestimmte konventionelle Waffen“, deren 125 Vertragsstaaten jetzt in Genf beraten, ist eine Rahmenvereinbarung. Ihr Ziel: Das „Verbot oder die Beschränkung des Einsatzes solcher konventioneller Waffen, die übermäßige Leiden verursachen oder unterschiedslos gegen Soldaten und gegen Zivilisten wirken können“. Inzwischen haben die Staaten fünf Zusatzprotokolle beschlossen: zu blindmachenden Laserwaffen, Landminen, nicht entdeckbaren Splittern, Brandwaffen sowie zur Beseitigung von explosiven Kriegsmunitionsrückständen. Außerhalb des UNO-Rahmens wurden zwei Abkommen zum Verbot von Antipersonenminen und von Streumunition vereinbart. All diese sieben Verträge kamen erst zustande, nachdem die jeweiligen Waffen eingesetzt wurden – mit verheerenden Folgen für die Zivilbevölkerung und viele Soldaten. In manchen Fällen hatten selbst an der Entwicklung beteiligte Forscher vor den Waffen gewarnt – stets vergeblich. (azu)
Mehr Kollateralschäden befürchtet
Rüstungsexperten fürchten zudem, dass es mit AWS in künftigen Kriegen noch häufiger zu sogenannten Kollateralschäden kommt. Diese Waffen können nicht verlässlich zwischen „legitimen“ militärischen und verbotenen zivilen Zielen unterscheiden.
Die am Mittwoch eröffnete Jahrestagung der CCW soll nun entscheiden, ob formale Verhandlungen darüber aufgenommen werden sollen, AWS zu verbieten – oder zumindest Regelungen zu ihrer Einschränkung zu formulieren. Bislang fordern 26 Staaten ein völkerrechtlich verbindliches Abkommen zum Verbot von Entwicklung, Produktion, Besitz, Weitergabe und Einsatz von AWS. Eine internationale Kampagne – Campaign to Stop Killer Robots – unterstützt die Verbotsforderung. Über 2.000 ForscherInnen und WissenschaftlerInnen aus aller Welt, die auf dem Gebiet der Künstlichen Intelligenz arbeiten, haben sich ihr angeschlossen. Sie lehnen es ab, sich an der Entwicklung dieser Waffensysteme zu beteiligen.
Doch Deutschland, Frankreich und andere EU-Staaten halten eine rechtlich unverbindliche Absichtserklärung für ausreichend, wonach „Waffensysteme immer unter menschlicher Kontrolle bleiben müssen“.
Im Koalitionsvertrag hatte die Bundesregierung noch den Einsatz für ein völkerrechtlich verbindliches Verbotsabkommen versprochen. Die USA, Israel, Großbritannien, Russland,China und Südkorea lehnen jegliche Form einer internationalen Vereinbarung über Killerroboter ab.
Da die Vertragsstaaten der CCW-Konvention Entscheidungen nur im Konsens treffen können, dürfte bei der Genfer Konferenz im besten Fall eine Absichtserklärung herauskommen, auch nächstes Jahr weiter nur unverbindlich über das Thema zu „diskutieren“.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
Anschlag in Magdeburg
„Eine Schockstarre, die bis jetzt anhält“
Anschlag in Magdeburg
Der Täter hat sein Ziel erreicht: Angst verbreiten
Bundestagswahl 2025
Parteien sichern sich fairen Wahlkampf zu
Nach dem Anschlag in Magdeburg
Rechtsextreme instrumentalisieren Gedenken
Exklusiv: RAF-Verdächtiger Garweg
Meldung aus dem Untergrund
Tarifeinigung bei Volkswagen
IG Metall erlebt ihr blaues „Weihnachtswunder“ bei VW