piwik no script img

Waffen ohne menschliche KontrolleDer Aufstieg der Maschinen

Wer ist Freund? Wer wird getötet? Das könnten in Zukunft Roboter statt Soldaten entscheiden. Nur: Wer ist verantwortlich, wenn sie falsche Ziele treffen?

Killerroboter aus der Zukunft: Der „Terminator“ sieht nur aus wie ein Mensch. Bild: dpa

BERLIN taz | Am 4. August 1997 wird der Militärcomputer „Skynet“ installiert, um das nationale Waffenarsenal der USA zu kontrollieren. Das intelligente System lernt schnell, viel zu schnell. Als die Bediener des Computers in Panik geraten und versuchen, es wieder abzustellen, beginnt der Rechner einen atomaren Weltkrieg. Von dem Krieg zwischen Menschen und Maschinen handelt die Science-Fiction-Filmreihe „Terminator“, in der intelligente Roboter aus der Zukunft den künftigen Anführer der menschlichen Widerstandsbewegung zu ermorden versuchen.

Während rebellierende Maschinen und intelligente Computer noch weit entfernt scheinen, gibt es inzwischen deutliche Entwicklungen dahin, dass die Kriege der Zukunft von eigenständigen Militärrobotern geführt werden könnten. „Autonome Waffensysteme“ werden die Roboter genannt, die ohne menschliches Eingreifen Ziele auswählen und bekämpfen können. Innerhalb von 20 bis 30 Jahren könnte es solche Roboter bereits geben, schätzt eine Studie der Menschenrechtsorganisation Human Rights Watch (HRW) vom 19. November. Darin wird gefordert, solche Roboter schon jetzt vorsorglich zu verbieten. Obwohl der Appell früh kommt, scheint es bereits zu spät zu sein.

Beispiel Drohnen: Breit diskutiert sind bereits die Kampfdrohnen der USA, die in Afghanistan und Pakistan wohl mehrere tausend Menschen getötet haben. Während sie keinen Piloten an Bord haben, sondern weit entfernt am Boden, wird die nächste Generation wohl gar keinen Piloten mehr haben. Anfang Dezember testete die französische Waffenfirma Dassault im Auftrag mehrerer europäischer Länder das unbemannte Kampfflugzeug „Neuron“.

Es fliegt eigenständig, ohne menschlichen Eingriff und muss das auch können, denn die Tarnkappendrohne soll Geheimeinsätze hinter feindlichen Linien fliegen – jede Funkkommunikation würde ihre Deckung zerstören. Und schießen? „Wir müssen den Menschen in jedem Fall in der Schleife behalten“, sagt ein Sprecher von Dassault. „Wir suchen aber die richtige Mischung von Automatisierung und menschlicher Kontrolle.“ Heißt: mehr Maschine, weniger Mensch.

Empfohlener externer Inhalt

Wir würden Ihnen hier gerne einen externen Inhalt zeigen. Sie entscheiden, ob sie dieses Element auch sehen wollen:

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung

Im Zweifel mit dem Computer

Beispiel Raketenabwehr: Brandneu ist das System „Mantis“ der Bundeswehr, das im September getestet wurde. Das Werbevideo zeigt vier beigefarbene Kanonen, die zackig von einer Seite zur andern schwenken, auf ihren Dächer rotiert das Radar. Mündungsfeuer blitzt auf. Treffer. „Mantis“ verfolgt seine Ziele automatisch und sortiert sie per Radar in „Freund“ und „Feind“.

Drohnen und Schwärme

SGR 1 (Südkorea): Der Militärroboter von Samsung ist ein Wachturm, der an der Grenze zu Nordkorea eingesetzt wird. Mithilfe von Hitze- und Bewegungssensoren kann er Ziele erfassen und verfolgen, die bis zu vier Kilometer entfernt sind. Warnungen werden an die Zentrale weitergeleitet, und Menschen entscheiden dann gegebenenfalls über einen Schießbefehl.

Guardium (Israel): Der ferngesteuerte bewaffnete Panzer von G-NIUS wird vom israelischen Militär an der Grenze zum Gazastreifen verwendet. Er kann eigenständig fahren und arbeitet mit Wärmekameras, um Menschen identifizieren zu können. Die Daten werden an eine Zentrale weitergegeben, wo Soldaten auch die direkte Kontrolle über den Panzer übernehmen können.

X-47-B (USA): Die unbemannte Kampfdrohne von Northrop Grumman fliegt eigenständig vorprogrammierte Missionen und braucht nur von einem Bediener überwacht zu werden. In diesem Jahr wurde sie bereits mehrmals getestet, 2013 soll sie eine eigenständige Landung auf einem Flugzeugträger absolvieren, eines der schwierigsten Manöver der Luftfahrt. Sie ist vorerst nur für unbewaffnete Missionen vorgesehen, soll aber bis zu 2 Tonnen Waffen tragen können.

Schwarm unbemannter Flugkörper (USA): In einem Test zeigten die US Marine und Augusta Systems, wie mehrere Drohnen vernetzt agieren und dabei nur einen Bediener brauchen. Die Tests sollten zeigen, wie Personal bei der Bedienung von Drohnen und ferngesteuerten Robotern eingespart werden kann. Auch für die europäische Tarnkappendrohne „Neuron“ könnte eine solche Schwarmtechnologie entwickelt werden. (lrs)

Dann haben die Soldaten maximal 20 Sekunden Zeit, auf den roten Knopf zu drücken, der den Abschuss freigibt. Wenn es mehrere Ziele gleichzeitig gibt, bleibt noch weniger Zeit. Danach entscheidet wieder der Computer. Die „sinnvollste“ Kanone wird berechnet. Abschuss.

Computer könnten die Verhältnismäßigkeit von Einsätzen nicht ausreichend berücksichtigen, argumentiert die HRW-Studie, sie würden nur unzureichend zwischen Kämpfern und Zivilisten unterscheiden können – beide Abwägungen sind nach dem Völkerrecht notwendig – und bei ihren Entscheidungen werde eine zentrale Komponente fehlen: Empathie.

Die Befürchtung der Menschenrechtsorganisation HRW ist, dass die Zahl der zivilen Kriegsopfer steigen könnte – und am Ende niemand dafür verantwortlich gemacht werden könnte. „Es werden Fehler passieren, und die Frage ist, wen wir dann zur Rechenschaft ziehen“, sagt HRW-Waffenexperte Steve Goose. „Ist es der Kommandeur, der die Maschine rausschickte, aber keinen Einfluss auf konkrete Schießbefehle hatte? Ist es der Programmierer, auf dessen Algorithmen diese Entscheidungen basieren? Der Hersteller? Klar ist nur: Die Maschine selbst kann nicht zur Verantwortung gezogen werden.“

Wegen der völkerrechtlichen Bedenken bilden heute Menschen einen zentralen Teil von jedem Waffensystem. Doch die Grenze dessen, wie viel Mensch benötigt wird, wird ständig getestet. So bereiten Computer an vielen Stellen Entscheidungen für Menschen so weit vor, dass in dringenden Situationen wenig Zeit für eine eigenständige Entscheidung bleibt.

Human Rights Watch geht davon aus, dass Bediener hierbei im Zweifel eher dem automatisierten System folgen und dem Angriff zustimmen werden. Die Gefahr besteht, dass die Entscheidung des Computers zur Regel werden könnte. Wenige Tage nach der HRW-Studie veröffentlichte das US-Verteidigungsministerium eine Direktive, die die Entwicklung solcher Waffen und ihre Einsätze regelt.

Kommt ohne menschliche Kontrolle aus: die Tarnkappendrohne „Neuron“. Bild: dpa

„Kein Thema für Deutschland“

Technisch sind Roboter, die eigenständig zwischen Zivilisten und Kämpfern ohne Uniform unterscheiden oder gar ganze Kampfszenarien bewerten könnten, wie es das Völkerrecht vorschreibt, noch längst nicht machbar. Bislang denken nur wenige über die nötigen Rahmenbedingungen nach. Aus dem deutschen Verteidigungsministerium heißt es zum Beispiel, autonome Waffensysteme seien „kein Thema“. Deshalb gebe es noch keinerlei rechtliche Beurteilung. Ganz anders die USA: Eine „Roadmap“ des US-Militärs sieht die Entwicklung autonomer Roboter vor, etwa für Minenräumung oder für Rettungseinsätze. Aber perspektivisch auch für den „Einsatz von Gewalt“.

Die kürzlich erschienene Direktive des US-Verteidigungsministeriums definiert nun aber konkrete Rahmenbedingungen für die Produktion und den Einsatz autonomer Waffen. Sie gibt vor, dass autonome Waffensysteme nur zur Verteidigung bemannter Einrichtungen eingesetzt werden dürfen, aber auch dann nicht gegen menschliche Ziele – das Bundeswehr-System „Mantis“ ohne einen knopfdrückenden Soldaten wäre also zugelassen.

Doch in einem Halbsatz eröffnet sich der Weg zu autonomen Waffen: Es heißt, wenn semiautonome Systeme, deren Ziele von Menschen vorgegeben werden, den Kontakt zu Bedienern verlieren, könnten sie dennoch bereits definierte Ziele angreifen. Eine veränderte Gefechtslage würde eine autonome Drohne, deren Kommunikation gestört wird, also nicht mehr berücksichtigen müssen.

„Die Direktive zeigt, dass die US-Regierung auf Regulierung setzt und nicht auf ein Verbot“, sagt Steve Goose von Human Rights Watch. „Einfach davon auszugehen, dass militärische Kräfte diese Waffen ’ordnungsgemäß‘ oder ’verantwortungsvoll‘ verwenden werden, reicht nicht.“ Doch das ist der Knackpunkt, um den gestritten wird.

Roboter gegen Roboter

In einer Erwiderung an Kritiker von autonomen Waffen schreibt etwa Jeffrey Thurnher, Major und Professor am Naval War College der USA, dass Kommandeure autonome Waffensysteme in Gegenden einsetzen könnten, wo das Risiko von Kollateralschäden besonders gering ist, etwa unter Wasser, oder in Situationen, in denen feindliche Soldaten einfach zu erkennen sind. Zur Aufstandsbekämpfung seien sie hingegen nicht geeignet. Allerdings könnten sich Roboter in solchen Situationen einem Angriff aussetzen, um Feinde zweifelsfrei zu identifizieren – Menschen wären da schon tot.

Doch es drohen noch schwerwiegendere Konsequenzen. Was passiert, wenn eine Armee zu großen Teilen aus unbemannten Maschinen besteht? Steigt dann die Bereitschaft, Krieg zu führen, weil er weniger menschliche Opfer unter Militärs fordern würde? Wären empathielose Kriegsroboter nicht die Armee der Wahl eines Diktators im Falle einer Rebellion?

Und was passiert, wenn sich autonome Waffen gegenseitig angreifen? „Im schlimmsten Fall könnten durch Missverständnisse in unübersichtlichen Situationen in Krisen sogar Kriege ausgelöst werden“, sagt Jürgen Altmann, Physiker an der TU Dortmund und Mitglied im Internationalen Komitee für die Kontrolle von Roboterwaffen. Er sieht außerdem die Gefahr, dass kleinere autonome Waffen leicht ihren Weg in die Hände von Terroristen finden könnten.

Regulierung oder Verbot? Am Ende könnte ein ganz anderes Argument ausschlaggebend sein. „Der Gedanke, dass in Zukunft Maschinen über Leben und Tod von Menschen entscheiden könnten, ist für die meisten Menschen so abstoßend und abscheulich, dass wir uns gute Chancen ausrechnen“, sagt HRW-Experte Goose. Und die US-Regierung sieht auch Zeit für Diskussionen. „Es ist nicht so, dass wir denken würden, jemand entwickelt gerade einen Terminator“, kommentierte ein Sprecher die neue Direktive.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

13 Kommentare

 / 
  • Hach schön. Demnächst nimmt Nordkorea dann nicht mehr remote einen Film aus den Kinos, sondern besiegt die USA militärisch mit dessen eigenen Streitkräften.

  • H
    Hans

    Ich empfehle hierzu:

    http://alternativlos.org/27/

     

    Und was viele KommentatorInnen hier vergessen, entgegen dem Menschen haben die Maschinen (noch) nicht die Möglichkeit, ein Gewissen zu entwickeln, bezüglich des Tötens (ich weiß, dass es den Opfern der menschlichen Mördern wenig hilft und man anhand Bradley Manning sieht, wo das hinführt ein Gewissen beim Militär zu entwickeln...). Und dann lass mal noch nen Fehler dazukommen, ne durchgedrehte KI oder AI, etc.

     

    @Stimme der Demagogie

    1. Glaube ich nicht, dass der Tod von Israelis der Redaktion oder den Autoren "am Allerwertesten vorbei" geht. Nur weil man nicht ihre fundamentalistische Haltung zum Nahost-Konflikt teilt, unterstützt man nicht den Mord an Israelis oder ist ein Antisemit.

    2. Hat das wenig mit dem Thema zu tun und Ihr Kommentar wäre dort vielleicht sinnvoller angebracht. Ach, stimmt ja, der steht da ja schon so oder in ähnlicher Form und ist dort genau so wenig konstruktiv wie hier. Und der Vergleich von Menschen mit Dronen ist zudem in diesem Fall höchst abstrakt.

  • SD
    Stimme der Demokratie

    Ich finde es regelrecht zynisch, wenn in der taz einerseits diskutiert wird, ob Roboter ggf. falsche Entscheidungen treffen könnten, andererseits geht es in der Berichterstattung im Nahost-Teil den Autoren am Allerwertesten vorbei, wenn es um den Tod von Israelis geht. Palästinenser treffen immer die richtige Entscheidung, wer zu töten wäre?

  • S
    Sascha

    Abgesehen von der Frage der konkreten Verantwortung in der militärischen Befehlskette finde ich noch eine andere Frage wichtig: Mit welchem Auftrag und mit welchem Recht werden solche Waffensysteme und Technologien eigentlich überhaupt erforscht und entwickelt? Anders gefragt: Sollten Science Fiction Dystopien wie "Terminator" nicht eher als Anlass zum kritischen Hinterfragen genommen und als Warnung vor einer Entwicklung, die es zu verhindern gilt, verstanden werden und weniger als "Zukunftsvision", an der man arbeitet? Das scheint mir ähnlich zu sein wie bei den diversen Maßnahmen zur Bürgerüberwachung, auch hier scheinen Orwell und Co. eher als Anleitung mißinterpretiert worden zu sein und seine Werke werden nicht, wie von Orwell intendiert, als Warnung gelesen.

     

    Mir scheint, die Waffenindustrie wünscht sich das Albtraumszenario "Terminator" herbei und arbeitet an einer Umsetzung, weil es traumhafte Profite verspricht und solange es Profit bringt, ist doch alles andere egal. Und es wird bestimmt einen Markt geben, wie im Artikel angedeutet: nicht nur durchgeknallte Diktatoren werden sich solche Roboter zur Erhaltung ihres Regimes anschaffen, auch sogenannte berechenbare Regierungen aka "Demokratien" werden wohl ein Interesse daran zeigen, natürlich verschleiert durch eine scheinbar "vernünftige" Argumentation zur ideologischen Rechtfertigung der Anschaffung. Aber wer soll sie aufhalten?

     

    Die Demokratie wird seit einigen Monaten ja auch bei uns schon im Eiltempo abgebaut, siehe Technokratenregime in Italien und Griechenland und das Merkel-Geplapper von der "marktkonformen Demokratie".

     

    Gerade der Markt ist ja das Problem, das diese Entwicklung in Richtung "autonome Waffensysteme" möglich macht und befördert: es wird gemacht, weil ein Markt dafür vorhanden ist und man macht es ganz technokratisch, weil man es kann - und weil niemand den Mut hat, wirklich dagegen aufzubegehren. Wer aufbegehrt, ist dann ein böser Kommunist und soll nach Nordkorea gehen. Dabei sind die europäischen Regierungen, die sich "Demokratie" schimpfen, schon längst auf den Zug Richtung Nordkorea aufgesprungen.

     

    Scheinbar fehlen uns inzwischen gänzlich die ethischen Maßstäbe und Grenzen für die Wege, auf denen wir uns bewegen. Deshalb bin ich pessimistisch, diese "autonomen Waffensysteme" werden kommen, denn sie liegen voll in der kapitalistischen Logik und im kapitalistisch-neoliberalen Trend und die Frage, "wer trägt die Verantwortung?" werden die Marktextremisten auch bald in einer Weise beantworten, dass die Kritik an dieser Entwicklung mundtot gemacht wird.

  • A
    art-agiter

    Das Ziel der Verantwortlichen im Kriegsfall ist die Verantwortlosigkeit Ihrer Entscheidungen.

    Die Verschiebung der Haftung auf Maschinen ist grotesk.

    Wie pervers sind solche Überlegungen-

  • G
    Gewißheit

    Wer es absurd findet oder verwerflich, autonome Waffensysteme (Computer) über Krieg und Frieden, Leben und Tod entscheiden zu lassen, der sollte sich mal ganz banal fragen, wie oft er jeden Tag in irgendeinem Menue irgendeiner Maschine, in irgendeinem Netzwerk oder an irgendeiner Schnittstelle "ok" drückt, ohne auch nur in groben Zügen verstanden zu haben, was er damit jeweils zuläßt. Jedoch wohl wissend, daß er keine Zeit oder keine Kompetenz hätte, es nachzuvollziehen und daß es ganz bestimmt seiner Bequemlichkeit oder seiner Unterhaltung dienen wird.

    Wir werden eines Tages den Terminator ohne jedes Aufhebens zum Vordereingang hereinbitten, so wie wir den großen Bruder dort hinein gebeten haben, nachdem wir jahrelang naiv geglaubt hatten, er würde bei Nacht durch die Hintertüre gekrochen kommen.

    Das ist so sicher, wie nur irgendwas.

  • P
    PeterWolf

    Wer trägt denn die Verantwortung für Minen?

    Und die töten noch viel "dümmer"!

    Und sie sind ja längst millionenfache Realität.

  • F
    Friedensberichterstatter

    "Nur: Wer ist verantwortlich, wenn sie falsche Ziele treffen?"

     

    Nun, ich denke, dass die richtigen Killermaschinen von den Armeen / Regierungen nur angemietet werden. Ähnlich wie Söldner. Siehe Privatisierung des Krieges.

     

    Wenn dann etwas schief geht, können sich die Hinterbliebenen bei einer anonym gegründeten Briefkastenfirma irgendwo in der Karibik beschweren, die sofort dicht gemacht/umbenannt wird, wenn der Presserummel zu groß wird.

     

    Vielleicht gibt es dann sogar extra Versicherungen...

  • T
    T.V.

    Empathie im Zusammenhang mit Waffengeschäften zu verwenden ist reichlich zynisch. Wer mit dem Wort tatsächlich was anfangen kann, wird von der Thematik nicht angesprochen.

  • E
    Erich
  • C
    cam

    "wer ist verantwortlich?", sollte das ein witz sein?

     

    wer muss sich denn wegen der ~100 getöteten zivilisten in kunduz verantworten?

    die frage nach der verantwortung braucht man im hinblick auf autonom tötende maschinen garnicht erst stellen.

  • R
    Ralph

    Ich wart' schon auf den ersten Bericht, worin mit großem Entsetzen und Geschimpf berichtet wird, daß Kriegsgegner A und B sich zu Gesprächen getroffen haben, um bspw. Bedingungen für eine Waffenruhe auszuhandeln...

     

    ... Und unglücklicherweise von unbemannten Flugobjekten (UFOs?) überrascht wurden, die aus unerfindlichen Gründen den Kontakt zur Basis verloren hatten und daher den letzten bekannten Auftrag weiter ausführen: alles zu töten, was lebig ist und sich in Gebäuden befindet, die möglicherweise ein Stützpunkt/HQ sein könnte.

  • N
    Neo

    In Terminator 3 entziehen durch ein Computervirus autonome Robotersysteme der menschlichen Kontrolle!

    Werden diese Worst-Case Überlegungen bei Entwicklern (Hersteller) und deren Kunden berücksichtigt?

     

    Neo, die Unbestechlichen