piwik no script img

Petition der Woche – autonome WaffenFreiwillig gegen Killerroboter

Tausende Wissenschaftler sprechen sich gegen autonome Waffensysteme aus. Sie warnen vor der Selbstvernichtung der Menschheit.

Darf die Drohne selbständig entscheiden, wer lebt und wer stirbt? Foto: reuters

Es wird als das perfekte Kriegsszenario verkauft: feindliche Roboterarmeen, die sich gegenseitig die Köpfe einschlagen, ohne dass ein Mensch zu Schaden kommt. Leider wird die immer raffiniertere Technik in Wirklichkeit eher gegen den Menschen verwendet. Das zeigen die US-amerikanischen Drohnenangriffe in Syrien, Somalia, dem Irak. Der nächste Schritt wäre, wenn sie von einer künstlichen Intelligenz, einer KI, gesteuert würden, die selbst darüber entscheidet, zu töten oder am Leben zu lassen.

Der Gedanke ist nicht abwegig. Deshalb haben WissenschaftlerInnen, Ingenieure und Unternehmer, die in der KI-Forschung und -Entwicklung tätig sind, eine Selbstverpflichtung unterschrieben: Sie werden sich nicht daran beteiligen, autonome Maschinen zu entwickeln, die über menschliches Leben entscheiden. Es wäre zwar „billiger und effizienter, solche Maschinen in den wachsenden Militäreinsatzgebieten einzusetzen, statt das Leben von SoldatInnen zu riskieren“, sagt Günther Görz. Doch die Steuerung solcher Systeme sei fehleranfällig. Was, wenn es einen Hackerangriff gibt? Und sowieso, wer trägt am Ende die Verantwortung?, fragt er.

Görz, Professor für Computerwissenschaften in Erlangen, ist einer der Unterzeichner der Selbstverpflichtung. Er sagt: „Natürlich kann man Maschinen bauen, die gezielt bestimmte Personen erkennen und diese gezielt um die Ecke bringen.“ Sie könnten auch schon autonom Entscheidungen treffen. Auf die Frage, wie es zu einer Entscheidung kam, hätten sie jedoch keine Antwort, weil sie noch nicht in der Lage sind, ihr Handeln zu erklären.

Die Selbstverpflichtung ist eine von vielen Initia­tiven des Future of Life Institute aus Cambridge, Massachusetts. Es wurde 2014 unter anderem von Skype-Miterfinder Jaan Tallinn und dem Physiker Max Tegmark gegründet und wird finanziell von Tesla- und Space-X-Chef Elon Musk unterstützt. Auch der verstorbene Stephen Hawking beteiligte sich. Die Intention ist es, moralische und ethische Richtlinien für den Umgang mit der immer weiter fortgeschrittenen Technik aufzustellen. Dazu gehört vor allem das Forschungsgebiet der KI, das mithilfe von Computerprogrammierung versucht, menschliche Intelligenz zu simulieren. Das Future of Life Institute fordert, dass KI dem Wohl der Menschen dient und nicht missbraucht wird.

„Büchse der Pandora“

223 Organisationen und 2.861 Personen haben die Selbstverpflichtung bereits unterschrieben. Unabhängig davon haben sich 26 Staaten für ein Verbot von automatisierten tödlichen Waffensystemen ausgesprochen. Deutschland ist nicht darunter.

taz am wochenende

Anfang der siebziger Jahre nahmen junge Linke heimlich Abtreibungen vor. Sie trafen sich in WGs, benutzen umgebaute Fahrradpumpen und Codewörter. Jetzt haben wir vier Frauen der Gruppe wieder zusammengebracht – in der taz am wochenende vom 4./5. August. Außerdem: In Bayern sind die Grünen in Umfragen zweitstärkste Partei – doch können sie Markus Söder stürzen? Und: Alles, was Sie schon immer über Schweiß wissen wollten. Ab Samstag am Kiosk, im eKiosk, im praktischen Wochenendabo und rund um die Uhr bei Facebook und Twitter.

Der Selbstverpflichtung ging ein vom Future of Life Institute organisiertes Treffen über „Beneficial KI“ im Januar 2017 voraus, in dem Prinzipien zu KI formuliert wurden. Dazu schreibt die „Vereinigung Deutscher Wissenschaftler“: „Mit der künstlichen Intelligenz öffnen die Menschen eine Büchse der Pandora. Im digitalen Zeitalter entfalten die Hilfsmittel für menschliches Denken womöglich eine autonome Position, die sich mächtig gegen den ohnmächtig werdenden Menschen richtet.“ Sie warnen vor der Selbstvernichtung der Menschheit und vor einem Auslöschungskrieg ohne Sieger.

Und in der Tat entwickeln die USA, das Vereinigte Königreich, Russland, China, Israel und Südkorea bereits solche automatisierten tödlichen Waffensysteme. An der Grenze zu Nordkorea sind sie schon im Einsatz. Die Erfahrung lehrt: Irgendwo auf der Welt gibt es eben immer jemanden, der es macht.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

6 Kommentare

 / 
  • "Doch die Steuerung solcher Systeme sei fehleranfällig"



    Menschen hingegen treffen nie flasche Entscheidungen- wie jeder weiß...

    "Auf die Frage, wie es zu einer Entscheidung kam, hätten sie jedoch keine Antwort, weil sie noch nicht in der Lage sind, ihr Handeln zu erklären."



    Wie etwas das auch Menschen nicht können.



    Unabhängig von der Bewertung des Ergebnisses des Entscheidungsprozesse sind hier mehrere Fehler in Argumentation und somit auch die Schlussfolgerungen unlogisch. Das macht alle Aussagen in diesem Zusammenhang völlig wertlos.

  • Thomas Wagner kritisiert im "Freitag" nicht den Aufruf, aber die Initiatoren vom Future of Life Institute:

    "Als Transhumanisten glauben sie daran, dass alle drängenden Probleme – vom Hunger über den Klimawandel bis zur Sterblichkeit – technisch lösbar sind. Soziale Ursachen sind für sie vernachlässigbar. ... Die Friedensbewegung und seriöse Wissenschaftler müssen aufpassen, sich nicht vor den Karren solcher Ideologen spannen zu lassen. Das Future of Life Institute ist dabei nur eine von vielen Einrichtungen dieser Art, hinter denen Tech-Milliardäre stehen. Die Verflechtung von transhumanistischen Netzwerken, kapitalistischer Digitalwirtschaft und privaten Forschungsinstituten zur Technikfolgenabschätzung ist selbst ein ernstzunehmendes Problem, das kritisch beleuchtet gehört."

    www.freitag.de/aut...sicht-zu-geniessen

  • 7G
    75026 (Profil gelöscht)

    "Sie könnten auch schon autonom Entscheidungen treffen. Auf die Frage, wie es zu einer Entscheidung kam, hätten sie jedoch keine Antwort, weil sie noch nicht in der Lage sind, ihr Handeln zu erklären."



    Kann ich jetzt nicht wirklich glauben, dass ein Professor für Computerwissenschaften so einen Unsinn gesagt haben soll.

    Computer entscheiden aufgrund von Algorithmen, und diese sind, wenn auch oft sehr kompliziert, so doch genau beschreibbar und nachvollziehbar. Wenn also ein Computer autonom entscheidet, einen Menschen zu töten, kann er natürlich ohne Weiteres eine - wahrscheinlich ziemlich lange - Liste von Eingabeparametern, Regeln, Gewichtungen usw. ausspucken, die zu dieser Entscheidung geführt haben.

    • 8G
      83492 (Profil gelöscht)
      @75026 (Profil gelöscht):

      "Kann ich jetzt nicht wirklich glauben, dass ein Professor für Computerwissenschaften so einen Unsinn gesagt haben soll."

      Und doch hat er recht. Die Algorithmen aus dem Bereich Deep Learning Optimieren die Antwort eines neuronalen Netzes mit vielen Parametern (mehrere Millionen) auf eine ebenfalls große Menge an Trainingsdaten. Die Entscheidung steckt dann in der Struktur des Netzes und den Parameterwerten. So weit, so deterministisch. Wenn Sie aber wissen wollen, *warum* diese Parameter korrekte Ergebnisse liefern, dann ist das für Menschen praktisch nicht interpretierbar.

      Klassifikatoren (z.B. sowas wie Kreditwürdigkeit) zu bauen, die eine für Menschen nachvollziehbare Entscheidung liefern, ist immer noch Forschungsgegenstand. Falls Sie es nicht glauben:

      Zachary C. Lipton, The Mythos of Model Interpretability



      arxiv.org/abs/1606.03490

      Berk Ustun, Stefano Tracà, Cynthia Rudin, Supersparse Linear Integer Models for Interpretable Classification



      arxiv.org/abs/1306.6677

  • Das Problem wird massiv unterschätzt, da bisher solchen Systeme nur von der ersten Welt gegen den rest verwendet werden. Es ist aber nur eine Frage der Zeit, bis solche Systeme auch gegen uns gerichtet werden, schliesslich verbreiten sich computergesteuerte Systeme überall. Das Argument der Schutzlosigkeit bei einem allgemeinen Entwicklungsverbot gegenüber denen, die sich nicht daran halten ist übertrieben, immerhin können unerwünschte Waffen relativ effektiv verboten werden, wie es bereits bei Giftgas, Biowaffen, Landminen u.ä. erfolgt ist. Ihr gelegentlicher Einsatz hat die militärische Überlegenheit von Staaten ohne solche Waffen nie real gefähredet und die Benutzer müssen nun juristische Konsquenzen fürchten. Bei autonomen Waffen ist der Gefährdungsradius viel grösser und die juristische Haftbarmachung schwieriger (wer verantwortet ein Versagen oder eine Aktion allgemein?) Es sind Angriffswaffen einer neue Qualitaet, da sie selbsttätig entscheiden, ob sie ein Ziel vernichten - Vollautomatische Kurtstreckenwaffen gegen Flug- und Artilieriegeschosse, bei denen die Reaktionszeit eines Bedieners nicht ausreichte, lassen sich herausdefinieren, da ihre Ziele schnell fliegende unbemannte Objekte sind.



    Der Schutz eigener Soldaten rechtfertigt nicht Menschen überall mit mobilen Selbstschussanlagen zu bedrohen. Wenn, siehe Youtube, bereits Jugendliche normale Drohnen mit Pistolen ausrüsten können, besteht dringend Handlungsbedarf, nicht nur bezüglich autonomer Waffensysteme, aber auch bezüglich von Mikrowaffensystemen, die mittelfristig entwickelbar sind und die zur Bedrohung von Menschen genutzt werden können. (Robofliege im Ohr verkündet - Tu dies oder das oder es gibt eine Dosis Gift)



    Wir brauchen dringend eine robuste UN-Konvention zur Entwicklung und Einsatz robotischer Systeme!

  • Danke, dass wenigstens die taz dieses Thema nicht totschweigt. Aber es ist traurig, dass die deutsche Bevölkerung in den letzten 30 Jahren so abgestumpft ist, dass bei so etwas (insbesondere: Deutschland beteiligt sich nicht an einem Verbot) kein Aufschrei mehr erfolgt. Die geistig-moralische Wende hat sich leider weitgehend durchgesetzt.