Petition der Woche – autonome Waffen: Freiwillig gegen Killerroboter
Tausende Wissenschaftler sprechen sich gegen autonome Waffensysteme aus. Sie warnen vor der Selbstvernichtung der Menschheit.
Es wird als das perfekte Kriegsszenario verkauft: feindliche Roboterarmeen, die sich gegenseitig die Köpfe einschlagen, ohne dass ein Mensch zu Schaden kommt. Leider wird die immer raffiniertere Technik in Wirklichkeit eher gegen den Menschen verwendet. Das zeigen die US-amerikanischen Drohnenangriffe in Syrien, Somalia, dem Irak. Der nächste Schritt wäre, wenn sie von einer künstlichen Intelligenz, einer KI, gesteuert würden, die selbst darüber entscheidet, zu töten oder am Leben zu lassen.
Der Gedanke ist nicht abwegig. Deshalb haben WissenschaftlerInnen, Ingenieure und Unternehmer, die in der KI-Forschung und -Entwicklung tätig sind, eine Selbstverpflichtung unterschrieben: Sie werden sich nicht daran beteiligen, autonome Maschinen zu entwickeln, die über menschliches Leben entscheiden. Es wäre zwar „billiger und effizienter, solche Maschinen in den wachsenden Militäreinsatzgebieten einzusetzen, statt das Leben von SoldatInnen zu riskieren“, sagt Günther Görz. Doch die Steuerung solcher Systeme sei fehleranfällig. Was, wenn es einen Hackerangriff gibt? Und sowieso, wer trägt am Ende die Verantwortung?, fragt er.
Görz, Professor für Computerwissenschaften in Erlangen, ist einer der Unterzeichner der Selbstverpflichtung. Er sagt: „Natürlich kann man Maschinen bauen, die gezielt bestimmte Personen erkennen und diese gezielt um die Ecke bringen.“ Sie könnten auch schon autonom Entscheidungen treffen. Auf die Frage, wie es zu einer Entscheidung kam, hätten sie jedoch keine Antwort, weil sie noch nicht in der Lage sind, ihr Handeln zu erklären.
Die Selbstverpflichtung ist eine von vielen Initiativen des Future of Life Institute aus Cambridge, Massachusetts. Es wurde 2014 unter anderem von Skype-Miterfinder Jaan Tallinn und dem Physiker Max Tegmark gegründet und wird finanziell von Tesla- und Space-X-Chef Elon Musk unterstützt. Auch der verstorbene Stephen Hawking beteiligte sich. Die Intention ist es, moralische und ethische Richtlinien für den Umgang mit der immer weiter fortgeschrittenen Technik aufzustellen. Dazu gehört vor allem das Forschungsgebiet der KI, das mithilfe von Computerprogrammierung versucht, menschliche Intelligenz zu simulieren. Das Future of Life Institute fordert, dass KI dem Wohl der Menschen dient und nicht missbraucht wird.
„Büchse der Pandora“
223 Organisationen und 2.861 Personen haben die Selbstverpflichtung bereits unterschrieben. Unabhängig davon haben sich 26 Staaten für ein Verbot von automatisierten tödlichen Waffensystemen ausgesprochen. Deutschland ist nicht darunter.
Anfang der siebziger Jahre nahmen junge Linke heimlich Abtreibungen vor. Sie trafen sich in WGs, benutzen umgebaute Fahrradpumpen und Codewörter. Jetzt haben wir vier Frauen der Gruppe wieder zusammengebracht – in der taz am wochenende vom 4./5. August. Außerdem: In Bayern sind die Grünen in Umfragen zweitstärkste Partei – doch können sie Markus Söder stürzen? Und: Alles, was Sie schon immer über Schweiß wissen wollten. Ab Samstag am Kiosk, im eKiosk, im praktischen Wochenendabo und rund um die Uhr bei Facebook und Twitter.
Der Selbstverpflichtung ging ein vom Future of Life Institute organisiertes Treffen über „Beneficial KI“ im Januar 2017 voraus, in dem Prinzipien zu KI formuliert wurden. Dazu schreibt die „Vereinigung Deutscher Wissenschaftler“: „Mit der künstlichen Intelligenz öffnen die Menschen eine Büchse der Pandora. Im digitalen Zeitalter entfalten die Hilfsmittel für menschliches Denken womöglich eine autonome Position, die sich mächtig gegen den ohnmächtig werdenden Menschen richtet.“ Sie warnen vor der Selbstvernichtung der Menschheit und vor einem Auslöschungskrieg ohne Sieger.
Und in der Tat entwickeln die USA, das Vereinigte Königreich, Russland, China, Israel und Südkorea bereits solche automatisierten tödlichen Waffensysteme. An der Grenze zu Nordkorea sind sie schon im Einsatz. Die Erfahrung lehrt: Irgendwo auf der Welt gibt es eben immer jemanden, der es macht.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
Hype um Boris Pistorius
Fragwürdige Beliebtheit
James Bridle bekommt Preis aberkannt
Boykottieren und boykottiert werden
Russischer Angriff auf die Ukraine
Tausend Tage Krieg
Kanzlerkandidat-Debatte
In der SPD ist die Hölle los
Verfassungsklage von ARD und ZDF
Karlsruhe muss die unbeliebte Entscheidung treffen
BSW stimmt in Sachsen für AfD-Antrag
Es wächst zusammen, was zusammengehört