Petition der Woche – autonome Waffen: Freiwillig gegen Killerroboter
Tausende Wissenschaftler sprechen sich gegen autonome Waffensysteme aus. Sie warnen vor der Selbstvernichtung der Menschheit.
Es wird als das perfekte Kriegsszenario verkauft: feindliche Roboterarmeen, die sich gegenseitig die Köpfe einschlagen, ohne dass ein Mensch zu Schaden kommt. Leider wird die immer raffiniertere Technik in Wirklichkeit eher gegen den Menschen verwendet. Das zeigen die US-amerikanischen Drohnenangriffe in Syrien, Somalia, dem Irak. Der nächste Schritt wäre, wenn sie von einer künstlichen Intelligenz, einer KI, gesteuert würden, die selbst darüber entscheidet, zu töten oder am Leben zu lassen.
Der Gedanke ist nicht abwegig. Deshalb haben WissenschaftlerInnen, Ingenieure und Unternehmer, die in der KI-Forschung und -Entwicklung tätig sind, eine Selbstverpflichtung unterschrieben: Sie werden sich nicht daran beteiligen, autonome Maschinen zu entwickeln, die über menschliches Leben entscheiden. Es wäre zwar „billiger und effizienter, solche Maschinen in den wachsenden Militäreinsatzgebieten einzusetzen, statt das Leben von SoldatInnen zu riskieren“, sagt Günther Görz. Doch die Steuerung solcher Systeme sei fehleranfällig. Was, wenn es einen Hackerangriff gibt? Und sowieso, wer trägt am Ende die Verantwortung?, fragt er.
Görz, Professor für Computerwissenschaften in Erlangen, ist einer der Unterzeichner der Selbstverpflichtung. Er sagt: „Natürlich kann man Maschinen bauen, die gezielt bestimmte Personen erkennen und diese gezielt um die Ecke bringen.“ Sie könnten auch schon autonom Entscheidungen treffen. Auf die Frage, wie es zu einer Entscheidung kam, hätten sie jedoch keine Antwort, weil sie noch nicht in der Lage sind, ihr Handeln zu erklären.
Die Selbstverpflichtung ist eine von vielen Initiativen des Future of Life Institute aus Cambridge, Massachusetts. Es wurde 2014 unter anderem von Skype-Miterfinder Jaan Tallinn und dem Physiker Max Tegmark gegründet und wird finanziell von Tesla- und Space-X-Chef Elon Musk unterstützt. Auch der verstorbene Stephen Hawking beteiligte sich. Die Intention ist es, moralische und ethische Richtlinien für den Umgang mit der immer weiter fortgeschrittenen Technik aufzustellen. Dazu gehört vor allem das Forschungsgebiet der KI, das mithilfe von Computerprogrammierung versucht, menschliche Intelligenz zu simulieren. Das Future of Life Institute fordert, dass KI dem Wohl der Menschen dient und nicht missbraucht wird.
„Büchse der Pandora“
223 Organisationen und 2.861 Personen haben die Selbstverpflichtung bereits unterschrieben. Unabhängig davon haben sich 26 Staaten für ein Verbot von automatisierten tödlichen Waffensystemen ausgesprochen. Deutschland ist nicht darunter.
![](https://taz.de/picture/2879350/14/wochenendkasten.png)
Anfang der siebziger Jahre nahmen junge Linke heimlich Abtreibungen vor. Sie trafen sich in WGs, benutzen umgebaute Fahrradpumpen und Codewörter. Jetzt haben wir vier Frauen der Gruppe wieder zusammengebracht – in der taz am wochenende vom 4./5. August. Außerdem: In Bayern sind die Grünen in Umfragen zweitstärkste Partei – doch können sie Markus Söder stürzen? Und: Alles, was Sie schon immer über Schweiß wissen wollten. Ab Samstag am Kiosk, im eKiosk, im praktischen Wochenendabo und rund um die Uhr bei Facebook und Twitter.
Der Selbstverpflichtung ging ein vom Future of Life Institute organisiertes Treffen über „Beneficial KI“ im Januar 2017 voraus, in dem Prinzipien zu KI formuliert wurden. Dazu schreibt die „Vereinigung Deutscher Wissenschaftler“: „Mit der künstlichen Intelligenz öffnen die Menschen eine Büchse der Pandora. Im digitalen Zeitalter entfalten die Hilfsmittel für menschliches Denken womöglich eine autonome Position, die sich mächtig gegen den ohnmächtig werdenden Menschen richtet.“ Sie warnen vor der Selbstvernichtung der Menschheit und vor einem Auslöschungskrieg ohne Sieger.
Und in der Tat entwickeln die USA, das Vereinigte Königreich, Russland, China, Israel und Südkorea bereits solche automatisierten tödlichen Waffensysteme. An der Grenze zu Nordkorea sind sie schon im Einsatz. Die Erfahrung lehrt: Irgendwo auf der Welt gibt es eben immer jemanden, der es macht.
40.000 mal Danke!
40.000 Menschen beteiligen sich bei taz zahl ich – weil unabhängiger, kritischer Journalismus in diesen Zeiten gebraucht wird. Weil es die taz braucht. Dafür möchten wir uns herzlich bedanken! Ihre Solidarität sorgt dafür, dass taz.de für alle frei zugänglich bleibt. Denn wir verstehen Journalismus nicht nur als Ware, sondern als öffentliches Gut. Was uns besonders macht? Sie, unsere Leser*innen. Sie wissen: Zahlen muss niemand, aber guter Journalismus hat seinen Preis. Und immer mehr machen mit und entscheiden sich für eine freiwillige Unterstützung der taz! Dieser Schub trägt uns gemeinsam in die Zukunft. Wir suchen auch weiterhin Unterstützung: suchen wir auch weiterhin Ihre Unterstützung. Setzen auch Sie jetzt ein Zeichen für kritischen Journalismus – schon mit 5 Euro im Monat! Jetzt unterstützen
meistkommentiert
Tabubruch der CDU
Einst eine Partei mit Werten
Trump und die Ukraine
Europa hat die Ukraine verraten
Social-Media-Star im Bundestagswahlkampf
Wie ein Phoenix aus der roten Asche
Gerhart Baum ist tot
Die FDP verliert ihr sozialliberales Gewissen
Krieg und Rüstung
Klingelnde Kassen
80 Jahre nach der Bombardierung
Neonazidemo läuft durch Dresden