piwik no script img

Israel nutzt KI-System Lavender in Gaza20 Sekunden für Leben oder Tod

Kommentar von Emran Feroz

Die israelische Armee setzt für die Suche nach Hamas-Kämpfern auf eine KI. Sie agiert fast autonom, nimmt zivile Opfer in Kauf und verdächtigt Zehntausende.

Die komplette Zerstörung und zivile Opfer werden in Kauf genommen Foto: Maxar Technologies/reuters

A ktuelle Recherchen veranschaulichen die Dystopie des Krieges im Gazastreifen. Laut dem israelisch-palästinensischen Onlinemedium +972 Magazine wendet das israelische Militär ein KI-Programm namens „Lavender“ an, um Hamas-Ziele zu finden. Insgesamt hat die KI mindestens 37.000 Menschen als „Terroristen“ abgestempelt und zum Abschuss freigegeben.

Den Informationen zufolge, die auf Whistleblowern basieren, werden zivile Opfer dabei bewusst in Kauf genommen. So seien bei Hamas-Kämpfern mit niedrigem Rang 15 bis 20 zivile Opfer tolerabel. Bei hochrangigen Kommandanten werden gar über 100 zivile Todesopfer toleriert.

Ebenso schockierend ist der Umstand, dass Wohnblocks mit Familien gezielt bombardiert werden, weil laut dem Militär die Erfassung der Ziele einfacher sei, wenn diese sich bei ihren Familien aufhielten.

Eine Quelle berichtet, sie wende etwa 20 Sekunden auf, um die Einstufung der KI zu verifizieren. In der Zeit überprüfe sie lediglich, ob das Ziel männlich ist.

„Lavender“ handelt fast gänzlich autonom. Eine Quelle berichtet, sie wende für einen Menschen, den die KI als verdächtig einstuft, etwa 20 Sekunden auf, um die Einstufung zu verifizieren. In der Zeit überprüfe sie lediglich, ob das Ziel männlich ist.

Weitere, durchaus schockierende Erkenntnisse erinnern an andere Konflikte, etwa an den „War on Terror“ der Amerikaner in Afghanistan und anderswo. 2012 wurde bekannt, dass Washington jede „männliche Person im wehrfähigen Alter“ („military-aged male“) im Umfeld eines Drohnenangriffs per se als „feindlichen Kombattanten“ betrachtet, solange Gegenteiliges nicht bewiesen wird. Auch „Lavender“ macht nicht vor minderjährigen Palästinensern halt.

Tatsächlich ist der Massenmord mittels KI eine direkte Folge des „Tods per Knopfdruck“, der im Zuge der Antiterrorkriege der letzten zwei Jahrzehnte etabliert wurde. Jegliches Verständnis von Ethik, Moral und Rechtsstaatlichkeit fällt bei dieser Art der Kriegsführung weg.

Hinzu kommt, dass sie keineswegs zu einem Erfolg führt, neue Terroristen züchtet und nicht verlässlich ist. Auch dies macht der desaströse Ausgang des Krieges in Afghanistan deutlich: Viele der Taliban-Führer, die in den letzten Jahren nach Drohnenoperationen vermeintlich getötet wurden, regieren heute in Kabul und sind stärker denn je zuvor.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

18 Kommentare

 / 
  • "ein KI-Programm namens „Lavender“ an, um Hamas-Ziele zu finden. Insgesamt hat die KI mindestens 37.000 Menschen als „Terroristen“ abgestempelt und zum Abschuss freigegeben.



    (...)



    „Lavender“ handelt fast gänzlich autonom."



    Das einzige was jetzt noch fehlt, sind vollautonome Drohnen oder Roboter, die die Tötungen übernehmen.



    'Terminator' ist näher als man denkt.

  • Die Entwicklung ist katastrophal. Man erkennt mehrerlei:



    - Wie wichtig und schützenswert journalistische Aufklärung über derlei ist! Die britische Justiz muss Assange jetzt endlich vollumfänglich freisprechen!



    - Wenn die Wahrheit das erste Opfer des Krieges ist, ist die Moral das zweite. Das gilt aber nur für Regime, die vorher wirklich demokratisch waren. Bei Unrechtsregimen, und Istael ist spätestens seit der Regierung Netanjahu eines, ist beides schon vor dem Krieg nicht mehr vorhanden.



    - Was schließt aus, dass ein Unrechtsregime KI auch gegen politische Gegner einsetzt? Nichts. Damit kann die Zivilgesellschaft in nie dagewesenem Umfang massiv eingeschüchtert werden. Und Unrechtsregime sind in mehr als einem europäischen Land bereits an der Regierung, bzw. stehen vor der Tür.

    KI ist ein im wahrsten Sinne des Wortes un-menschliches Produkt. Es ist längst nicht das erste, aber es ist mit eins der bisher schlimmsten. Da muss ein Riegel vor und zwar schnellstens.



    Und wird nicht besser

    • @marmotte27:

      Die britische Justiz kann Assange nicht freisprechen, weil er dort gar nicht angeklagt ist.

      Die Anklage in den USA lautet auf Verschwörung zum Hacken eines Regierungscomputers.



      Assange und Manning sollen versucht haben, sich Zugang zu einem Computernetzwerk der Regierung mit Geheiminformationen zu verschaffen. Manning soll ein Bruchteil eines hierzu erforderlichen Passwortes beschafft und an Assange weiter gegeben haben, damit er versuchen kann, denn Rest des Passwortes zu entschlüsseln. (Die Anklage ist insofern plausibel, dass Assange wegen Hacking in Australien vorbestraft ist)



      www.justice.gov/op...source=govdelivery



      So etwas geht eindeutig über Journalismus und Whistleblowing hinaus.

      • @Socrates:

        Nur das dies wie sie beschreiben nicht stattgefunden hat. Und: "The alleged hacking not only didn’t happen, according to expert testimony at Manning’s court martial hearing in 2013 and again at Assange’s extradition trial last week, but it also couldn’t have happened." (u.a. The Intercept: Crumbling Case Against Assange Shows Weakness of “Hacking” Charges Related to Whistleblowing) Zudem hatte Manning zum Zeitpunkt dieses angeblichen Hackings bereits sämtliche Unterlagen, die sie Wikileaks gegeben hat, runtergeladen. Die Anklageschrift der Amerikaner macht deren Geschichte nicht wahr, zumal sie seit einigen Jahren die Tradition haben, gegen die Whistleblower zu ermitteln und diese anzuklagen, statt sich um die Verbrechen zu kümmern die sie aufgedeckt haben und diese Verantwortlichen zur Rechenschaft zu ziehen.

  • Was soll ich tun, wenns mir selber fehlt ? Aber es ist so einfach. KI denkt nicht. KI ist ein stinknormaler Rechner, der mittels Programmierer/Auftraggeber das gewünschte Ergebnis liefert.

  • Danke für diesen aufklärenden Artikel 🙏

  • Vielen Dank. Ich habe die Artikel gestern im Guardian und +972 Magazin gelesen und konnte es nicht fassen wie man so viele zivile Opfer in Kauf nehmen kann. Das passiert wenn man Computer quasi mit dem Töten beauftragt. Einem Computer fehlt Menschlichkeit, Ethik, Moral und Rechtsstaatlichkeit. Nur stellt sich eben auch die Frage wie moralisch es ist, überhaupt so ein System zu benutzen? Für mich birgt das eine Menge Missbrauchspotential. Und wenn man den Originalartikel von +972 liest, dann wird das auch mehr als deutlich. Sorry aber wie kann das noch mit dem Völkerrecht vereinbar sein? Aus menschlicher Sicht versteh ich sowieso nicht, wie irgendjemand so viele zivile Opfer in Kauf nehmen kann. Für mich ist es ein Beispiel dafür wie Technologie nicht immer Fortschritt bedeutet. Da graust es mir vor der Zukunft.



    Da wird der menschliche Faktor aus dem Töten genommen, der einem vor bestimmten Taten zögern lässt, nachdenken lässt, die Frage nach Ethik,Moral, Recht und Gerechtigkeit stellt.



    “You don’t want to waste expensive bombs on unimportant people — it’s very expensive for the country and there’s a shortage [of those bombs],” (+972)- als Erklärung warum sogenannte "dumb bombs" (ungelenkte Bomben), die komplette Gebäude zum Einsturz bringen können, für vermutete Militante genutzt wurden, die eine niedrige Position inne hatten. Und Biden hat vor wenigen Tagen noch mehr von diesen "dumb bombs" für Israel genehmigt. (NYT: Visual Evidence Shows Israel Dropped 2,000-Pound Bombs Where It Ordered Gaza’s Civilians to Move for Safety/ CNN:‘Not seen since Vietnam’: Israel dropped hundreds of 2,000-pound bombs on Gaza, analysis shows)



    Die hohe Anzahl ziviler Opfer ist damit jedenfalls nicht mehr verwunderlich. Allerdings muss man sich bei der "fortschrittlichen" Technologie schon fragen wie es dann immer wieder dazu kam das Hilfsorganisationen unter Beschuß geraten sind genauso wie Journalisten.

  • ... dazu kommt fast lückenlose Überwachung durch Biometrie an Checkpoints und Kameraüberwachung.



    Hier Links zu 972 : www.972mag.com/lav...israeli-army-gaza/ und



    www.972mag.com/mas...ated-bombing-gaza/

  • "Jegliches Verständnis von Ethik, Moral und Rechtsstaatlichkeit fällt bei dieser Art der Kriegsführung weg."

    Das trifft es auf den Punkt.

    Vielleicht sollte man noch ergänzen, dass die großen Militärmächte an KI geführten Drohnenschwärmen arbeiten...

  • Sobald die KI uns als das primäre planetare Problem verstanden hat sind diese Drohnen hinter uns allen her.

  • Es ist wichtig, das zu betonen: Es handelt sich hier um Mord. Töten im Krieg ist zwar erlaubt, aber nur um ein militärisches Ziel zu erreichen. Nicht um Menschen zu bestrafen.

  • Israel hat sich vollends aus der Gemeinschaft der humanistischen Kultur heraus bewegt - was bleibt ist pure Barbarei.

  • Dies erklärt auch ein Stück weit das brutale Vorgehen der Israelis. Im geschützem Raum vor dem Bildschirm hört man nicht die Schreie der sterbenden Menschen.

  • Genug ist genug! Jemand muss diesen Wahnsinn der extremistischen israelischen Regierung und Armee stoppen! Ein ehem. Richter des englischen Supreme Court formulierte es nun so: Wer jetzt noch weiter Waffen an Israel liefert, wie die USA, Deutschland und England, macht sich mitschuldig an den Kriegsverbrechen Israels und muss zur Verantwortung gezogen werden.

  • "Jegliches Verständnis von Ethik, Moral und Rechtsstaatlichkeit fällt bei dieser Art der Kriegsführung weg."

    Außer der Automatisierung und der damit verbundenen Frage der Qualität der Zielsuche sehe ich keinen relevanten Unterschied zu einer Kriegsführung mit mehr menschlichen Einfluss.

    Zivile Opfer/Kollateralschäden werden auch dann in Kauf genommen, wenn Menschen Ziele auswählen und auf den Knopf drücken. Von Ethik, Moral und Rechtsstaatlichkeit ist bei der russischen Armee auch nicht viel zu sehen.

    • @gyakusou:

      Bei Menschen besteht wenigstens die Chance, dass sich das Gewissen meldet. KI hat keins.

      • @warum_denkt_keiner_nach?:

        Die KI agiert nur auf Grundlage von menschlichen Vorgaben.

        Wenn Menschen Ethik, Moral und ein Gewissen so wichtig sind, können sie das in die KI einprogrammieren. Dass die Anzahl ziviler Opfer minimiert werden soll zum Beispiel.

        Am Ende des Tages sind die Menschen weiter verantwortlich.