piwik no script img

Riesige Datenmengen, tödliche Folgen

KI-gestützte Waffensysteme kommen weltweit zum Einsatz. Dabei geht es weniger um automatische Kampfroboter als um die Gefechtssteuerung

Zugeordnet, in Ausführung, abgeschlossen. Am Ende explodiert auf dem Bildschirm ein Gebäude Screenshots: X/CENTCOM; Montage: taz

Von Cem-Odos Gueler und Raoul Spada

Wie Kriegsführung mit künstlicher Intelligenz aussehen könnte, zeigte neulich Cameron ­Stanley aus dem US-Verteidigungsministerium auf einer Konferenz von Palantir. In wenigen Minuten erklärte er die Software ­Maven: Markierte Ziele wandern mit nur drei Mausklicks in einer Art Projektmanager. Linksklick, Rechtsklick, Linksklick. Hier wandern sie entlang der „kill chain“, also des Prozesses von der Identifizierung des Ziels bis zum Angriff: Zuordnung ausstehend, zugeordnet, in Ausführung, abgeschlossen. Am Ende explodiert auf dem Bildschirm ein Gebäude.

Es ist ein fiktives Szenario, doch Palantir, die Überwachungssoftware des Antidemokraten ­Peter Thiel, und das dazugehörige Projekt Maven sind inzwischen fester Teil des US-Militärs. Nach dem Willen des Pentagons soll die gesamte Armee das Programm künftig nutzen. „Es ist unerlässlich, dass wir jetzt gezielt investieren, um die Integration von KI in der gesamten Streitkraft zu vertiefen und KI-gestützte Entscheidungsfindung als Grundpfeiler unserer Strategie zu etablieren“, zitierte Reuters den stellvertretenden US-Verteidigungsminister Steve Feinberg Anfang März

Im Irankrieg wollen die USA allein in den ersten 24 Stunden mehr als 1.000 Ziele getroffen haben. Jede Woche vermeldet Brad Cooper, Befehlshaber des US-Regionalkommandos für den Nahen Osten (Cetcom), in Videobotschaften auf X ein paar Tausend zusätzliche Treffer. Die unvergleichlich hohe Zahl an „präzisen, unvorhersehbaren“ Angriffen mit tödlichem Effekt sei dank „völlig neuer Mittel“ und mittels „rasanter Innovation“ erreicht worden, erklärte Cooper im März. Eine Auswahl von „fortschrittlichen KI-Anwendungen“ komme im Irankrieg zum Einsatz, um Daten zu verarbeiten und innerhalb von Sekunden kluge Entscheidungen zu treffen.

Ob dabei auch Maven zum Einsatz kommt, ist nicht zweifelsfrei zu klären – auch nicht, an welcher Stelle künstliche Intelligenz sonst beim Kämpfen hilft. Schon seit Längerem würden aber Ziel-Datenbanken im Maven Smart System angelegt, berichtete der Guardian unter Berufung auf einen hochrangigen Verteidigungsbeamten in den USA.

Gab es in dieser Datenbank auch einen Eintrag zur Mädchenschule im iranischen ­Minab, die von einer US-Rakete getroffen wurde? Auch das lässt sich nicht zweifelsfrei klären. Doch unter Berufung auf anonyme Quellen berichtete NBC News kürzlich, dass Palantir-Technologie auch zum Einsatz komme, um potenzielle Ziele zu identifizieren.

Mindestens ein anderes KI-Unternehmen will im Irankrieg groß beteiligt sein. Es heißt ­Anduril. „Hauptsächlich auf der defensiven Seite“, beteuerte Unternehmenschef Matthew Steckman gerade in einem Podcast. In einem börsenwirksamen Auftritt erklärte er vor der Kamera, Anduril liefere „eines der wichtigsten Systeme zur Abwehr“ iranischer Shahed-Drohnen.

Nach Schätzungen des US-Militärs hat Iran seit Kriegsbeginn mehrere Tausend der vergleichsweise günstigen Shahed-Drohnen auf amerikanische Militärbasen und Infrastruktur der verbündeten Golfstaaten abgefeuert. Die Abwehr der Geschosse mit Patriot-Raketen ist teuer. Anduril helfe laut Angaben des Unternehmens dabei, das Ungleichgewicht zwischen günstigen Shahed-Drohnen und teuren Tomahawk-Abwehrraketen auszugleichen.

Wie Palantir hat das Unternehmen seinen Namen direkt aus Tolkiens „Der Herr der Ringe“. Statt vom eher verhaltensauffälligen Alex Karp wird es aber von einem sympathisch wirkenden Hippie geführt: ­Palmer Luckey ist Anfang 30, trägt Hawaiihemd und Flip-Flops und hat mit einer ­Virtual-Reality-Brille seine ersten Milliarden verdient.

Zu seiner neueren Produktpalette gehören automatisierte Drohnenabwehrsysteme, ein 360-Grad-Infrarotsensor namens Wisp und eine düsengetriebene, senkrecht startende Abwehrdrohne namens Roadrunner. Wie viel KI darin steckt und ob Augmented-Reality-Systeme für Soldatinnen und Soldaten und autonome Kampfjets noch im Reich der fernen Möglichkeiten liegen, ist schwer einzuschätzen – alles „classified“.

Einen Deal mit Anduril über Hard- und Software sowie Servicedienstleistungen im Wert von 20 Milliarden Dollar verkündete das US-Verteidigungsministerium vor wenigen Wochen. Konkrete Waffensysteme werden nicht genannt – nur das Betriebssystem Lattice wird erwähnt, das laut Medienberichten Kampfgebiete in 3D-Modellen und Lagebilder in Echtzeit darstellen kann.

Die US-Militärausgaben für KI- und andere Verteidigungstechnologien verdoppelten sich in den letzten drei Jahren auf jährlich fast 50 Milliarden US-Dollar – eine immer noch vergleichsweise kleine Summe. Nur rund 1 Prozent der amerikanischen Gesamtausgaben für Verteidigung fließen laut einer Rechnung der ­Ronald-Reagan-Stiftung in den Bereich. Anduril, Palantir und Elon Musks Raumfahrtunternehmen SpaceX erhalten hier die größten ­Aufträge.

Für die Techunternehmen ist der Rüstungswettlauf im Bereich KI-gestützter Waffen trotzdem eine riesige Chance. Weltweit steigen die Militärausgaben. Auch die Bundeswehr will bis 2027 die neu aufgestellte Brigade Litauen mit einer KI-Software namens Uranos ausstatten, die dabei helfen soll, in Echtzeit die Nato-Ostflanke zu überwachen. Die französische Regierung unterzeichnete jüngst einen Rahmenvertrag mit dem Pariser Unternehmen Mistral, um KI-gestützte Anwendungen in den Streitkräften einzuführen.

Auf militärischer Seite sind mit künstlicher Intelligenz große Hoffnungen verbunden. Das heißt nicht unbedingt, dass in naher Zukunft völlig autonome Drohnenschwärme über Schlachtfeldern schwirren werden. KI ist aber in der Lage, enorme Datenmengen schnell auszuwerten und Muster zu erkennen. Sie kann militärische Entscheidungen beschleunigen – wenn sie sie nicht gleich ganz übernimmt.

Im April 2024 zeichnete das palästinensisch-israelische Onlinemagazin +972 in einer großen Recherche nach, wie stark das israelische Militär im Gazakrieg auf den Einsatz der KI-Anwendungen setzte.

Unter Berufung auf sechs ano­ny­me Geheimdienstmitarbeiter, die zu der Zeit in der Armee dienten, berichtete das Magazin, dass sich Israels Armee in den ersten Wochen nach dem 7. Oktober 2023 fast vollständig auf die Systeme verließ. Ein Programm namens Lavender habe bis zu 37.000 Pa­läs­ti­nen­se­r*in­nen als Ziele identifiziert, während mit einer Anwendung namens Where’s Daddy ihre privaten Wohnhäuser für Luftangriffe ausfindig gemacht worden seien.

Kollateralschäden seien demnach gerade in den ersten Kriegswochen bewusst in Kauf genommen worden: Zwei Beteiligte gaben an, dass für Angehörige in niederen Hamas-Rängen 15 bis 20 tote Zi­vi­lis­t*in­nen erlaubt gewesen sein, während für Angriffe auf Führungsfiguren auch 100 tote Zi­vi­lis­t*in­nen als vertretbar gegolten hätten.

Eine der Quellen gab an, dass das Militär bis dahin über keine Informationen über niedere ­Hamas-Mitglieder verfügte. „Sie wollten uns ermöglichen, alle automatisch anzugreifen. Das ist der Heilige Gral. Sobald man auf Automatik umstellt, geht die Zielgenerierung durch die ­Decke.“

Durch Komplettsysteme, die riesige Datenmengen verarbeiten können, wird die Kampfsteuerung auf ein neues Level gehoben

Jutta Weber, Professorin für Mediensoziologie

„Der Artikel war in der wissenschaftlichen Debatte für viele ein Augenöffner“, sagt Jutta Weber der taz. Die Professorin für Mediensoziologie forscht seit vielen Jahren an der Uni Paderborn zu datenbasierter Kriegsführung. Die Recherche zeige, dass es eben nicht ausreiche, nur über die Kontrolle automatischer Kampfroboter zu sprechen, wie es in der Rüstungskontrolle in Zusammenhang mit KI lange der Fall gewesen sei.

Eine größere Gefahr sieht sie in umfassenden Netzwerkanalysen zur Zielerfassung. „Durch Komplettsysteme, die riesige Datenmengen verarbeiten können, wird die Kampfsteuerung auf ein neues Level gehoben.“

In der Ukraine sieht man das Potenzial, das hinter diesen Datenmengen steckt. Be­ob­ach­ter*in­nen gehen davon aus, dass im dortigen Krieg Drohnen für 70 bis 90 Prozent der Toten verantwortlich sind. „Die Ukraine verfügt heute über einen Datensatz aus dem Einsatzgebiet, der weltweit einzigartig ist“, schrieb der ukrainische Verteidigungsminister Mykhailo Fedorov vor zwei Wochen auf Telegram.

Die Bilder von den letzten Sekunden vor dem Einschlag einer Drohne, die sonst zuhauf im Netz kursieren, möchte die Regierung nun professionell nutzen. „Die Ukraine eröffnet die Möglichkeit, KI-Modelle für unbemannte Systeme auf der Grundlage realer Einsatzdaten zu trainieren“, erklärte der Verteidigungsminister. Die Regierung habe einen entsprechenden Beschluss verabschiedet, der „eine neue Form der Zusammenarbeit zwischen dem Staat, ukrainischen Unternehmen und internationalen Partnern“ einleite.

In einer jahrelangen Recherche zeichnete die Journalistin für das Time-Magazin nach, wie der Krieg in der Ukraine zu einer Art Versuchslabor für militärische KI-Entwicklungen wurde. Sie zeigt dabei auch den Weg von Palantir auf – das Unternehmen sprang direkt nach dem russischen Angriff als Helfer für die Ukraine ein. Inzwischen verfolgt es wie viele anderen Techfirmen in der Ukraine das klare Ziel, den KI-gestützten Kampf weltweit weiterzuentwickeln.

Gemeinsam für freie Presse

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Alle Artikel stellen wir frei zur Verfügung, ohne Paywall. Gerade in diesen Zeiten müssen Einordnungen und Informationen allen zugänglich sein. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass kritischer, unabhängiger Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 50.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen