Künstliche Intelligenz im Krieg: Im Angesicht des Todes

Das ukrainische Militär setzt Gesichtserkennung ein, um tote russische Soldaten zu identifizieren. Die Technik wirft seit einiger Zeit Fragen auf.

Eine russische Militärmütze außerhalb von Kyiv

Die Software der Firma Clearview AI soll helfen, Leichen russischer Soldaten zu identifizieren Foto: Vadim Ghirda/ap

Auf den Schlachtfeldern der Ukraine liegen unzählige tote Soldaten: russische, ukrainische, Söldner. Viele dieser jungen russischen Männer wussten oder wissen nicht, in welchen mörderischen und verbrecherischen Krieg sie ihr Präsident geschickt hat, einige glauben, sie führen ein Militärmanöver durch. Und auch zu Hause sollen die Eltern nicht erfahren, dass ihr Sohn im Krieg gefallen ist.

Die ukrainische Regierung will nun Gesichtserkennung einsetzen, um die Leichen russischer Soldaten zu identifizieren und Familienangehörige zu informieren. Wie die Nachrichtenagentur Reuters berichtet, greift das Verteidigungsministerium dabei auf die Software der Firma Clearview AI zurück. Mit dem System, das von Tausenden US-Regierungsbehörden eingesetzt und der Ukraine nun kostenlos zur Verfügung gestellt wird, lassen sich automatisiert Gesichter mit Fotos von Social-Media-Profilen abgleichen.

Ob die Technik nur zur Identifizierung von Leichen oder auch zur Enttarnung russischer Spione genutzt wird, ist unklar. Die Meldung ist jedenfalls brisant: Die Überwachungsfirma hat nach eigenen Angaben eine biometrische Datenbank von zehn Milliarden Fotos aufgebaut, die sie aus öffentlich zugänglichen Plattformen wie Facebook, Instagram und Twitter abgesaugt hat. Zum Vergleich: Das FBI hat in seiner Datenbank rund 640 Millionen Fotos aus Gesichtserkennungssystemen. Pikant: Ein nicht unbeträchtlicher Teil der Datengrundlage, nämlich zwei Milliarden Fotos, speist sich aus dem russischen Onlinedienst VKontakte.

Datenschützer laufen seit Jahren Sturm gegen die Gesichtersuchmaschine – nicht zuletzt, weil die Software zum Missbrauch einlädt: Polizisten können anlasslos Daten abfragen und damit Personen stalken. In zahlreichen Ländern gibt es juristische Verfahren. So hat beispielsweise Kanadas oberster Datenschützer Clearview AI als illegale Massenüberwachung eingestuft, die französische Datenschutzbehörde CNIL hat die Firma unter Verweis auf eine Verletzung der europäischen Datenschutzgrundverordnung (DSGVO) aufgefordert, die Daten zu löschen, die britische und italienische Datenschutzbehörde haben Millionenstrafen verhängt. Vor diesem Hintergrund ist der Einsatz der Software in der Ukraine rechtlich fragwürdig. Ist eine dubiose Datenfirma ein geeigneter Verbündeter? Klar, es ist Krieg, es herrscht Ausnahmezustand. Aber rechtfertigt dies Abstriche beim Datenschutz? Vorwiegend handelt es sich ja um Tote, deren Fotos durch den Computeralgorithmus von Clearview AI gejagt werden.

Postmortaler Persönlichkeitsschutz

Zwar erlischt der Datenschutz grundsätzlich nach dem Tod einer Person, doch Rechtswissenschaftler diskutieren, ob einem Verstorbenen auch ein „postmortaler Persönlichkeitsschutz“ zukommt. Das Argument: Die Menschenwürde, aus der Daten- und Persönlichkeitsschutz abgeleitet sind, gelte über den Tod hinaus.

Natürlich steht da auch das berechtigte Interesse der Hinterbliebenen, die ein Recht darauf haben, die Wahrheit über diesen furchtbaren Krieg und seine Opfer zu erfahren. Doch die Frage ist, ob man eine Technologie einsetzen darf, die in autoritären Regimen wie Russland und China zur Aufspürung sogenannter Dissidenten genutzt wird. Jedes Werkzeug ist ambivalent: Man kann mit einem Hammer Häuser bauen und Schädel zertrümmern. Und ja: Mit Gesichtserkennungstechnik lassen sich auch Kriegsverbrecher entlarven und später zur Rechenschaft ziehen. Man braucht dafür keine Geheimdienstexpertise- oder Instrumente: Die Tools stehen zum Teil zum freien Download im Internet zur Verfügung.

Überwachungs- wie etwa Tracking-Technologien, mit denen einst nur Militärs operierten, sind heute in den täglichen Konsum eingebettet. Man trackt auf dem Handy nicht nur seine Schritte und Routen und Kontakte, sondern verfolgt mithilfe von Flugradar-Apps auch das Reiseverhalten russischer Oligarchen. Auch Mobilfunktelefone und das Internet sind genuine Militärtechnologien; die ersten Gesichtserkennungsprogramme wurden in den 1960er von der CIA entwickelt.

Der Philosoph Michel Foucault hat mal von einem „Bumerang-Effekt“ gesprochen: Techniken wie Fingerabdruckverfahren, mit denen im 19. Jahrhundert Menschen in (britischen) Kolonien registriert wurden, kehren in den Westen zurück – allerdings, und hier muss man Foucault weiterdenken, nicht nur in repressiver Form wie etwa an US-Flughäfen, wo sich Einreisende einem Gesichtsscan unterziehen und Fingerabdrücke abgeben müssen, sondern auch in überwachungskapitalistischer Form: Heute ist es „normal“, sein iPhone per FaceID zu entsperren. Allein, das Rastern biometrischer Merkmale lässt sich ja auch nicht durch schicke Apps und Gadgets kaschieren. Umso wichtiger ist die Frage, wie Gesichtserkennung reguliert werden kann.

Informationen sind immer sozial

San Francisco hat den Einsatz der Technologie 2019 wegen datenschutzrechtlicher Bedenken verboten, in Deutschland ist Gesichtserkennung wie etwa am Berliner Bahnhof Südkreuz weiterhin die Ausnahme. Beim Thema Datenschutz geht es aber nicht, wie der Begriff fälschlicherweise suggeriert, um den Schutz von Daten, sondern von Menschen. Und weil Menschen in sozialen Beziehungsnetzen leben, offenbaren Informationen über einen selbst auch solche über seine Freunde und Familie.

Das US-amerikanische Technik-Magazin Wired hat in einer Demoversion des russischen Dienstes FindClone mit einem Foto nach einem Mann gesucht, bei dem es sich nach Angaben von ukrainischen Offiziellen um einen russischen Kriegsgefangenen handelte. Es dauerte keine fünf Minuten, bis der Algorithmus einen Treffer ausspuckte: ein Profil im sozialen Netzwerk VKontakte. Name, Geburtsdatum, Familienfotos, alles einsehbar. Wenn nun publik wird, dass man die Schwester oder den Bruder eines russischen Soldaten oder gar eines gesuchten Kriegsverbrechers ist, wird man schnell zum Hassobjekt im Netz.

Das heißt nicht, dass Datenschutz Täterschutz bedeutet, wie es gern so oft behauptet wird, sondern, dass die Integrität personenbezogener Daten relational ist. Anders gewendet: Informationen sind immer sozial. Wer den Täter enttarnt, muss auch sein soziales Umfeld offenbaren. Und hinzu kommt, dass die Fehlerrate der Gesichtserkennung erfahrungsgemäß sehr hoch ist. So haben automatisierte Systeme nach wie vor Probleme, Gesichter von Schwarzen Menschen zu erkennen. Ob die Computerprogramme die Gesichter entstellter Soldaten identifizieren können, ist also nicht nur eine technische, sondern vor allem auch eine ethische Frage.

Der Krieg schert sich nicht um Menschenwürde

Der US-amerikanische Philosoph und Kulturtheoretiker Michael Betancourt schreibt in seinem Essayband „Kritik des digitalen Kapitalismus“, dass der Aufbau digitaler Kontrollsysteme und Datenbanken zu einer „systemischen Krise für die kapitalistische Wertproduktion“ führe: „Der Einsatz von Überwachung ist – unabhängig von irgendeinem besonderen Zweck – mit der wesensmäßigen Instabilität des digitalen Kapitalismus verbunden.“ Die Überwachungssysteme liefern jede Menge Daten, die jedoch selbst Ungewissheit bzw. Unwissen produzieren, sodass neue Daten gewonnen werden müssen. Ein absoluter Teufelskreis. Die Überwachungsmaschinerie folgt damit derselben expansiven Logik wie der Kapitalismus.

Wenn Clearview AI der Ukraine nun also kostenlosen Zugang zu seiner Gesichtserkennungssoftware gewährt, dehnt sich der Überwachungskapitalismus auch auf das Schlachtfeld aus und es gibt eine direkte Rückkopplung zwischen militärischer und ziviler Nutzung. Millionen Menschen, die gar nicht wissen, dass ihr Konterfei in einer riesigen biometrischen Datenbank gelandet ist und der Nutzung wahrscheinlich auch gar nicht zugestimmt haben, müssen nun also ihren Kopf hinhalten, um tote Soldaten zu identifizieren.

Man kann das mit Recht für pietätlos und abstoßend halten. Doch der Krieg ist am Ende auch eine Stätte der Datenproduktion – und schert sich um die Würde der Menschen herzlich wenig.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Wir alle wollen angesichts dessen, was mit der Ukraine derzeit geschieht, nicht tatenlos zusehen. Doch wie soll mensch von Deutschland aus helfen? Unsere Ukraine-Soli-Liste bietet Ihnen einige Ansätze fürs eigene Aktivwerden.

▶ Die Liste finden Sie unter taz.de/ukrainesoli

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.