Künstliche Intelligenz im Krieg: Im Angesicht des Todes
Das ukrainische Militär setzt Gesichtserkennung ein, um tote russische Soldaten zu identifizieren. Die Technik wirft seit einiger Zeit Fragen auf.
Auf den Schlachtfeldern der Ukraine liegen unzählige tote Soldaten: russische, ukrainische, Söldner. Viele dieser jungen russischen Männer wussten oder wissen nicht, in welchen mörderischen und verbrecherischen Krieg sie ihr Präsident geschickt hat, einige glauben, sie führen ein Militärmanöver durch. Und auch zu Hause sollen die Eltern nicht erfahren, dass ihr Sohn im Krieg gefallen ist.
Die ukrainische Regierung will nun Gesichtserkennung einsetzen, um die Leichen russischer Soldaten zu identifizieren und Familienangehörige zu informieren. Wie die Nachrichtenagentur Reuters berichtet, greift das Verteidigungsministerium dabei auf die Software der Firma Clearview AI zurück. Mit dem System, das von Tausenden US-Regierungsbehörden eingesetzt und der Ukraine nun kostenlos zur Verfügung gestellt wird, lassen sich automatisiert Gesichter mit Fotos von Social-Media-Profilen abgleichen.
Ob die Technik nur zur Identifizierung von Leichen oder auch zur Enttarnung russischer Spione genutzt wird, ist unklar. Die Meldung ist jedenfalls brisant: Die Überwachungsfirma hat nach eigenen Angaben eine biometrische Datenbank von zehn Milliarden Fotos aufgebaut, die sie aus öffentlich zugänglichen Plattformen wie Facebook, Instagram und Twitter abgesaugt hat. Zum Vergleich: Das FBI hat in seiner Datenbank rund 640 Millionen Fotos aus Gesichtserkennungssystemen. Pikant: Ein nicht unbeträchtlicher Teil der Datengrundlage, nämlich zwei Milliarden Fotos, speist sich aus dem russischen Onlinedienst VKontakte.
Datenschützer laufen seit Jahren Sturm gegen die Gesichtersuchmaschine – nicht zuletzt, weil die Software zum Missbrauch einlädt: Polizisten können anlasslos Daten abfragen und damit Personen stalken. In zahlreichen Ländern gibt es juristische Verfahren. So hat beispielsweise Kanadas oberster Datenschützer Clearview AI als illegale Massenüberwachung eingestuft, die französische Datenschutzbehörde CNIL hat die Firma unter Verweis auf eine Verletzung der europäischen Datenschutzgrundverordnung (DSGVO) aufgefordert, die Daten zu löschen, die britische und italienische Datenschutzbehörde haben Millionenstrafen verhängt. Vor diesem Hintergrund ist der Einsatz der Software in der Ukraine rechtlich fragwürdig. Ist eine dubiose Datenfirma ein geeigneter Verbündeter? Klar, es ist Krieg, es herrscht Ausnahmezustand. Aber rechtfertigt dies Abstriche beim Datenschutz? Vorwiegend handelt es sich ja um Tote, deren Fotos durch den Computeralgorithmus von Clearview AI gejagt werden.
Postmortaler Persönlichkeitsschutz
Zwar erlischt der Datenschutz grundsätzlich nach dem Tod einer Person, doch Rechtswissenschaftler diskutieren, ob einem Verstorbenen auch ein „postmortaler Persönlichkeitsschutz“ zukommt. Das Argument: Die Menschenwürde, aus der Daten- und Persönlichkeitsschutz abgeleitet sind, gelte über den Tod hinaus.
Natürlich steht da auch das berechtigte Interesse der Hinterbliebenen, die ein Recht darauf haben, die Wahrheit über diesen furchtbaren Krieg und seine Opfer zu erfahren. Doch die Frage ist, ob man eine Technologie einsetzen darf, die in autoritären Regimen wie Russland und China zur Aufspürung sogenannter Dissidenten genutzt wird. Jedes Werkzeug ist ambivalent: Man kann mit einem Hammer Häuser bauen und Schädel zertrümmern. Und ja: Mit Gesichtserkennungstechnik lassen sich auch Kriegsverbrecher entlarven und später zur Rechenschaft ziehen. Man braucht dafür keine Geheimdienstexpertise- oder Instrumente: Die Tools stehen zum Teil zum freien Download im Internet zur Verfügung.
Überwachungs- wie etwa Tracking-Technologien, mit denen einst nur Militärs operierten, sind heute in den täglichen Konsum eingebettet. Man trackt auf dem Handy nicht nur seine Schritte und Routen und Kontakte, sondern verfolgt mithilfe von Flugradar-Apps auch das Reiseverhalten russischer Oligarchen. Auch Mobilfunktelefone und das Internet sind genuine Militärtechnologien; die ersten Gesichtserkennungsprogramme wurden in den 1960er von der CIA entwickelt.
Der Philosoph Michel Foucault hat mal von einem „Bumerang-Effekt“ gesprochen: Techniken wie Fingerabdruckverfahren, mit denen im 19. Jahrhundert Menschen in (britischen) Kolonien registriert wurden, kehren in den Westen zurück – allerdings, und hier muss man Foucault weiterdenken, nicht nur in repressiver Form wie etwa an US-Flughäfen, wo sich Einreisende einem Gesichtsscan unterziehen und Fingerabdrücke abgeben müssen, sondern auch in überwachungskapitalistischer Form: Heute ist es „normal“, sein iPhone per FaceID zu entsperren. Allein, das Rastern biometrischer Merkmale lässt sich ja auch nicht durch schicke Apps und Gadgets kaschieren. Umso wichtiger ist die Frage, wie Gesichtserkennung reguliert werden kann.
Informationen sind immer sozial
San Francisco hat den Einsatz der Technologie 2019 wegen datenschutzrechtlicher Bedenken verboten, in Deutschland ist Gesichtserkennung wie etwa am Berliner Bahnhof Südkreuz weiterhin die Ausnahme. Beim Thema Datenschutz geht es aber nicht, wie der Begriff fälschlicherweise suggeriert, um den Schutz von Daten, sondern von Menschen. Und weil Menschen in sozialen Beziehungsnetzen leben, offenbaren Informationen über einen selbst auch solche über seine Freunde und Familie.
Das US-amerikanische Technik-Magazin Wired hat in einer Demoversion des russischen Dienstes FindClone mit einem Foto nach einem Mann gesucht, bei dem es sich nach Angaben von ukrainischen Offiziellen um einen russischen Kriegsgefangenen handelte. Es dauerte keine fünf Minuten, bis der Algorithmus einen Treffer ausspuckte: ein Profil im sozialen Netzwerk VKontakte. Name, Geburtsdatum, Familienfotos, alles einsehbar. Wenn nun publik wird, dass man die Schwester oder den Bruder eines russischen Soldaten oder gar eines gesuchten Kriegsverbrechers ist, wird man schnell zum Hassobjekt im Netz.
Das heißt nicht, dass Datenschutz Täterschutz bedeutet, wie es gern so oft behauptet wird, sondern, dass die Integrität personenbezogener Daten relational ist. Anders gewendet: Informationen sind immer sozial. Wer den Täter enttarnt, muss auch sein soziales Umfeld offenbaren. Und hinzu kommt, dass die Fehlerrate der Gesichtserkennung erfahrungsgemäß sehr hoch ist. So haben automatisierte Systeme nach wie vor Probleme, Gesichter von Schwarzen Menschen zu erkennen. Ob die Computerprogramme die Gesichter entstellter Soldaten identifizieren können, ist also nicht nur eine technische, sondern vor allem auch eine ethische Frage.
Der Krieg schert sich nicht um Menschenwürde
Der US-amerikanische Philosoph und Kulturtheoretiker Michael Betancourt schreibt in seinem Essayband „Kritik des digitalen Kapitalismus“, dass der Aufbau digitaler Kontrollsysteme und Datenbanken zu einer „systemischen Krise für die kapitalistische Wertproduktion“ führe: „Der Einsatz von Überwachung ist – unabhängig von irgendeinem besonderen Zweck – mit der wesensmäßigen Instabilität des digitalen Kapitalismus verbunden.“ Die Überwachungssysteme liefern jede Menge Daten, die jedoch selbst Ungewissheit bzw. Unwissen produzieren, sodass neue Daten gewonnen werden müssen. Ein absoluter Teufelskreis. Die Überwachungsmaschinerie folgt damit derselben expansiven Logik wie der Kapitalismus.
Wenn Clearview AI der Ukraine nun also kostenlosen Zugang zu seiner Gesichtserkennungssoftware gewährt, dehnt sich der Überwachungskapitalismus auch auf das Schlachtfeld aus und es gibt eine direkte Rückkopplung zwischen militärischer und ziviler Nutzung. Millionen Menschen, die gar nicht wissen, dass ihr Konterfei in einer riesigen biometrischen Datenbank gelandet ist und der Nutzung wahrscheinlich auch gar nicht zugestimmt haben, müssen nun also ihren Kopf hinhalten, um tote Soldaten zu identifizieren.
Man kann das mit Recht für pietätlos und abstoßend halten. Doch der Krieg ist am Ende auch eine Stätte der Datenproduktion – und schert sich um die Würde der Menschen herzlich wenig.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
Ausschreitungen in Amsterdam
Ein hitziges Nachspiel
Obergrenze für Imbissbuden
Kein Döner ist illegal
Regierungskrise in Deutschland
Ampel kaputt!
Wahl in den USA
Sie wussten, was sie tun
Lehren aus den US-Wahlen
Wo bleibt das linke Gerechtigkeitsversprechen?
Abschiebung aus dem Frauenhaus
Schutzraum nicht mehr sicher