: „Gelegentlichen Falschverdacht akzeptieren“
Polizei stellt am Mittwoch Ergebnisse von Biometrie-Versuch vor. Mit dabei: die Firma von Hartmuth von Maltzahn
HARTMUTH VON MALTZAHN, 40, ist Managing Director des Biometrie-Unternehmens L1. Die Firma hat ihre Zentrale in den USA.
taz: Herr von Maltzahn, Ihre Firma nahm im Mainzer Hauptbahnhof an einem Modellversuch des Bundeskriminalamtes (BKA) mit Gesichtserkennungssoftware teil. Wie lief dieses Experiment ab?
Hartmuth von Maltzahn: An dem Versuch nahmen 200 Freiwillige teil, deren Fotos eine fiktive Fahndungsdatei bildeten. Mit Kameras wurden nun die Gesichter der rund 20.000 Personen, die täglich den Bahnhof passierten, gescannt und dann mit der „Fahndungsdatei“ verglichen. Das BKA wollte herausfinden, ob die 200 Testpersonen auf ihrem täglichen Weg durch den Bahnhof stets erkannt werden.
Und das Ergebnis? Werden nun in allen Bahnhöfen Gesichtserkennungssysteme gebaut, um Terroristen und andere Kriminelle zu identifizieren?
Ich will der BKA-Präsentation nicht vorgreifen, aber es ist klar, dass jedenfalls eine flächendeckende Gesichtserkennung nicht realistisch ist, heute nicht und auch nicht in 50 Jahren.
Warum?
Weil sehr gute Bilder der Überwachungskameras erforderlich wären. Wenn die Entfernung zu groß, das Licht zu hell oder zu dunkel ist und vor allem, wenn die Menschen nicht in die Kamera schauen, dann gibt es keine brauchbaren Fotos, die mit einer Fahndungsdatei verglichen werden können.
In Mainz wurde eine Rolltreppe gefilmt …
Ja, das sind schon mal sehr gute Bedingungen, alle schauen in die gleiche Richtung. Aber man kann nicht verhindern, dass viele eben doch den Kopf senken. Außerdem garantiert auch ein gutes Foto noch nicht die sichere Identifikation. Die kann nicht der Computer leisten, sondern nur ein Mensch.
Weshalb?
Die Gesichtserkennungssoftware vergleicht 4.000 Punkte im Gesicht des Passanten mit jeweils 4.000 Punkten auf den Fotos der Fahndungsdatei. Die Bilder mit der größten Übereinstimmung werden vom Computer angeboten. Aber nicht immer ist die Nummer eins des Angebots auch der Treffer, es kann auch erst die Nummer drei oder Nummer fünf sein. Die angebotene Nummer eins könnte sogar ein Asiate sein, während der gescannte Passant offensichtlich Europäer ist.
Das ist ja kurios …
Es ließe sich aber sehr praktisch anwenden. Ein Beamte am Computer wüsste sofort, dass dies kein Treffer ist.
Kann man sich tarnen – beispielsweise mit Sonnenbrille?
Dadurch verringert man natürlich die Zahl der übereinstimmenden Punkte, die Software stuft einen getarnten Passanten deshalb bei den Vorschlägen weiter hinten ein. Aber ein erfahrener Beamter kann trotzdem die Ähnlichkeit erkennen.
Das dauert aber alles seine Zeit …
Ja. Deshalb ist es nicht sehr realistisch, einen Passanten sofort zu identifizieren und zu verhaften. Auch das spricht gegen eine flächendeckende Gesichtserkennung. Man kann ja nicht neben jede Überwachungskamera einen Beamten stellen. Für realistischer halte ich den Einsatz an neuralgischen Punkten, wo in Ruhe ein gutes Bild gemacht werden kann.
Zum Beispiel?
Am Flughafen, wenn eine Maschine aus einem nicht vertrauenswürdigen Land ankommt. Dann könnten die Passagiere bei der Passkontrolle fotografiert und die Fotos mit einer Terroristendatei abgeglichen werden.
Und wie sieht es mit falschen Verdächtigungen aus?
Das hängt davon ab, wie das System eingestellt wird. Wenn mir niemand durch die Lappen gehen soll, muss ich viele falsche Treffer in Kauf nehmen. Letztlich müssen das in der Demokratie die Bürger entscheiden. Wer sicher leben will, muss einen gelegentlichen Falschverdacht akzeptieren, der ja schnell wieder aufgeklärt werden kann.
INTERVIEW: CHRISTIAN RATH