piwik no script img

Datenanalyse bei der PolizeiBegehrlichkeiten nach Gotham

Hessen nutzt eine US-Software, um jede Menge Polizeidaten automatisiert auszuwerten. Das Verfassungsgericht verhandelte nun über die Rechtmäßigkeit.

Darf die Polizei amerikanische Software einsetzen? Foto: imago

Karlsruhe taz | Darf die Polizei zur Verhinderung von Straftaten neue US-Software einsetzen? Darüber verhandelte an diesem Dienstag das Bundesverfassungsgericht und hatte zunächst sehr viele Fragen: Was kann die Software, wie wird sie in der Praxis genutzt und wie werden die Möglichkeiten in einigen Jahren aussehen?

Im Mittelpunkt des Verfahrens stand Hessen. Dort wird die Analyse-Software Gotham der US-Firma Palantir bereits seit 2017 unter dem Namen Hessendata eingesetzt. Eine Norm im hessischen Polizeigesetz erlaubt die automatisierte Datenanalyse. In Hamburg gibt es eine ähnliche Norm, die aber in der Praxis noch nicht angewandt wird. In NRW ist Gotham zwar im Einsatz, das dortige Gesetz war aber nicht Gegenstand der Verhandlung. Alle anderen Bundesländer wollen Gotham auch anschaffen.

Hessendata erlaubt eine schnelle Analyse von Informationen und Zusammenhängen. Wer kennt wen? Wer war wann wo? Dabei werden keine neuen Daten erhoben, sondern nur die Daten genutzt, die bei der hessischen Polizei bereits vorliegen. Er­mitt­le­r:in­nen müssen nicht mehr sieben Dateien abfragen und dann die Treffer zusammenführen, das macht nun Hessendata. „Nur wenn wir alle Puzzleteile einer Gefahr zusammenbringen, wird die Gefahr erkennbar“, sagte der hessische Innenminister Peter Beuth (CDU).

Die von der Gesellschaft für Freiheitsrechte (GFF) koordinierten elf Klä­ge­r:in­nen befürchten jedoch, dass sich dabei unzulässige Persönlichkeitsprofile herstellen lassen. Sie halten die polizeigesetzlichen Regelungen für unverhältnismäßig. Zu den Klä­ge­r:in­nen gehören etwa die Frankfurter Anwältin Seda Başay-Yıldız und die Hamburger taz-Journalistin Katharina Schipkowski.

Ein hessischer Ministerialbeamter schilderte einen typischen Anwendungsfall: Nach einer Serie von Geldautomatensprengungen wurde ein Verdächtiger gefasst. Die Daten aus dem Navi des Fluchtfahrzeugs wurden gesichert und mit Hessendata ausgewertet. So konnte nachgewiesen werden, dass der Wagen jeweils an den Tatorten der Sprengserie war, der Verdächtige galt als überführt. Das Beispiel zeigt, dass die Nutzung von Hessendata noch recht nahe an klassischer Polizeiarbeit ist.

Auch Daten von Zeu­g:in­nen und Opfern werden gespeichert

Innenminister Beuth betonte auch, was Hessendata nicht auswertet: Die Plattform werte nicht das gesamte Internet und auch nicht die sozialen Netzwerke aus. Nur im Einzelfall könnte etwa das Facebook-Profil eines Verdächtigen der Plattform zur Verfügung gestellt werden.

Hessendata beschränke sich auf Daten, die bei der hessischen Polizei gespeichert sind, und greife nicht auf Daten aus anderen Bundesländern oder beim Bund zurück. Die Software nutze auch keine künstliche Intelligenz und keine lernenden Systeme. Allerdings sind die Normen in Hessen und Hamburg so weit gefasst, dass durchaus mehr möglich wäre. Klägervertreter Tobias Singelnstein forderte das Gericht daher auf, jetzt schon die Vorgaben für eine komplexe Datenauswertung zu schaffen, bevor sich die entsprechende Praxis ausbildet. „Die Methoden der künstlichen Intelligenz entwickeln sich jeden Tag in hohem Tempo fort“, so Singelnstein.

Als problematisch könnte sich erweisen, dass in Hessendata nicht nur Daten von Tä­te­r:in­nen und Verdächtigen gespeichert sind, sondern auch von Zeu­g:in­nen und Opfern, von Beteiligten an Unfällen und von Personen, die bei der Polizei Fundsachen abgegeben haben. „Man kann nie ausschließen, dass Daten von Bedeutung sein können“, rechtfertigte dies eine hessische Ministerialrätin. Das Urteil wird in einigen Monaten erwartet.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

5 Kommentare

 / 
  • Normalerweise habe ich großes Zutrauen zur deutschen Justiz, aus meiner Sicht steht sie von den drei Gewalten noch amsichersten auf dem Boden des Grundgesetzes. Allein, wenn es um die voranschreitende Herrschaft der Maschine geht, kann ich mich dessen nicht mehr so sicher fühlen. Das Verständnis der Technik ist das Problem, im politischen wie im juristischen Diskurs. Man kann nur hoffen, dass das BVerfG hier seiner Tradition treu bleibt, auch dicke Bretter zu bohren. Ich bleibe erstmal optimistisch, alles andere hilft auch nicht wirklich weiter.

  • Linken-Politiker Andrej Hunko hält Hessendata für eine unzulässige Raster-Fahndung. Die hessische Polizei hält dagegen: Der ehemalige (bis Frühjahr '21) hessische Datenschutzbeauftragte (HBDI), Professor Michael Ronellenfitsch, habe den Einsatz von Hessendata in seiner Amtszeit abgesegnet.



    Ronellenfitsch war gegenüber der hessischen Polizei stets zurückhaltend aufgetreten; die Datenschutz-Skandale der hessischen Polizei, die Datenschlampereien auf hessischen Polizeidienststellen, fallen in die Amtszeit von Michael Ronellenfitsch als oberster hessischer Datenschützer.



    Bis heute bleibt die hessische Polizei bzw. das hessische Innenministerium wichtige Fragen den polizeilichen Datenschutz betreffend, schuldig; die über 130 Vorschläge einer unabhängigen Expertenkommission - im Zuge der "NSU 2.0"-Ermittlungen - für den Bereich der hessischen Polizei wurden bisher nur zum Teil (38 Punkte, Stand: 1.7.22) umgesetzt - darunter auch Vorschläge zum verbesserten Datenschutz auf Dieststellen/ Revieren der hessischen Polizei.



    Die Fachjournalistin Annette Brückner hat auf police-it.net (Blog) sehr viel kritisches zu Hessendata und der CIA-nahen Herstellerfirma Palantir zusammengetragen.



    Warum sollen die Bürgerinnen und Bürger darauf vertrauen, dass im sicherheitsbehördlichen Problem-Bundesland Nr. 1, Hessen, beim Thema polizeilicher Datenschutz künftig alles mit rechten Dingen zu geht?

    Gotham am Main (Süddeutsche Zeitung, 18.10.18)

    www.sueddeutsche.d...-am-main-1.4175521

  • Hatte unser Bundesverfassungsgericht nicht mal was zum Thema "Rasterfahndung" gesagt?

    Aber Papier ist bekanntlich geduldig ...

  • "Die Software nutze auch keine künstliche Intelligenz und keine lernenden Systeme."



    Natürlich nicht, weil es die dafür auch gar nicht braucht und weil das Herstellen von Relationen zwischen Datensätzen wohl DIE Aufgabe ist die bereits die ersten 'Elektronengehirne' in den spätern 50ern ziemlich effizient beherrschten. Will man dann das Netz noch etwas weiter auswerfen kann man das Ganze mit Fuzzy Matching Algorithmen, wie etwa NYSIIS, der ´70 spezifisch für polizeiliche Verwendung entwickelt wurde, Text/Data Mining Algorithmen wie TF-IDF (´72) und gegebenenfalls mit einer Inference Engine, die ebenfalls aus der Frühzeit der Informatik stammt, verkoppeln. Gemein ist all diesen Algorithmen nicht nur, dass sie nicht zur Gruppe der KI-Algorithmen gehören, sondern auch, dass sie sehr viel simpler zu implementieren sind als CNNs, GANs und Co. und deutlich genügsamer bzw. effizienter hinsichtlich der Hardwareanforderungen. Nur macht das die derart gewonnenen Datenbestände eben nicht weniger problematisch in Hinblick darauf, was möglicherweise auch fehlerhaft assoziierte Informationsschnipsel für Betroffene an handfesten Auswirkungen haben können.

    • @Ingo Bernable:

      Der Begriff "Künstliche Intelligenz" wurde in den letzten Jahren stark popularisiert und aufgeweicht.

      Im allgemeinen Sprachgebrauch bedeutet "KI", dass ein Computer irgendetwas mit Daten macht und für Außenstehende nicht sofort ersichtlich ist was da passiert. Ganz gleich ob da GANs verwendet werden, Fuzzy-Logik oder Statistik.

      Ein ähnliches Schicksal hat der Begriff "Echtzeit" erfahren. Oder "Quantensprung".