piwik no script img

Verbrechens-Vorhersage mit Software„Die Polizei ist skeptisch“

Predictive Policing versucht zu prognostizieren, wo und wann Einbrüche begangen werden. Die Analyse kann auch auf andere Delikte ausgeweitet werden.

Bald durchschaubar? Einbrecher gehen nach Mustern vor. Foto: dpa
Interview von Adèle Cailleteau

taz: Herr Egbert, kann man mit Predictive Policing Verbrechen lösen, bevor sie stattgefunden haben?

Simon Egbert: Um von einer Lösung sprechen zu können, bräuchte man eine Tat, einen Täter und eine erfolgreiche Strafverfolgung. Bei Predictive Policing geht es aber primär um Prävention, also um eine Intervention, bevor Straftaten begangen wurden. In Deutschland bezieht es sich aktuell vor allem auf Wohnungseinbruchdiebstahl: Man prognostiziert, wo und wann höchstwahrscheinlich Einbrüche begangen werden. Es bezieht sich also nicht auf Personen, sondern auf Räume.

Und wie weiß man, wann und wo Einbrüche stattfinden werden?

Die Kernidee von Predictive Policing ist, Kriminaldaten aus der Vergangenheit zu benutzen, um bestimmte Muster im Vorgehen zu erkennen. Sie werden errechnet und in die Zukunft fortgeschrieben. Ein wichtiges Muster ist dabei die „Near repeat“-Hypothese, nach welcher ein professioneller Serien­einbrecher rational vorgeht. Er neigt dazu, im Umkreis des ersten Tatorts, in der unmittelbaren Zeit danach, noch mal zuzuschlagen. Viele Predictive-Policing-Software basieren darauf. Ihre Rolle ist dann, den Täter und das Initialdelikt zu erkennen. Dann generiert die Software eine raumgebundene Risikoprognose, zum Beispiel 400 Meter im Umkreis des Tatorts für bis zu sieben Tage nach dem ersten Einbruch.

Und was macht man dann?

Es gibt dann zwei Strategien. Man kann deutlich erkennbare Polizeikräfte in das Risikogebiet mit der Hoffnung schicken, dass sich mögliche Täter abgeschreckt fühlen, so dass die Einbrüche nicht stattfinden. Es gibt aber auch eine repressive Strategie, die auf Strafverfolgung beruht. Zivilkräfte der Polizei fahren dann ins Risikogebiet, um Täter in flagranti zu erwischen. Das Ziel ist, sie strafrechtlich zu verfolgen und ihnen eventuell mehrere Taten zuzuordnen. Diese repressive Strategie wird aber in Deutschland kaum verwendet, weil sie viel ressourcenaufwendiger und dementsprechend auch deutlich teurer ist.

Wird Predictive Policing in Hamburg angewendet?

Nein. Die Hamburger Polizei beschäftigt sich zwar wissenschaftlich intensiv mit dem Thema, sie wendet aber keine entsprechende Software an. Das ist bemerkenswert, weil es in der Hamburger Polizei Organisationen wie die Sonderkommission „Castle“ gibt, die sich genau mit dieser Klientel von Tätern und Täterinnen beschäftigt. Dadurch hätte die Polizei eigentlich sehr gute Rahmenbedingungen, eine solche Predictive-Policing-Software und den entsprechenden Ansatz zu testen.

Im Interview: Simon Egbert

31, ist Kriminologe und Soziologe. Seit einem Jahr arbeitet er in einem Forschungsprojekt zu Predictive Policing am Institut für Kriminologische Sozialforschung der Universität Hamburg.

Warum?

Innerhalb der Polizei ist man skeptisch. Die Software kostet ja auch Geld und bindet Personal.

Ist diese Skepsis berechtigt?

Interessanterweise kann das keiner sagen. Die Wirksamkeit von Predictive Policing ist fast unmöglich nachzuweisen. Wenn die Polizei in ein prognostiziertes Risikogebiet geschickt wird, und dann keine Tat stattfindet, kann hinterher nicht eruiert werden, warum keine Einbrüche begangen wurden. Liegt es daran, dass die Prognose falsch war oder dass Täter tatsächlich abgeschreckt wurden? Die Kausalität ist dann unklar.

Und bemerkt man ein Sinken der Fallzahlen, wo solche Software angewendet wird?

In den meisten Fällen ist die Implementierung einer entsprechenden Software immer verbunden mit anderen neuen Maßnahmen. Wenn die Deliktzahlen also sinken, kann man nicht sagen, woran das liegt. Man bräuchte eigentlich zwei identische Stadtteile, die dasselbe Grundrisiko bezüglich Wohnungseinbrüchen haben, um sie mit und ohne die Software vergleichen zu können. So was gibt es aber nicht.

Kann man das nicht anders testen?

Man kann die Prognose an sich testen. Anhand der Kriminalitätsdaten aus vergangenen Jahren kann man beispielsweise Prognosen für das Vorjahr generieren und dann die errechneten Prognosen mit dem tatsächlichen Fallaufkommen vergleichen. Und da kommen durchaus gute Zahlen raus, über 80 Prozent Übereinstimmung. Das bezieht sich aber nur auf die Prognosequalität und Predictive Policing ist eine ganzheitliche Strategie, deren Bestandteil eben auch die Umsetzung der Prognosen in den Risikoräumen ist. Es bringt nichts zu wissen, wann und wo eingebrochen wird, wenn dann dort nichts gemacht wird.

Ist das trotzdem die Polizeiarbeit der Zukunft?

Ich glaube, dass grundsätzlich eine datengestützte Arbeit die Polizeiarbeit der Zukunft ist. Die Arbeit mit Daten wird immer günstiger und die Server-Kapazitäten größer. Und ich denke auch, dass Polizeiarbeit in Zukunft auch stets Prognoseelemente beinhalten wird. Alle Bundesländer werden bestimmt in fünf bis zehn Jahren prädiktive Software benutzen. Ein Grund dafür ist auch, dass sie auf andere Delikte wie Autoeinbrüche erweitert wird, zumindest testweise.

Könnte man sich auch Predictive Policing vorstellen, das auf Personen bezogen ist?

Es ist ein bisschen die Frage, was man unter Predictive Policing versteht. Wenn man vom Begriff selber ausgeht und ihn schlicht als prognosebasierte Polizeiarbeit definiert, dann wird es höchstwahrscheinlich bald eine vorhersagende Polizeiarbeit geben, die sich auf Personen bezieht.

Gibt es Beispiele dafür?

Anfangs des Jahres hat das Bundeskriminalamt sein Prognosesystem RADAR-iTE vorgestellt, das die individuellen Risikopotenziale islamistischer „Gefährder“ beziehungsweise „relevanter Personen“ auf Basis ihres beobachtbaren Verhaltens konkretisieren soll. Inzwischen wird es in mehreren Bundesländern wie Hamburg benutzt. Das hat mit automatisierter Datenanalyse wie in aktuellen Predictive-Policing-Anwendungen wenig zu tun und es wird auch explizit nicht als Predictive Policing vorgestellt, aber die Grundidee ist meiner Einschätzung nach dieselbe, nämlich dass die Polizei in der Gegenwart wissen will, was in der Zukunft passiert. Im Kern findet sich diese Grundidee ja auch schon im Film „Minority Report“.

Das ist aber Science-Fiction.

Ja, natürlich. Aber ich halte die grundsätzliche Denkrichtung für realistisch. Die Polizei in Chicago hat zum Beispiel das Projekt „Strategic Subject List“ entwickelt, in deren Rahmen Personen etwa anhand ihrer Vorstrafen, Gangmitgliedschaften und gewaltsamer Todesfälle im Bekanntenkreis ein Risikoscore bezüglich der Wahrscheinlichkeit zugeordnet wird, dass sie Opfer oder Täter eines Tötungsdeliktes werden.

Könnte man das erweitern?

Theoretisch ist es ein riesiger Markt und der politische Druck ist da. Es ist sicherheitspolitisch sehr interessant, gerade wenn es um Terrorismus geht. Deshalb kann ich mir gut vorstellen, dass ähnliche Verfahren häufiger werden und zum Beispiel, dass Serieneinbruchstäter irgendwann einmal Objekt von derartigen Formen des Predictive Profiling werden. Aber ich weiß von keiner konkreten Planung und halte sie in absehbarer Zeit auch für unrealistisch.

Ist das nicht gefährlich?

Es gibt schon Risiken, gerade wenn es um Datenschutz- oder Persönlichkeitsrechte geht. Ein anderes Problem ist der Algorithmus, der verwendet wird. Er beruht auf der Datenbasis der Polizei, die aber nicht neutral ist, sondern davon abhängt, wen die Polizei aufgegriffen hat und wo sie kontrolliert. Manche Algorithmen können sich durch die Daten selber verändern. Aber wenn die Polizei mit ihren, in diesem Sinne verzerrten Daten arbeitet, wird diese Verzerrung im Algorithmus inkorporiert und womöglich verstärkt.

Die Software könnte ein sehr mächtiges Instrument sein.

Besonders wenn zum Beispiel allein die Prognose legitimieren sollte, dass in den Risikoräumen anlasslos kontrolliert werden kann – so ähnlich wie in den früheren Gefahrengebieten beim G20-Gipfel in Hamburg.

Ist dann Predictive Policing überhaupt wünschenswert?

Die Idee ist an sich nicht schlecht und es ist natürlich erst einmal positiv, wenn Fallzahlen sinken. In der jetzigen, vergleichsweise rudimentären Form halte ich die Umsetzung für absolut vertretbar.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

2 Kommentare

 / 
  • Kriminaliät zu verhindern klingt erstmal sehr attraktiv. Hinter den Vorhersagemethoden stehen jedoch Datenmodelle, die den Menschen versuchen, berechenbar zu machen. Das muss dann und wird sicherlich in der Zukunft nicht nur auf Einbrecher angewandt werden, sondern auch auf politische Aktivisten.

     

    Wenn ich bedenke, wie arglos und rechtswidrig da jetzt schon mit Persönlichkeitsrechten umgegangen wird (z. B. verdeckte Ermittler, die Liebesbeziehungen eingehen), sehe ich da ein krasses Gefahrenpotential für die Privatheit von Menschen.

    • @Wu:

      Der Mensch soll nicht berechenbar gemacht werden.

      Vielmehr behaupten die Software-Entwickler, der Mensch sei bereits berechenbar, und ihre Software könne das.

       

      Aber nicht mal die Polizei glaubt das, wie es im Artikel steht. Gut, dass sie sich das Geld spart.