Gefährlichkeitsbewertung von Häftlingen: „Algorithmen werden missbraucht“

Der Statistiker Barry Krisberg wollte das US-Justizsystem fairer machen. Im Interview erzählt er, wie seine Ideen genau das Gegenteil bewirkten.

Hände in Handschellen

„Die meisten Straftäter sind eigentlich ziemlich ungefährlich.“ Foto: dpa

Mister Krisberg, Algorithmen berechnen in den USA, wie gefährlich einzelne Häftlinge sind. Wenn man diese Entwicklung zurückverfolgt, landet man irgendwann auch bei Ihrer Forschung als Kriminologe aus den Achtzigern und Neunzigern. Dabei gelten Sie doch als Gegner solcher Algorithmen.

Barry Krisberg: Kennen Sie den Blues-Sänger Ray Charles?

Klar.

Mein Lieblingssong von Ray Charles heißt: „Look, what they‘ve done to my song, Ma” Mama, schau dir mal an, was die mit meinem Lied gemacht haben! Genauso geht es mir und so dürfte es auch Kollegen wie James F. Austin gehen. Was haben die nur mit unserem Song angestellt?

Ja, was?

Wir haben uns dieses kleine Programm ausgedacht, das ganz okay funktionierte. Seitdem hat es sich entwickelt – in unterschiedlichste Richtungen. Es wurde immer schlimmer.

Vielleicht beginnen Sie mal ganz am Anfang. Mit Austin schrieben sie das Buch „Die Neuerfindung des Jugendstrafrechts”.

Wir wollten Risikoschätzungen ins Justizsystem bringen, damit es fairer wird. Wir konnten damit nämlich zeigen, dass die meisten Straftäter eigentlich ziemlich ungefährlich waren. Wir wollten herausfinden: Bleibt jemand sauber, wenn man ihn auf Kaution rauslässt? Wer würde zur Anhörung erscheinen? Wer ein Verbrechen begehen? Uns war klar, dass die große Mehrheit straffrei bleiben würde. Deshalb haben wir uns überlegt: Wenn wir diese Einsicht möglichst groß machen, werden viele der Gefangenen freigelassen. Wir zogen also von Bewährungsbehörde zu Bewährungsbehörde, von Richter zu Richter, um zu zeigen, dass viele Häftlinge ungefährlich sind.

Wie haben Sie das berechnet?

Das war ganz simpel. Die einzigen Faktoren, die wir einbezogen haben, waren die Schwere des Verbrechens, die Anzahl früherer Verurteilungen und das Alter, in dem jemand den ersten Kontakt mit dem System hatte. Das waren die aussagekräftigsten. Zu den anderen zählten: Drogenabhängigkeit, familiärer Hintergrund. Unsere Philosophie war: Die Leute sollten allein nach der Schwere ihrer Tat verurteilt werden. Wir wollten nicht ihren Charakter und auch nicht ihre Herkunft beurteilen. Das war die Idee. Dann ging alles den Bach runter.

Erzählen Sie!

Ob jemand ein Drogenproblem hatte, war nicht besonders aussagekräftig. In der Hälfte der Akten fehlten diese Daten sogar. Die Behörden waren da nicht so hinterher. Wir wollten, dass die Leute im Gefängnis und die auf Bewährung bestimmte Dienste angeboten bekommen, nach möglichst objektiven Kriterien. Wir entwickelten also, und das war unser fataler Fehler, Instrumente, die die Bedürfnisse der Gefangenen ermitteln sollten.

forscht an der Jura-Fakultät der University of California. Als Kriminologe hat er sich vor allem mit Strafrecht und Jugendstrafrecht befasst. Von 1983 bis 2009 war er Präsident des National Council on Crime and Delinquency. Von ihm erschien zuletzt etwa "The Politics of the War Against the Young”.

Aha.

Wir wiesen dabei aber explizit darauf hin, dass diese Instrumente niemals für Gerichtsurteile oder Bewährungsentscheidungen verwendet werden sollten. Es ging lediglich darum, dass ein Bewährungshelfer alle wichtigen Faktoren einbezog, wenn er einen Fall ansah. Wir wollten, dass Fälle ganzheitlich betrachtet werden. Plötzlich gingen aber viele davon aus, dass unsere Instrumente, die die Bedürfnisse der Häftlinge ermitteln sollten, irgendwelche Vorhersagekraft hätten. Dafür gibt es nur überhaupt keinen Hinweis.

Aber haben Sie nicht selbst gesagt, dass sich manches mit klassischen Faktoren gut vorhersagen lässt?

Wenn Sie sich die ausgefeiltesten Langzeitstudien ansehen – und die gibt es nur für Jugendliche – dann erklärt die beste von ihnen 20 Prozent eines Ausgangs. 80 Prozent sind absolut zufällig. Bei 80 Prozent der Fälle hat keiner eine Ahnung, was da los war. Und das ist die beste Studie, über mehrere Jahre, eine riesige Stichprobe. Irgendwann fing jedenfalls jemand an, diese Instrumente für Vorhersagen über künftige Kriminalität zu missbrauchen. Einfach so. Von da an wurde es immer schlimmer.

Inwiefern?

Richard Berk ist Soziologe und Statistiker. Er sagt, seine Algorithmen könnten bei der Geburt herausfinden, ob ein Kind einmal ein Verbrecher werde. Wie berechenbar sind Menschen? Die Titelgeschichte „Wird dieses Kind ein Mörder?“ lesen Sie in der taz. am wochenende vom 24./25. Oktober. Außerdem: Heini Rudeck fällt das Gehen schwer. Trotzdem besucht er das Grab seiner Freundin täglich. Er setzt sich einfach an den Computer. Und: Klaus von Dohnanyi veröffentlicht die Briefe seines Vaters aus der Gestapo-Haft. Ein Gespräch. Das alles gibt es am Kiosk, eKiosk oder im praktischen Wochenendabo.

Kriminologen betrachteten nicht mehr nur die Bedürfnisse. Sie kamen plötzlich mit irgendwelchen Persönlichkeitsfaktoren daher. In vielen dieser Instrumente, die ja mittlerweile oft von privaten Firmen vertrieben werden, liegt der Fokus jetzt sehr stark auf Persönlichkeitstypen. Das basiert auf Studien des RAND Institutes, einer amerikanischen Denkfabrik. Das RAND Institute setzte die Idee einer kriminellen Persönlichkeit in die Welt. Die Idee also, dass es verschiedene kriminelle Persönlichkeitstypen gibt und dass Verbrechen gewissermaßen aus Denkfehlern entstehen. Kriminelle haben demnach eine verkorkste Logik. Man muss also nur prüfen, wie schlimm die Denkfehler sind und dann entsprechend reagieren. Dann kamen andere Wissenschaftler auch noch mit kriminogenen Faktoren an. Ich habe keine Ahnung, was das sein soll. Verbrechen und Verbrecher sind so unterschiedlich, dass es lächerlich wäre, sich irgendwelche kriminogenen Faktoren auszudenken. Glauben die wirklich, ein Wall Street-Händler und ein drogenabhängiger Autodieb hätten denselben Denkfehler? Das ist Quatsch.

Grundsätzlich geht es aber erst einmal um die Einschätzung von Risiken.

Das ist Versicherungslogik, angewandt auf das Justizsystem. Es gibt aber keine wissenschaftliche Evidenz, die das irgendwie stützt. Kennen Sie die Idee der großen Lüge?

Die wäre?

Wenn Sie eine Sache nur oft genug wiederholen, werden die Leute es schon glauben. Wenn Sie also genug Marketing betreiben, brav zu all den wissenschaftlichen Konferenzen gehen und in Zeitschriften publizieren, nimmt das nach einer Weile ein Eigenleben an. Wenn Sie mich fragen: Die meisten dieser Instrumente sind absolut wertlos. Hätte ich was zu sagen, ich würde sie alle restlos streichen. Aus soziologischer, aus statistischer Perspektive lässt sich vor allem eins sagen: Am besten lässt sich künftiges Verhalten vorhersagen, wenn man das aktuelle Verhalten betrachtet. Hält sich jemand an die Regeln?

Im Gefängnis gelten allerdings andere Regeln als draußen. Wie aussagekräftig kann das Verhalten drin dann sein?

Es hat sich mittlerweile ja eine ganze Industrie entwickelt. Die Leute haben kapiert, dass sie aus diesen Instrumenten ein Produkt machen können, mit Copyright drauf. Manchmal ist das wirklich die reinste Abzocke. Wenn Sie eines dieser Produkte nutzen, Yasi etwa, für Jugendstraftäter, zahlen Sie für jeden einzelnen Fall. Wie bei Apple Music kauft man also kein Produkt, man erwirbt lediglich das Recht, es zu nutzen.

Ihren Kollegen zufolge sind die Ergebnisse statistisch betrachtet verlässlich.

Die Statistik an sich zweifle ich auch gar nicht an. Wenn Sie Regressionen rechnen, heißt das doch einfach nur: Je mehr Variable ich hinzufüge, Verhalten im Knast, Teilnahme an Programmen, Verhältnis zur Familie, desto näher komme ich der Vorhersage eines individuellen Falles. Der Kern des Problems ist doch aber: Die Variablen selbst sind völlig unzulänglich und inakkurat. Wenn Sie sich die Akten ansehen, grauenhaft! Keine psychischen Faktoren, man weiß nichts über die Süchte der Häftlinge, fast nichts über ihre Ausbildung. Es fehlen also die Daten, um dem Einzelfall gerecht zu werden.

Warum kaufen dann alle solche Programme?

Das wurde wirklich aggressiv vermarktet, bei Richtern und Bewährungsbehörden. Eine Spur Naivität ist vermutlich auch dabei. Alle wollen das neueste Produkt auf dem Markt kaufen. Es verschafft einem außerdem politische Deckung. Wenn ich Sie als Vorsitzender einer Bewährungsbehörde freilasse und Sie stellen etwas an, dann ist das mein Fehler. Aber wenn Sie einem Computer die Entscheidung überlassen, ist der Computer schuld. Es gibt also auch einen politischen Antrieb, das zu fördern. Man kann sich dahinter verstecken.

Viele kritisieren außerdem, dass diese Algorithmen die Diskriminierung Schwarzer fortsetzen, selbst wenn der Faktor Race gar nicht offiziell verwendet wird.

Lassen Sie mich mal was zu Race sagen: Jeder Wissenschaftler wird Ihnen versichern, dass das ein völlig unbedeutender Faktor ist. Race ist eine Funktion von sozialer Klasse, Ökonomie, von kulturellen Mustern, diverseste Dinge fließen da ein. Race in Berechnungen zu verwenden, wäre also ein wirklich grobes Konstrukt. Wir haben für eine Studie mal Akten untersucht, um herauszufinden, wie akkurat die ethnischen Zuweisungen waren. Können Sie alles wegschmeißen! Gerade wenn in einem Viertel Asiaten und Latinos nebeneinander leben. Da ordnete dann ein Polizist die Leute irgendeiner Rasse zu. Was er ja gar nicht kann. Völliger Irrsinn. Als wir dann die Zuordnungen mit den Selbstbeschreibungen der Leute verglichen, gab es so gut wie keine Treffer. Kambodschaner erschienen als Latinos, Philippinos noch stärker, weil die manchmal spanische Nachnamen haben. Schwarze ploppten in allen Kategorien hoch. Eine absolut willkürliche Veranstaltung. Das ist aber nicht alles.

Nein?

Die Algorithmen bestrafen Leute besonders hart, die bei ihrer Tat sehr jung waren und ein schweres Verbrechen begangen haben. Das Alter bei der ersten Tat ist ein enorm mächtiger Faktor in den Gleichungen. Die Rückfallquote sinkt nämlich, je älter man wird. Ein 16-Jähriger kann so wie ein Erwachsener verurteilt werden. Dem hilft ein Algorithmus überhaupt nicht.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.