Algorithmen im Justizsystem: 72 Prozent Mordwahrscheinlichkeit
In den USA berechnen Computerprogramme, wie gefährlich Menschen sind. Damit könne man Leben retten, sagt ein Statistiker.
Maschinen sollten mehr entscheiden dürfen, sagt der Statistiker und Soziologe Richard Berk. Die könnten das einfach besser als Menschen. Die Maschinen, die Richard Berk in seinem Büro der Universität von Philadelphia bedient, sollen beispielsweise herausfinden, ob Gefangene wieder rückfällig werden, wenn man sie auf Bewährung freilässt. Berk hat auch schon versucht, zu prognostizieren, ob ein Mörder wieder einen Mord begehen wird. Oder ob ein ungeborenes Baby einmal straffällig wird oder nicht.
Polizisten aus Rochester im amerikanischen Minnesota sind solchen Ideen bisher am nächsten gekommen. Sie wollten mit Hilfe eines Statistikprogramms von IBM prognostizieren, ob jugendliche Straftäter zu erwachsenen Straftätern werden. Dafür hätten sie nicht nur Informationen aus der Polizeidatenbank verwendet, sondern auch aus allen anderen verfügbaren Quellen, etwa vom Sozialamt.
Die Öffentlichkeit in Rochester, das vor allem für seine Mayo Klinik bekannt ist, reagierte entsetzt. Maschinen, die aus Daten die Zukunft von Jugendlichen lesen?
Richard Berk, der in seinem Feld als einer der führenden Forscher der USA gilt, verweist auf die positiven Seiten, die solche Vorhersagen mit sich bringen. Seine Algorithmen könnten doch helfen. Wenn man schon vor der Geburt eines Babys wisse, dass es gefährdet sei, könne man die staatlichen Hilfen erhöhen.
Richard Berk ist Soziologe und Statistiker. Er sagt, seine Algorithmen könnten bei der Geburt herausfinden, ob ein Kind einmal ein Verbrecher werde. Wie berechenbar sind Menschen? Die Titelgeschichte „Wird dieses Kind ein Mörder?“ lesen Sie in der taz. am wochenende vom 24./25. Oktober. Außerdem: Heini Rudeck fällt das Gehen schwer. Trotzdem besucht er das Grab seiner Freundin täglich. Er setzt sich einfach an den Computer. Und: Klaus von Dohnanyi veröffentlicht die Briefe seines Vaters aus der Gestapo-Haft. Ein Gespräch. Das alles gibt es am Kiosk, eKiosk oder im praktischen Wochenendabo.
Wenn Algorithmen unsere Zukunft berechnen
Der Ansatz klinge erst einmal gutmütig, sagt der Jurist Andrew Ferguson. Und natürlich wäre es großartig, wenn die Vorhersage, man könnte zum Verbrecher werden, eine Art Glückslos wäre, weil dann Sozialprogramme hochgefahren würden, weil man eine Collegeausbildung finanziert bekäme.
Die Alternative, gibt Ferguson zu bedenken, wäre allerdings: Wir sperren dieses eine Prozent der Bevölkerung vorsichtshalber weg und verhindern so Verbrechen. Was käme wohl raus, wenn man das in den USA zur Abstimmung stellen würde? Ferguson hätte Angst vor dem Ergebnis „Besonders, wenn das eine Prozent wirtschaftlich benachteiligte Schwarze sind.“
In der Titelgeschichte der taz.am wochenende gehen wir der Frage nach, wie sich ein Rechtsstaat verändert, wenn zusehends mehr Entscheidungen von Maschinen getroffen werden, wenn Algorithmen die Zukunft von Menschen berechnen. Besonders häufig werden die Programme in den USA eingesetzt, um zu entscheiden, ob ein Gefangener auf Bewährung freigelassen werden darf oder nicht. In Bundesstaaten wie Pennsylvania allerdings soll das Urteil der Algorithmen auch in Gerichtsverhandlungen einfließen. Die private Arnold Foundation, eine Familienstiftung, bietet Richtern ein Prognoseinstrument an, das berechnet, wie wahrscheinlich es ist, dass jemand flieht, wenn man ihn nicht in Untersuchungshaft nimmt, sondern erst einmal laufen lässt.
Kriminologen streiten, ob dem Urteil der Maschinen oder dem der Menschen mehr zu trauen sei. Und das seit etlichen Jahren. Algorithmen, Programme also, die Entscheidungen berechnen, werden in den USA seit den 1920ern eingesetzt. Damals wurde nur auf dem Papier gerechnet.
Psychologen, die Gefangene begutachten, beklagen, dass das Urteil der Algorithmen unverrückbar wirke. Dabei habe der Mensch immer die Entscheidung, ob er ein Verbrechen begehe oder nicht.
Statistiker monieren, dass Psychologen die Rechnungen der Algorithem zu oft überschreiben würden, weil sie ihr Bauchgefühl für verlässlicher hielten.
Der Psychologe Paul Meehl sprach sich schon in den 1950ern für statistische Vorhersagen aus. Weil der Mensch sich immer für unbestechlich halte, es aber selten sei, müsse man den Maschinen vertrauen.
Auch Computer können rassistisch sein
„Psychologen finden immer einen Grund, warum sie das Maschinenurteil korrigieren müssen,“ ärgert sich der Kriminologe Nicolas Scurich. Die Prognosen der Algorithmen seien tatsächlich konsistenter, springt ihm KiDeuk Kim bei, der zum selben Thema forscht. Es gebe jedoch einen interessanten Widerspruch, der schwer aufzulösen sei: Wenn jemand als hochgradig gefährlich eingestuft werde, werde er auch viel stärker überwacht. Damit sinke seine Gefährlichkeit. Bestätigt das Urteil sich durch seine Vollstreckung damit selbst? „Eigentlich“, überlegt Kideuk Kim, „müsste man die Auswirkung solcher Eingriffe beziffern und die statistischen Modelle entsprechend anpassen.“
Bürgerrechtler beklagen vor allem, dass die Entscheidungen der Algorithmen schwer nachzuvollziehen seien. Sie wirkten objektiv und unbestechlich. Tatsächlich könnten über die Zahlen aber dieselben Vorurteile einfließen, die auch die Entscheidung eines Richters trüben. Vor allem, weil die Daten, etwa die der Polizei, nicht so objektiv seien, wie man sie darstelle.
Es sei ganz einfach, sagt der Statistiker Patrick Ball: „Wenn wir unsere üblichen Verdächtigen dadurch gewinnen, dass wir Schwarze richtig intensiv von der Polizei beobachten lassen, Weiße dagegen immer davonkommen dürfen. Jetzt raten Sie mal, was so ein Algorithmus tut: Er wird dieses Verhalten natürlich exakt reproduzieren.“ Aber er kann ja nicht rassistisch sein, oder? Es ist ja nur ein Computer? Ball regt das auf. „Natürlich ist er vollkommen rassistisch.“
Sollte man Algorithmen in der Justiz nutzen? Könnten die Programme vielleicht sogar Menschen helfen, die potentielle Verbrecher sind? Darf man Menschen dafür zu potentiellen Verbrechern stempeln?
Diskutieren Sie mit!
Die Titelgeschichte „Wird dieses Kind ein Mörder?“ lesen Sie in der taz.am wochenende vom 24./25. Oktober 2015.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
Kampf gegen die Klimakrise
Eine Hoffnung, die nicht glitzert
Müntefering und die K-Frage bei der SPD
Pistorius statt Scholz!
Krieg in der Ukraine
Biden erlaubt Raketenangriffe mit größerer Reichweite
Zweite Woche der UN-Klimakonferenz
Habeck wirbt für den weltweiten Ausbau des Emissionshandels
Rentner beleidigt Habeck
Beleidigung hat Grenzen
Haldenwang über Wechsel in die Politik
„Ich habe mir nichts vorzuwerfen“