piwik no script img

Algorithmen und KriminalitätEr wird, er wird nicht, er wird …

Ein Soziologe sagt, sein Computerprogramm könne vor der Geburt eines Menschen herausfinden, ob der straffällig wird. Aber will man das?

Münztelefone für Inhaftierte in einem Gefängnis bei Phoenix, Arizona, USA. Foto: ap

Richard Berk ist ein alter weißer Mann, der dafür sorgt, dass junge, schwarze Männer länger im Gefängnis sitzen. Er tut das mit einem Computerprogramm, von dem er ganz offen zugibt, dass niemand genau nachvollziehen kann, wie es funktioniert.

Berk, den eigentlich alle Dick nennen, ist 72 Jahre alt, hat eine Glatze, einen weißen Bart ums Kinn, dicke Tränensäcke unter den Augen, und er mag Fakten. Er betrachtet es als seinen Job, die Fakten in die Welt zu bringen, raus in die Verwaltungen der Gefängnisse, in die Polizeistationen der USA, zu den Sozialämtern. Berk ist Soziologe. Er arbeitet seit etlichen Jahren mit den ausgefeiltesten statistischen Programmen daran, immer genauere Vorhersagen zu treffen. Wird jemand seine Kinder schlagen? Wird jemand morden?

Berk sagt, dass er für ungeborene Babys jetzt schon mit ziemlicher Sicherheit prognostizieren könnte, ob aus ihnen einmal Verbrecher werden. Traue sich nur noch keiner. Werde aber bald kommen. Fünf Jahre vielleicht, sagt Berk.

Es ist einer der heißesten Tage eines heißen Sommers. Die Hochhäuser schwitzen aus ihren Klimaanlagen, das Kondenswasser tropft nur so aus den röhrenden Kästen an den Außenwänden der Gebäude. Unten auf den Straßen erschießen sich so viele Leute wie lange nicht mehr. Junge Leute vor allem, schwarze. Die Polizeireporter werden bald anfangen zu fragen, warum die Mordraten in diesem Sommer überall durch die Decke knallen. Baltimore, Chicago, New York. Auch in Philadelphia, wo Berk jetzt in seinem kühlen Büro sitzt, zwischen Bücherstapeln, Familienfotos und Computern, und sagt, dass man ihn nicht missverstehen solle.

„Ich versuche, schwarze Leben zu retten“, sagt Berk.

Es gibt natürlich etliche Leute, die das ganz anders sehen, weil Berks Algorithmen vor allem schwarze Gefangene als gefährlich einstufen. Bürgerrechtler, schwarze Aktivisten, Juristen haben ganze Bücher gegen das geschrieben, was er da macht.

Zwei, eins, Risiko

Leben: Mussten Sie jemals wegen einer Depression zum Arzt? Rauchen Sie? Wie schnell gehen Sie? Einige Fragen zu Lebensstil und Gesundheit, schon weiß man dank Ubble, eines Computerprogramms, das schwedische Forscher entwickelt haben, wie wahrscheinlich es ist, dass man in den nächsten fünf Jahren stirbt. Jeder kann den Test in wenigen Minuten online machen. Der Algorithmus wurde für Britinnen und Briten zwischen 40 und 70 Jahren entworfen und verwendet Daten aus einer britischen Gesundheitsdatenbank.

Rechnen: Anhand von Risikofaktoren werden Wahrscheinlichkeiten kalkuliert. Die Mechanismen ähneln sich, egal ob es darum geht, vorherzusehen, ob jemand seinen Kredit wird zurückzahlen können oder ob ein Freigänger wieder rückfällig wird.

Deshalb sagt er es ja.

An der Wand über seinem Schreibtisch hängt eine rosa Uhr, auf der „Data Analysis Inc.“ steht. Zur Blue Jeans trägt Berk ein kurzärmeliges Hemd, fliederfarben. Seine Stimme ist tief und unbeirrbar. Gegenargumente hört er kurz an. Dann legt er wieder dar, wie es wirklich ist. Nur manchmal muss er zwischendurch kurz husten.

Richard Berk ist spät im Leben Vater geworden. Sein Sohn ist siebzehn. Sie diskutieren oft darüber, welche Rolle Maschinen künftig spielen. Die Antwort, sagt Berk, laute: „Maschinen werden immer mehr Entscheidungen treffen, weil sie es einfach besser können.“

Mit der Intelligenz seiner Rechenmaschinen versucht Berk in Maryland fürs Sozialamt herauszufinden, ob Kinder in einer Familie Missbrauch fürchten müssen. Er arbeitet mit der Polizei in Philadelphia daran, vorherzusagen, ob häusliche Gewalt sich in bestimmten Haushalten wiederholt. In Philadelphia will er außerdem ermitteln, ob jemand wohl zum Gerichtstermin erscheint oder eher nicht, damit die Richter wissen, ob sie Untersuchungshaft verhängen sollen.

Google sammelt Daten, um daraus zu lesen, welchen Buchstaben wir als nächsten in den Suchschlitz tippen. Facebook findet mit seinen Daten heraus, welche unserer Freunde uns am meisten interessieren. Banken ermitteln, wie lange unser Geld noch reicht. Versicherungen versuchen festzustellen, wie wahrscheinlich es ist, dass wir mit 55 an Schilddrüsenkrebs erkranken. Computer zeichnen Lebenswege. Sie haben die Macht, uns zu lenken.

Längst sind sie auch für Polizei und Justiz im Einsatz, deutsche Polizisten wollen so Einbrüche vorhersehen. „Predictive Policing“ bezeichnet Bundesinnenminister Thomas de Maizière als das polizeiliche Instrument der Zukunft.

Berk gilt in seinem Gebiet als einer der besten in den USA, vielleicht sogar der Welt. Das sagen viele seiner Kollegen. Seinen neuesten Algorithmus hat er für die Behörde in Pennsylvania entworfen, die entscheidet, wann jemand auf Bewährung raus darf.

Gebühr pro Fall

Öffentlich: Um das Risiko zu berechnen, das freigelassene Gefangene darstellen, haben Staaten der USA zwei Möglichkeiten: Wissenschaftler einer Universität entwerfen das Programm für die jeweilige Bewährungsbehörde. Oder die Behörde erwirbt die Leistungen eines Unternehmens. Private Unternehmen verkaufen häufig nicht mehr Softwarepakete, sondern stellen lediglich die Nutzung der Software in Rechnung. Oft mit einer Gebühr pro Fall, also: pro Gefangenem.

Privat: Die wohl am weitesten verbreiteten Programme heißen Compas und LS-I der US-Firma Northpointe und des kanadischen Anbieters Multi-Health Systems. Wie sie funktionieren, verstehen Verantwortliche in Behörden oft auch nicht. Mitarbeiter der Firmen schulen sie. Die private Arnold Stiftung stellt Richtern ein Instrument zur Verfügung, das helfen soll zu entscheiden, ob ein Angeklagter vor dem Prozess in U-Haft muss.

Mehr: taz.de/krisberg

Das Programm soll Wahrscheinlichkeiten dafür liefern, ob ein Gefangener draußen wieder ein Verbrechen begehen wird, und wenn ja, ob damit zu rechnen ist, dass es ein Gewaltverbrechen ist. Die Behörde testet den Algorithmus gerade. Wahrscheinlich wird sie ihn bald übernehmen.

Die Zahlen, die Berks Maschinen berechnen, stehen bei John Tuttle auf dem Zettel, wenn er Gefangene anhört, um zu entscheiden, wann sie rausdürfen. Meist führt Tuttle die Gespräche von seinem Büro aus, die Gefangenen werden dort auf einen Flachbildfernseher übertragen. Videokonferenz.

Tuttle, 59 Jahre alt, ist der Vorsitzende der Bewährungsbehörde von Pennsylvania, ein massiger Mann mit wenig Resthaar, aber umso mehr Humor. Er hat seinen technischen Direktor mit in den Konferenzraum gebracht, um die Sache mit dem Algorithmus zu erklären. Ein langer dunkler Tisch, bordeauxrote Ledersessel. Draußen, hinter dem Panoramafenster, fließt in Harrisburg der Susquehanna River vorbei, der an diesem Tag sehr niedrig steht.

„Unser Job ist es, das Risiko für die Öffentlichkeit abzuwägen“, sagt der technische Direktor. „Die Statistik hilft uns dabei.“

„Erzähl ihm mal, was mein Lieblingsspruch ist“, ruft John Tuttle ihm zu.

„Wir werden nicht für die Einfachen bezahlt“, sagt der Direktor.

„Das ist mein Lieblingsspruch“, ruft John Tuttle. „Wir werden nicht für die Einfachen bezahlt.“

Johannes Gernert

Gernert, 35, schrieb diesen Text als Redakteur der taz.am wochenende. Seit Ende 2015 arbeitet er bei der Wochenzeitschrift Die Zeit. Als Kellen-Fellow hat Johannes Gernert einen Monat in den USA recherchiert, wie Polizei und Justiz Algorithmen einsetzen.

Sie kümmern sich um die schwierigen Fälle. Egal, ob es darum gehe, zu entscheiden, ob jemand rausdarf. Oder ihn dann draußen zu betreuen. „Jeder kann einfach alle einsperren. Oder die ganz Ungefährlichen rauslassen. Wir werden dafür bezahlt, dass wir die harten Entscheidungen treffen.“

Irgendwann, klar, sagt der Direktor, gehe immer irgendein Fall mies aus. „Go bad“, nennen sie das. Das sei wie beim American Football, sagt Tuttle. Man verteidigt gegen diesen einen Typen. Und man bekommt richtig aufs Maul. Man muss das aber sofort vergessen, weil sofort der nächste auf einen zugerannt kommt. So ist das mit den miesen Fällen. Es geht immer weiter. „Oder haben Sie mal von General Custer und den Indianern gehört? Die kämpften um Amerika. Da kamen immer mehr Indianer.“ Immer mehr Fälle, sagt Tuttle. Der Direktor lacht.

Bevor jemand mordet, entscheidet er sich dafür

Ein paar solcher miesen Fälle haben dazu geführt, dass sie in Pennsylvania mehr Statistik denn je verwenden. Vor sieben Jahren erschossen Exhäftlinge auf Bewährung zwei Polizisten. Der Gouverneur setzte die Bewährung eine Zeit lang komplett aus. Er wandte sich an einen Kriminologen, der mit seinen statistischen Verfahren sicherstellen sollte, dass so etwas künftig so unwahrscheinlich wird wie möglich.

John Tuttle entscheidet oft über 14 Fälle an einem Tag, hintereinander weg. Seit damals hat er dafür neben dem Lebenslauf der Gefangenen und anderen Kennziffern auch eine Gefahreneinschätzung. Sie zeigt das Risiko: hoch, mittel, niedrig. Neuerdings experimentieren sie außerdem mit einer Ampel. In kleinen Kästchen erscheinen die Fälle dann als rot, gelb oder grün. Die Ampel hat Berk in seinem Büro in Philadelphia entwickelt. Sie soll die alten Kategorien ablösen.

„Mit den grünen scheint alles okay zu sein“, sagt Tuttle, „die gelben könnten was anstellen. Bei den roten musst du echt aufpassen.“

Es gehe darum, die Darth Vaders zu finden, die wirklich Bösen. Das sage Berk immer.

In vielen Bundesstaaten der USA übernehmen die Algorithmen gerade mehr Entscheidungen in Gefängnissen und vor Gerichten. Pennsylvania ist einer der Staaten, die dabei am weitesten gehen. Schon im kommenden Jahr könnte die statistische Verbrechensprognose dort in Gerichtssälen eingeführt werden. Bewährungsbehörden wie die von John Tuttle haben damit lange Erfahrung. Programme, die herausfinden sollen, wie gefährlich Menschen sind, gibt es im amerikanischen Justizsystem seit den zwanziger Jahren. Gerechnet wurde zunächst auf dem Papier. War jemand ein Mann und noch recht jung, als er verurteilt wurde? Dann ist die Wahrscheinlichkeit höher, dass er es wieder tun wird. Die Faktoren heißen: Alter, Alter bei der ersten Tat, Waffenbesitz.

Die Computer finden kein Mördergen, sondern die perfekten Bedingungen für ein Verbrechen. Mittlerweile ist ihre Rechenkraft so groß, ihre Speicher sind so riesig, dass sich deutlich mehr Variablen einbeziehen lassen, um Szenarios zu spinnen.

Darf man Menschen einsperren, weil ein Computer sagt, die Wahrscheinlichkeit sei recht hoch, dass sie wieder eine Straftat begehen?

Als Teal Kozel am anderen Ende der USA von Berks Verfahren hört, hat sie eine klare Antwort. „Das ist sehr schicksalsergeben“, sagt sie. Kozel, 39 Jahre alt, hat kastanienbraune Haare, die sich auf ihrem Kopf türmen. Sie steigert sich langsam in ihre Antwort hinein. Es regt sie richtig auf.

„Was Berk macht, ignoriert den menschlichen Einfluss komplett“, sagt Kozel. „Selbst wenn jeder bekannte Risikofaktor auf einen einzelnen Menschen zutrifft, hat dieser Mensch am Ende immer noch eine Wahl. Er entscheidet, ob er Gewalt anwendet oder nicht. Ich bin Psychologin. Ich gehe immer davon aus, dass es diese Wahl gibt. Selbst bei den gewalttätigsten Kriminellen. Ich habe mit wirklich vielen Kriminellen gesprochen, mit Hunderten, selbst bei impulsivsten Taten gibt es einen Moment der Entscheidung. Wenn man nur auf die Statistik vertraut, um manche Menschen aus der Gesellschaft auszuschließen, ist das ein wirklich fatalistischer Blick auf die Dinge. Ich weiß nicht, ob ich in so einer Welt leben will.“

Algorithmen sind wie Kuchen, Berk probiert sie

Kozel arbeitet als Psychologin für die Bewährungsbehörde von Kalifornien. Sie setzen dort wesentlich stärker auf psychologische Tests, die aus langen Gesprächen entstehen. Ein ähnlich langer, ähnlich dunkler Tisch wie bei den Kollegen in Pennsylvania. Nur sitzen um ihn drei Frauen. Kozel, eine Kollegin und die Vorsitzende. Sie nennen ihren Ansatz strukturierte, professionelle Beurteilung. In Kalifornien vertrauen sie vor allem auf das Urteil von Menschen.

Richard Berk hat sich ein Bild überlegt, um sein Verfahren zu erläutern. Mit seiner tiefen Erklärstimme legt er in seinem kühlen Büro alles langsam dar. „Nehmen wir mal an, Sie wollten einen Kuchen backen“, sagt Berk. „Sie haben das Rezept, zwei Eier, Milch, Mehl. Sie rühren alles in einer Schüssel zusammen. Dabei wissen Sie ganz genau, welche Zutaten in der Schüssel sind. Schließlich geben Sie alles in eine Backform, die Sie in den Ofen schieben, eine Dreiviertelstunde. Im Ofen passieren dann eine ganze Reihe komplizierter chemischer und physikalischer Vorgänge, die Sie nicht verstehen. Selbst Chemiker oder Physiker begreifen sie nicht genau. Wie wird aus einer flüssigen Masse dieser fluffige, leckere Kuchen? Wenn der Kuchen schmeckt, verwenden Sie das Rezept öfter. Wenn nicht, ändern Sie es. Okay?“

„So funktioniert der Algorithmus“, sagt Berk. „Der Computer arbeitet, und ich probiere den Kuchen.“ Wenn man Leute von den Algorithmen überzeugen will, sei das das Schwierigste, findet er: Sie müssen die Vorhersage akzeptieren, obwohl sie die Mechanismen nicht unbedingt verstehen.

Der Jurist Frank Pasquale hat ein Buch gegen diese Art von Berechnungen geschrieben. Es heißt „The Black Box Society“. Pasquale kritisiert darin, dass eine wachsende Zahl der Entscheidungen von Justiz, Versicherungen oder Online-Unternehmen mit Algorithmen getroffen werden, die genau solche Black Boxes sind. Undurchschaubar.

Oft werden die Risikoanalysen für die Gefängnisse nicht von unabhängigen Wissenschaftlern wie Berk gemacht, sondern von privaten Firmen. Wenn man dann in den Bewährungsbehörden fragt, was genau die Instrumente eigentlich berechneten, antworten die Verantwortlichen manchmal: „Tja, das liegt hinter dem magischen Vorhang.“ Berk dagegen publiziert viel. Man kann nachlesen, was er tut, auch wenn man dann immer noch nicht versteht, was im Ofen vor sich geht. Er nimmt die üblichen Informationen: Alter, Einkommen, Vorstrafen, Drogendelikte, Gewaltdelikte, Waffendelikte. Sein Programm würfelt all die Daten wieder und wieder neu zusammen, lässt hunderte Male die Wahrscheinlichkeit für diesen einen Menschen berechnen. Am Ende wird aus allen Durchgängen das Urteil gebildet. Zu jedem Urteil liefert Berk einen Prozentsatz, der angibt, wie sicher der Algorithmus sich ist. Wie oft er zum selben Ergebnis kam.

Berks Methode, sagen auch Leute, die ihn bewundern, hat nur einen Makel: Die Zahl derjenigen, die als gefährlich eingestuft werden, obwohl sie es nicht sind, liegt bei seinen Programmen höher als bei anderen. Mehr Menschen sitzen länger, als sie müssten. Das ist der Kollateralschaden.

Er, sagt Berk, liefere nur die Fakten. Die Politik müsse entscheiden, was sie daraus mache.

In den Gefängnissen der USA nahm die statistische Risikoanalyse in den siebziger Jahren stark zu. Es waren eher linke Soziologen, die die Technik förderten, weil sie mit ihrer Hilfe beweisen wollten, dass viele der Menschen, die eingesperrt werden, deutlich weniger gefährlich sind, als Konservative gern pauschal behaupteten.

Dass sich die Algorithmen gerade jetzt so stark verbreiten, hat vor allem ökonomische Gründe. Für die 50.000 Menschen in seinen Gefängnissen zahlt etwa der Staat Pennsylvania 2 Milliarden Dollar im Jahr, 7 Prozent seines gesamten Budgets. Vor dreißig Jahren machte der Anteil nur 2 Prozent des Budgets aus. Es gibt in Pennsylvania 2.000 Betten zu wenig für all die Häftlinge. Seit 1970 hat sich die Zahl der Gefangenen in den Vereinigten Staaten um das Siebenfache vergrößert, von etwa 300.000 auf 2,2 Millionen. Die Algorithmen, hoffen einige, können helfen, mehr Leute guten Gewissens zu entlassen.

Männer vertrauen Maschinen, Frauen der Psychologie

John Tuttle, der Vorsitzende der Bewährungsbehörde von Pennsylvania, wird bald entscheiden müssen, ob er Berks Maschinen nach dem Testbetrieb übernimmt. Er wirkt entschlossen, das zu tun, auch wenn er es erst mit seinen Kollegen besprechen muss. Sie werden sich einen Tag für die Diskussion nehmen. „Mindestens einen halben“, sagt er.

Bisher scheinen sich Tuttle und seine Leute stark auf den Algorithmus zu verlassen. „Sie lassen jemanden mit höherer Wahrscheinlichkeit frei, wenn zwei Dinge zutreffen“, sagt Berk. „Die Prognose muss sagen, dass er oder sie nicht gewalttätig wird. Und sie muss das mit großer Sicherheit tun.“

Wenn man Tuttle und seinen technischen Direktor im Konferenzraum in Harrisburg fragt, warum sie die Entscheidung nicht gleich dem Algorithmus überlassen, sagt der Direktor, er glaube nicht, dass eine Maschine das jemals tun könne.

„Das wäre so was wie künstliche Intelligenz“, sagt John Tuttle.

„Das wäre zu sehr wie Minority Report“, wendet der Direktor ein.

„Minority Report“, eine Kurzgeschichte von Philipp K. Dick. In einem Raum der Precrime-Behörde kauern drei verkabelte Mutanten. Schwachsinnige, denen man die Fähigkeit antrainiert hat, in die Zukunft zu sehen. Ihre Fähigkeit wird genutzt, um Mörder schon vor dem Mord festzunehmen. In fünf Jahren hat die Republik nur einen Mord gesehen. Jetzt allerdings steht auf einem der Vorhersagezettel ein seltsamer Name: John Anderton, der Leiter der Behörde persönlich.

Wenn der Mörder weiß, dass er morden wird, hält ihn das vom Morden ab?

Das Wissen um die Zukunft verändert die Zukunft, unterschiedliches Wissen schafft unterschiedliche Zukünfte. Damit spielt Philipp K. Dick, der Science-Fiction-Autor. Steven Spielberg hat aus „Minority Report“ einen Film gemacht.

Über einen Flachbildfernseher ist neben Tuttle und seinem Direktor auch ein Bewährungshelfer zugeschaltet. „Je härter es wird, all seine Fälle zu schaffen, desto mehr verlässt man sich auf die statistische Analyse“, sagt der. Seine Behörde sei ziemlich überlastet, ergänzt Tuttle.

Die Maschinen treffen also schon einen Großteil der Entscheidungen. Die Menschen gestehen sich das nur noch nicht ein. Maschinen wirken unbestechlich, man kann sich gut hinter ihnen verstecken.

Forscher, die abgeglichen haben, ob die Psychologinnen oder die Computer bessere Vorhersagen treffen, sagen, die Unterschiede seien fast unerheblich. Menschen tendierten eher zu den mittleren Bewertungen und hätten Angst vor Extremen.

Drei Männer um einen Konferenztisch. Drei Frauen um einen anderen. Zwei Bewährungsbehörden, eine an der Ostküste, eine an der Westküste. Die einen eher für das Urteil der Maschinen, die anderen eher für das der Menschen.

Es motiviere Gefangene, wenn sie im Gespräch den Eindruck hätten, sie verstünden, wie sie sich ändern müssten, um besser bewertet zu werden, sagt Teal Kozel, die Psychologin. „Wenn es eine Chance gäbe, dass die Kommission der Bewährungsbehörde einen guten Menschen in ihm sehe. Vielleicht schaffe er es dann auch selbst wieder“, habe einer mal zu ihr gesagt.

Und wie, bitteschön, gibt Kozel zu bedenken, verändere es die Zukunft, wenn jemand wegen statistischer Berechnungen weniger Hilfen bekäme, weil er als ungefährlicher gelte? Werde er dann nicht gerade dadurch wieder gefährlicher?

Wie verändert das Bild von der Zukunft die Zukunft, allein weil man es zeichnet?

Im Juli 2013 steht plötzlich eine Kommandantin der Polizei bei Robert McDaniel vor der Haustür. Sie sagt, sie habe eine Akte über ihn auf ihrem Schreibtisch. Er solle jetzt mal besser aufpassen.

McDaniel hatte die High School abgebrochen, gekifft, war gelegentlich von der Polizei festgehalten worden, nie etwas Schlimmes, behauptete er, als ein Reporter der Chicago Tribune ihn danach fragte. Vermutlich weil ein Bekannter von ihm erschossen worden war, landete er auf einer Liste der Polizei von Chicago. Die „Heat List“. Auf ihr stehen Personen, die ein Algorithmus aus den Datenbanken herausgepickt hat.

Der Fall ging um die Welt. McDaniel ist das erste öffentlich anerkannte Algorithmus-Opfer, wenn es um Polizei oder Justiz geht.

Verbrecher sind wie du und ich, selten wirklich böse

In Chicago berechnet die Polizei seit gut zwei Jahren, wie groß die Wahrscheinlichkeit für bestimmte Menschen ist, erschossen zu werden. Oder jemanden zu erschießen. Es geht vorerst nur so grob. Das Chicago Police Department hat sich dafür von einem Wissenschaftler, der vorher viel mit Bilderkennungsverfahren experimentiert hat, einen Algorithmus entwerfen lassen. Chicago verfügt über eine der größten Polizeidatenbanken der Vereinigten Staaten. Daraus zieht sich das Programm Informationen darüber, ob jemand schon einmal geschossen hat oder ob auf ihn geschossen wurde, ob er verurteilt worden ist und wenn ja wofür, ob er wegen Waffenbesitzes angeklagt war oder als Gangmitglied gilt. 440 Personen werden so für eine „Heat List“ ausgewählt, zwanzig für jeden Polizeibezirk. Die Polizisten gehen dann von Tür zu Tür und warnen diese Personen, dass sie über ihren Lebenswandel nachdenken sollten.

Der Hamburger Polizeipräsident und der Innensenator waren schon da, um sich die Technik anzusehen.

Robert McDaniel ist einer wie viele der Jungs aus jenen Vierteln. Die Mutter arbeitete bei der Restaurantkette Red Lobster, er hing auf der Straße herum. Mittlerweile war er auch ein-, zweimal im Gefängnis. Er ist einer dieser Jungs, die die Polizei sich gern genauer anschaut, weil sie schwarz sind, weil es in ihrer Nachbarschaft oft Ärger gibt. Auch Algorithmen durchleuchten sie genauer als andere.

Ein Junge, wie auch Richard Berk mit vielen gearbeitet hat, damals in Baltimore.

Berk ist erst im Laufe der Neunziger zum Kriminologen geworden. Jemand von der Gefängnisbehörde rief an und wollte wissen, ob er die Gefährlichkeit von Insassen schätzen könne, damit sie richtig in die einzelnen Sicherheitsstufen eingeteilt würden. Berk hatte zuvor als Soziologe versucht zu prognostizieren, wann Menschen bereit sind, mehr Wasser zu sparen. Er war damals noch in Los Angeles, an der University of California. Er hat sich auch mit dem Klimawandel beschäftigt.

Sein Ziel, sagt Berk, war es immer, die bestmöglichen Informationen zu liefern. Damit Politiker, Polizeichefs oder Behördenleiter die besten Entscheidungen treffen. Natürlich hätte er auch zu einem Unternehmen gehen können und Kreditkartenbetrug vorhersagen. Manche Kollegen haben das gemacht. Aber er ist Wissenschaftler. Er will unabhängig sein.

Als Richard Berk noch ein junger Mann war, er hatte die Universität Yale besucht, nahm er den Job in Baltimore an. Er sollte andere junge Männer auf der Straße davon abhalten, sich gegenseitig umzubringen. Klassische Sozialarbeit. Mit den Jungs am Wochenende rausfahren, Jobs vermitteln. Vier Jahre lang.

Berk weiß, dass viele Baltimore vor allem aus der HBO-Serie „The Wire“ kennen, die von genau solchen Jungs handelt. Hat er nie gesehen. Er schaut wenig fern.

Die Zeit in Baltimore hat seine Sicht auf die Dinge geprägt: „Verbrecher sind selten wirklich böse. Manchmal gibt es auch die, klar. Aber die meisten sind Leute wie du und ich, die in eine Situation geraten sind, in der sie etwas wirklich Bescheuertes gemacht haben. Vielleicht hätten wir dasselbe getan.“ Es gehe oft nur darum, wer es zuerst schafft, sich eine Waffe zu besorgen. Das sei ihm damals schon wie ein interessantes politisches, ein moralisches Problem vorgekommen.

Berk glaubt, dass seine Algorithmen helfen können. Die Vorhersage, man könnte zum Verbrecher werden, wäre dann fast eine Art Glückslos. Er stellt sich das so vor, dass Sozialprogramme vorsorglich hochgefahren würden, Collegeausbildungen bezahlt. Und wenn man es schon vor der Geburt wüsste, sagt Berk. Man könnte so viel tun. Besseres Essen für die Mutter. Alkoholentzug. Drogenentzug. Eine Hebamme.

Muss man jemanden dafür erst zum potenziellen Verbrecher stempeln?

Die Alternative zu diesem Glückslos wäre, dass man gefährdete Menschen einfach vorsichtshalber wegsperrt. Was wohl herauskäme, wenn man das in den USA zur Abstimmung stellen würde?

Es gibt ein weiteres Buch, das sich gegen alles richtet, was Berk tut. Es heißt „Gegen Vorhersagen“ und stammt auch von einem Jura-Professor. Bernard E. Harcourt sagt darin: Alle Instrumente zur Risikoanalyse sind rassistisch. Es habe, stellt er fest, wenn man sich mit ihm darüber unterhält, eine Zeit gegeben, in der der Faktor Rasse offen einfloss. Das war in den Zwanzigern. „Ein deutscher Vater galt damals als schlechtes Zeichen“, erzählt er. Längst werden solche Kriterien nicht mehr offen einbezogen. Ob jemand schwarz ist oder Hispanic, bahnt sich trotzdem seinen Weg in die Berechnungen, argumentiert Harcourt. Über Umweg-Variablen wie Nachbarschaft etwa. „Der Rassismus war damals juristisch, jetzt ist er faktisch“, schließt Harcourt.

Berk weicht solchen Argumenten aus. Er spreche lieber über den Faktor Geschlecht, der sei nicht ganz so aufgeladen wie „Race“. Gerade jetzt, wo sich der Polizistenmord von Ferguson zum ersten Mal jährt. Wenn eine Behörde also beschließe, das Geschlecht außen vor zu lassen, weil das diskriminieren könnte, sage er: „Alles klar. Womöglich ist ihre Vorhersagekraft um 15 Prozent vermindert. Es werden also in Pennsylvania 10.000 Verbrechen geschehen, die wir nicht vorhersagen können. Wollen Sie das? Sie entscheiden.“

Das sagt Berk gern: Sie entscheiden.

Er stellt sich als Dienstleister dar, der der Öffentlichkeit die Zahlen liefert. Aber natürlich legt seine Frage einen Schluss nahe.

Eine rassistische Welt führt zu rassistischen Computern

Mister Berk, ist das nicht ein etwas formalistischer Ansatz, um eine so große Frage zu beantworten?

„Ich kann Race natürlich rausnehmen. Nehmen wir also mal alles raus, was mit Race verbunden sein könnte – was ja heutzutage fast alles wäre. Gehen wir davon aus, das führt nun zu 35 mehr Morden im Jahr. Wer werden denn die Opfer sein? Menschen töten Menschen wie sich selbst. Wenn also mehr afroamerikanische Straftäter mit hohem Risiko freigelassen werden, resultieren daraus mehr afroamerikanische Opfer. Wollen Sie das?“

Sie entscheiden.

Für so eine Entscheidung müsste man eigentlich herausfinden, wie genau sich die Algorithmen auf wen genau auswirken. Die Gefangenen, deren Schicksal durchgerechnet wird, haben aber gegen Ende ihrer Haftzeit meist keinen Anwalt mehr. Sie sitzen in einem toten Winkel der Gesellschaft. Kaum jemand überprüft das Urteil der Computer.

Berks Gegner würden nun sagen, dass seine Algorithmen mit dafür verantwortlich sind, dass junge schwarze Männer deutlich häufiger in solche Situationen geraten. Algorithmen gehen vom Status quo aus, den schreiben sie mit ihren Berechnungen fort. Schwarze werden intensiver beobachtet und also auch häufiger festgenommen. Weiße kommen davon.

„Auf jeder Stufe des Justizsystems haben Schwarze schlechtere Chancen“, sagt Bernard E. Harcourt, der Autor von „Gegen Vorhersagen“.

Berk geht auf solche Punkte nie direkt ein. Er füttere nur den Algorithmus. Seine Zahlen seien korrekt.

Der Algorithmus kann ja nicht rassistisch sein, oder? Es ist ja nur ein Computer?

„Natürlich ist er vollkommen rassistisch“, sagt einer von Berks Kritikern, ein Statistiker. Berks Zahlen stammten schließlich aus einer rassistischen Wirklichkeit.

Berk sagt: „Der Algorithmus hat ja keine eigene Motivation. Er betrachtet nur die Fakten. Ein Algorithmus hat eine wesentlich bessere Faktengrundlage als Menschen mit all ihren Vorurteilen. Wenn es faktisch richtig ist, dass Männer häufiger Frauen töten als andersherum, dann sollte das doch in so einen Entscheidungsprozess einbezogen werden.“

Für Berk hat das alles eine gewisse Unaufhaltsamkeit. Er hat für den Bundesstaat Maryland einmal versucht herauszufinden, welche Jugendstraftäter auch nach ihrem 18. Geburtstag straffällig werden würden. Das habe ziemlich gut funktioniert. Aber die Verantwortlichen hätten Angst bekommen, es wirklich einzuführen.

Haben Sie keine Angst, dass all die Informationen missbraucht werden könnten, Mister Berk?

„Technologien können immer für gute oder für böse Zwecke verwendet werden. Atomenergie wäre ein klassisches Beispiel. Soll man deshalb mit dem Erfinden aufhören? Daten werden doch jetzt schon missbraucht. Und auch ohne Daten werden ganz schreckliche Entscheidungen getroffen.“

Wir würden uns zwangsläufig in diese Richtung bewegen, sagt Berk, „weil die privaten Unternehmen es schon tun. Google sammelt alles. Das macht auch Amazon, das tun viele Player im Gesundheitssystem, Versicherungen. Wir werden sehr persönliche, sehr genaue Daten von jedem haben. Und dann? Werden wir sie nutzen? Wie werden wir sie nutzen?“

Sie entscheiden.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

0 Kommentare

Kommentarpause ab 30. Dezember 2024

Wir machen Silvesterpause und schließen ab Montag die Kommentarfunktion für ein paar Tage.
  • Noch keine Kommentare vorhanden.
    Starten Sie jetzt eine spannende Diskussion!