piwik no script img

Algorithmen im Justizsystem72 Prozent Mordwahrscheinlichkeit

In den USA berechnen Computerprogramme, wie gefährlich Menschen sind. Damit könne man Leben retten, sagt ein Statistiker.

Wie weit ist unser Verhalten vorhersagbar? Foto: dpa

Maschinen sollten mehr entscheiden dürfen, sagt der Statistiker und Soziologe Richard Berk. Die könnten das einfach besser als Menschen. Die Maschinen, die Richard Berk in seinem Büro der Universität von Philadelphia bedient, sollen beispielsweise herausfinden, ob Gefangene wieder rückfällig werden, wenn man sie auf Bewährung freilässt. Berk hat auch schon versucht, zu prognostizieren, ob ein Mörder wieder einen Mord begehen wird. Oder ob ein ungeborenes Baby einmal straffällig wird oder nicht.

Polizisten aus Rochester im amerikanischen Minnesota sind solchen Ideen bisher am nächsten gekommen. Sie wollten mit Hilfe eines Statistikprogramms von IBM prognostizieren, ob jugendliche Straftäter zu erwachsenen Straftätern werden. Dafür hätten sie nicht nur Informationen aus der Polizeidatenbank verwendet, sondern auch aus allen anderen verfügbaren Quellen, etwa vom Sozialamt.

Die Öffentlichkeit in Rochester, das vor allem für seine Mayo Klinik bekannt ist, reagierte entsetzt. Maschinen, die aus Daten die Zukunft von Jugendlichen lesen?

Richard Berk, der in seinem Feld als einer der führenden Forscher der USA gilt, verweist auf die positiven Seiten, die solche Vorhersagen mit sich bringen. Seine Algorithmen könnten doch helfen. Wenn man schon vor der Geburt eines Babys wisse, dass es gefährdet sei, könne man die staatlichen Hilfen erhöhen.

taz.am wochenende

Richard Berk ist Soziologe und Statistiker. Er sagt, seine Algorithmen könnten bei der Geburt herausfinden, ob ein Kind einmal ein Verbrecher werde. Wie berechenbar sind Menschen? Die Titelgeschichte „Wird dieses Kind ein Mörder?“ lesen Sie in der taz. am wochenende vom 24./25. Oktober. Außerdem: Heini Rudeck fällt das Gehen schwer. Trotzdem besucht er das Grab seiner Freundin täglich. Er setzt sich einfach an den Computer. Und: Klaus von Dohnanyi veröffentlicht die Briefe seines Vaters aus der Gestapo-Haft. Ein Gespräch. Das alles gibt es am Kiosk, eKiosk oder im praktischen Wochenendabo.

Wenn Algorithmen unsere Zukunft berechnen

Der Ansatz klinge erst einmal gutmütig, sagt der Jurist Andrew Ferguson. Und natürlich wäre es großartig, wenn die Vorhersage, man könnte zum Verbrecher werden, eine Art Glückslos wäre, weil dann Sozialprogramme hochgefahren würden, weil man eine Collegeausbildung finanziert bekäme.

Die Alternative, gibt Ferguson zu bedenken, wäre allerdings: Wir sperren dieses eine Prozent der Bevölkerung vorsichtshalber weg und verhindern so Verbrechen. Was käme wohl raus, wenn man das in den USA zur Abstimmung stellen würde? Ferguson hätte Angst vor dem Ergebnis „Besonders, wenn das eine Prozent wirtschaftlich benachteiligte Schwarze sind.“

In der Titelgeschichte der taz.am wochenende gehen wir der Frage nach, wie sich ein Rechtsstaat verändert, wenn zusehends mehr Entscheidungen von Maschinen getroffen werden, wenn Algorithmen die Zukunft von Menschen berechnen. Besonders häufig werden die Programme in den USA eingesetzt, um zu entscheiden, ob ein Gefangener auf Bewährung freigelassen werden darf oder nicht. In Bundesstaaten wie Pennsylvania allerdings soll das Urteil der Algorithmen auch in Gerichtsverhandlungen einfließen. Die private Arnold Foundation, eine Familienstiftung, bietet Richtern ein Prognoseinstrument an, das berechnet, wie wahrscheinlich es ist, dass jemand flieht, wenn man ihn nicht in Untersuchungshaft nimmt, sondern erst einmal laufen lässt.

Kriminologen streiten, ob dem Urteil der Maschinen oder dem der Menschen mehr zu trauen sei. Und das seit etlichen Jahren. Algorithmen, Programme also, die Entscheidungen berechnen, werden in den USA seit den 1920ern eingesetzt. Damals wurde nur auf dem Papier gerechnet.

Psychologen, die Gefangene begutachten, beklagen, dass das Urteil der Algorithmen unverrückbar wirke. Dabei habe der Mensch immer die Entscheidung, ob er ein Verbrechen begehe oder nicht.

Statistiker monieren, dass Psychologen die Rechnungen der Algorithem zu oft überschreiben würden, weil sie ihr Bauchgefühl für verlässlicher hielten.

Der Psychologe Paul Meehl sprach sich schon in den 1950ern für statistische Vorhersagen aus. Weil der Mensch sich immer für unbestechlich halte, es aber selten sei, müsse man den Maschinen vertrauen.

Auch Computer können rassistisch sein

„Psychologen finden immer einen Grund, warum sie das Maschinenurteil korrigieren müssen,“ ärgert sich der Kriminologe Nicolas Scurich. Die Prognosen der Algorithmen seien tatsächlich konsistenter, springt ihm KiDeuk Kim bei, der zum selben Thema forscht. Es gebe jedoch einen interessanten Widerspruch, der schwer aufzulösen sei: Wenn jemand als hochgradig gefährlich eingestuft werde, werde er auch viel stärker überwacht. Damit sinke seine Gefährlichkeit. Bestätigt das Urteil sich durch seine Vollstreckung damit selbst? „Eigentlich“, überlegt Kideuk Kim, „müsste man die Auswirkung solcher Eingriffe beziffern und die statistischen Modelle entsprechend anpassen.“

Bürgerrechtler beklagen vor allem, dass die Entscheidungen der Algorithmen schwer nachzuvollziehen seien. Sie wirkten objektiv und unbestechlich. Tatsächlich könnten über die Zahlen aber dieselben Vorurteile einfließen, die auch die Entscheidung eines Richters trüben. Vor allem, weil die Daten, etwa die der Polizei, nicht so objektiv seien, wie man sie darstelle.

Es sei ganz einfach, sagt der Statistiker Patrick Ball: „Wenn wir unsere üblichen Verdächtigen dadurch gewinnen, dass wir Schwarze richtig intensiv von der Polizei beobachten lassen, Weiße dagegen immer davonkommen dürfen. Jetzt raten Sie mal, was so ein Algorithmus tut: Er wird dieses Verhalten natürlich exakt reproduzieren.“ Aber er kann ja nicht rassistisch sein, oder? Es ist ja nur ein Computer? Ball regt das auf. „Natürlich ist er vollkommen rassistisch.“

Sollte man Algorithmen in der Justiz nutzen? Könnten die Programme vielleicht sogar Menschen helfen, die potentielle Verbrecher sind? Darf man Menschen dafür zu potentiellen Verbrechern stempeln?

Diskutieren Sie mit!

Die Titelgeschichte „Wird dieses Kind ein Mörder?“ lesen Sie in der taz.am wochenende vom 24./25. Oktober 2015.

Links lesen, Rechts bekämpfen

Gerade jetzt, wo der Rechtsextremismus weiter erstarkt, braucht es Zusammenhalt und Solidarität. Auch und vor allem mit den Menschen, die sich vor Ort für eine starke Zivilgesellschaft einsetzen. Die taz kooperiert deshalb mit Polylux. Das Netzwerk engagiert sich seit 2018 gegen den Rechtsruck in Ostdeutschland und unterstützt Projekte, die sich für Demokratie und Toleranz einsetzen. Eine offene Gesellschaft braucht guten, frei zugänglichen Journalismus – und zivilgesellschaftliches Engagement. Finden Sie auch? Dann machen Sie mit und unterstützen Sie unsere Aktion. Noch bis zum 31. Oktober gehen 50 Prozent aller Einnahmen aus den Anmeldungen bei taz zahl ich an das Netzwerk gegen Rechts. In Zeiten wie diesen brauchen alle, die für eine offene Gesellschaft eintreten, unsere Unterstützung. Sind Sie dabei? Jetzt unterstützen

Mehr zum Thema

23 Kommentare

 / 
  • Es ist völlig okay, wenn man empirische Daten auswertet.

    Allerdings muss dies auch von kompetenten Menschen gemacht werden. Ein Computer kann noch nicht erkennen, wie relevant für eine Statistik die Daten, die er verwertet, wirklich sind. Für den sind traumatische Erlebnisse in der Kindheit genauso relevant wie das Tragen einer Brille.

    Die Gesellschaftswissenschaftler sollten also mal anfangen, nicht dauernd ihre Statistikvorlesungen zu schwänzen, sondern mal den Augenmerk auf die Kritierien solcher Statistiken richten.

    Dann wäre selbst die "Broken-Windows-Theorie" schon Schnee von gestern.

  • „Psychologen finden immer einen Grund, warum sie das Maschinenurteil korrigieren müssen,“ ärgert sich der Kriminologe Nicolas Scurich. Die Prognosen der Algorithmen seien tatsächlich konsistenter, springt ihm KiDeuk Kim bei, der zum selben Thema forscht. Es gebe jedoch einen interessanten Widerspruch, der schwer aufzulösen sei: Wenn jemand als hochgradig gefährlich eingestuft werde, werde er auch viel stärker überwacht. Damit sinke seine Gefährlichkeit. Bestätigt das Urteil sich durch seine Vollstreckung damit selbst? „Eigentlich“, überlegt Kideuk Kim, „müsste man die Auswirkung solcher Eingriffe beziffern und die statistischen Modelle entsprechend anpassen.“

     

    Vielleicht müsste man aber auch noch die Auswirkungen der Eingriffe in die Eingriffe beziffern und die statistischen Modelle entsprechend anpassen. Naja, und um wissenschaftlich korrekt vorzugehen – und das wollen wir ja alle, nicht wahr, Herr Kim? -, müssten wir dann wohl auch noch die Auswirkungen der Eingriffe in die Eingriffe der Eingriffe beziffern und die statistischen Modelle entsprechend anpassen. Aber vielleicht wäre das auch zu viel des Guten und übertriebene wissenschaftliche Sorgfalt oder, um es mal offener zu sagen, dem Zweck, soziale Selektion zu reproduzieren, nicht dienlich. Man möchte ja schließlich noch zur Anwendung kommen…

  • "Richard Berk, der in seinem Feld als einer der führenden Forscher der USA gilt, verweist auf die positiven Seiten, die solche Vorhersagen mit sich bringen. Seine Algorithmen könnten doch helfen. Wenn man schon vor der Geburt eines Babys wisse, dass es gefährdet sei, könne man die staatlichen Hilfen erhöhen."

     

    Dieser Mann schlägt also vor staatliche Hilfen an potenzielle Kriminelle in den USA zu spenden, um seine Idee, die inhuman ist, zu legitimieren, was absurd ist, denn

    ich schätze der größte Auslöser für Kriminalität ist in den USA Armut, wie in jedem anderen Land der Welt auch. Wie wär´s mal da anzufangen anstatt aus dem Elfenbeinturm Schöne Neue Welt Theorien mit der üblichen Verantwortungslosigkeit eines Statistikers zu plärren. Die Frage nach einem Leben stellen das so gesund ist, dass es ohne technokratischen Machtmissbrauch und Pillenfressen auskommt, ist meiner Meinung nach längst überfällig. In den USA sterben seit neuesten Studien 400.000 Menschen jährlich an Bluthochdruck. Da können sich alle Kriminellen mit Alqaida zusammentun und toppen das nicht.

    Und statt aufzuhören die Symptome zu bekämpfen und an der Wurzel, nämlich UNSEREM GEIST anzusetzen, also an uns selber, verlagern wir unser unangenehmes Schuldgefühl in solchen schwachsinnigen Ausreden wie dieser Studie, und diese Perversen, wie Herr Berk, stehen Schlange uns ihren Dünnschiss in den Hals zu stopfen. Danke für die freie Ausdrucksweise.

    darüber zu diskutieren ob man 1% der Bevölkerung wegsperrt oder sonderbehandelt, weil sie potenzielle Kriminelle sind ist lächerlich. Jeder Mensch hat das Potenzial kriminell zu sein! Das macht ihn noch nicht strafbar. und ich gehe jede Wette ein dass es nicht bei den 1% bleiben wird. Mal abgeshen von den schon im Artikel erwähnten Mängeln.

    DIe Soziopathen die mich interessieren sitzen in den Reihen aus denen solche Ideen entspringen. Das so ein Thema bereits salonfähig ist bestürzt mich.

  • Die Diskussion berücksichtigt nicht, dass auch der Mensch seine Urteile auf Grund von Statistiken fällt.

     

    Diese Statistik nennt man dann Erfahrung, wobei diese auf einer sehr schmalen Datenbasis beruht.

  • Gerald Sussmann, Legendärer Informatikprofessor und Autor von “Structure and Interpretation of Computer Programs” (SICP) sagte gerade in einem Interview:

     

    > I want software that's accountable.…I want something that can express its symbolic reasoning. I want to it to tell me why it did the thing it did, what it thought was going to happen, and then what happened instead." ( http://dustycloud.org/blog/sussman-on-ai/ )

     

    Das geht mit diesen Privatprogrammen allerdings per Definition nicht, denn wenn diese Information existiert, können alle anderen die Programme kopieren. Und das muss auch so sein: Wenn Richter intransparenten Entscheidungen von Programmen vertrauen, können wir auch gleich auf geschriebenes Recht verzichten.

  • "Kriminologen streiten, ob dem Urteil der Maschinen oder dem der Menschen mehr zu trauen sei. Und das seit etlichen Jahren."

     

    Wer ersteres behauptet, widerlegt sich selbst, solange er nur Mensch und nicht Maschine ist.

  • 2.0 & @@

     

    "Mathematisieren des Judizierens" ->

    Spar den judge - get an Automat.

     

    Bin zu faul&blöd das Nachzurecherchieren - aber eine solche Diskussion/Ansätze gab es in den 60/70ern in der Rechtswissenschaft

    (z.B. Uni Gießen?) -

    Verschwand dann aber sang- & klanglos - weil - funzt wg Zwang zu Wertungen im Recht nicht.

     

    Interessant war - "was für Typen" sich damit gar ernsthaft beschäftigten -

    eher so "staatstragende" mal vorsichtig formuliert;)

     

    kurz -

    Sehe - jenseits von Stoff/Fakten-Sammlungen - nicht, wie der Grundkonflikt des Rechts -> Sein/Sollen qua Mathematisierung aufgelöst werden könnte.

     

    ------

    duck duck ;!¡

    kurz - Euler aus Athen tragen;))

    http://www.taz.de/Algorithmen-im-Justizsystem/!5244799/

  • Hoffentlich hilft das wirklich. Vielleicht koennte ja wirklich leben gerettet werden.

    • @Demokrat:

      Dummerweise würde man das bei bzw. trotz Umsetzung niemals erfahren: Selbst wenn durch so etwas die Gewaltrate sinken würde, wüsste man nie genau, wer denn nun wirklich etwas verbrochen hätte. Im Übrigen gäbe es massenhaft andere Möglichkeiten, die Gewaltrate in den USA zu reduzieren. Ein solches Vorgehen wie beschrieben enthöbe (scheinbar) die gesamte Gesellschaft des Nachdenkens und der Arbeit an sich selbst.

      Man hätte solche Algorithmen bereits längst und weniger zynisch verwenden können: Berechnungen zeigen seit Langem immer wieder den Zusammenhang zwischen Armut, Benachteiligung, Rassismus, sozialem Umfeld, familiärer Herkunft und Kriminalität. Statt nun den Einzelnen aus diesem Kontext zu isolieren könnte man eine viel größere Breitenwirkung erzielen, indem man - schön nach Algorithmus - die Voraussetzungen bearbeitet, die gefährdete Individuen erzeugen. Aber dafür müsste man ja Geld aufwenden, das zurzeit noch zum überwiegenden Teil gebunden ist durch die, die ohnehin schon zu viel haben.

      • @Karl Kraus:

        Das sind alles gute argumente. So wie ich den artikel gelesen habe geht es um die beurteilung vorzeitiger haftentlassung auf bewaehrung. Also fuer verbrecher die vorzeitig raus wollen. Ich sehe daher schon eine hilfe zur beurteilung. Vor allem bei gewaltverbrechen.

  • Na toll. Schöne Aussichten für die Zukunft.

  • Finde ich gar nicht schlecht. Den Algorithmus sollte man über jeden US-Präsidentschafts-Kandidatem laufen lassen, bevor er zur Wahl zugelassen wird. Wenn es funktioniert, würde der Welt viel Elend erspart bleiben.

  • Solcher Schwachsinn kommt vor allem Leuten entgegen, die dann ja auch mit Fug und Recht behaupten können, sie wären ohnehin für diese oder jene Straftat bestimmt gewesen und nur ein Werkzeug Gottes, irgendwelcher Algorithmen, oder von sonstwas. Worin soll dann noch persönliche Schuld bzw. Verantwortung für das eigene Handeln bestehen? Dann kann man im nächsten Schritt ja auch die Gerichte durch einarmige Banditen ersetzen.

  • Je weniger die Menschen über eine gute naturwissenschaftliche Ausbildung verfügen, desto anfälliger sind sie für pseudowissenschaftliche Scharlatanerie. Ein deutlicher Beweis ist dafür das Hubbard'sche E-Meter. Dieses Ohmmeter, denn es misst nur den Hautwiderstand, wird in dieser Sekte, die sich Scientology schimpft, als Diagnoseinstrument benutzt.

     

    In den USA, wo Bildung nur eine Frage des Geldbeutels ist, sind die Bürger bereits dermaßen verdooft, dass sie sich solchen Schwachsinn einreden lassen. Der BRD-Bürger hat nach den langen Jahren der Kohl-Ära eine Rückentwicklung erfahren. Getreu dem Motto, dass ein Untertan nie intelligenter als der Herrscher sein darf, ist durch die seit 1982 herrschenden Bundesregierungen der Intellekt des Durchschnittbürgers, getreu dem Vorbild der Politiker auf ein Maß beginnender Verblödung geschrumpft.

     

    Jedes Modell kann nur so gut sein, wie es von seinem Schöpfer erdacht wurde. Hier wird einmal wieder Rechnen mit Mathematik verwechselt.

    Es genügt eben nicht einfach ein mathematisches Modell mehrfach durchzurechnen. Bereits eine falsche Aussage vernichtet die Behauptung und das Modell gehört auf den mathematischen Müllhaufen.

     

    Ein typisches Beispiel ist der Eulersche Primzahlen-Algorithmus. Bis zur Zahl n=40 liefert diese Formel immer brav als Ergebnis Primzahlen. Doch für n=41 ist das nicht mehr der Fall.

     

    Diese Art der Forschung in den USA ist nichts anderes als "Spökenkiekerei". Das kommt davon, wenn man den Kaufmann über den Akademiker setzt. Das Kaiserreich ging in Deutschland auch unter, weil der Offzier mehr zu bestimmen hatte als der Hochschullehrer. Das nenne ich Dekadenz und Degeneration.

    • @achterhoeker:

      Genau das sind die Argumente von Salon-Linken. Arme Menschen, also Proletarier die am Leben verzweifeln, weil sie nicht mal das nötigste zum Leben haben gelten für euch Wohlstands-Linken als "Doof", nur weil ihr auf Kosten eurer Mammis und Pappis und Vater Staat 20 Semester irgendeinen Quatsch studiert habt und wir täglich für ein Stück Brot uns kaputt schuften. Ihr Pseudo-Linken seid doch schlimmer als die Rechten.

      • @Helmut Janschke:

        Um selbst zu erkennen, was Herr ACHTERHOEKER hier dankenswerterweise und präzise beschreibt, bedarf es keiner akademischen Bildung.

  • "Mathematisieren des Judizierens" ->

    Spar den judge - get an Automat.

     

    Bin zu faul&blöd das Nachzurecherchieren - aber eine solche Diskussion/Ansätze gab es in den 60/70ern in der Rechtswissenschaft

    (z.B. Uni Gießen?) -

    Verschwand dann aber sang- & klanglos - weil - funzt wg Zwang zu Wertungen im Recht nicht.

     

    Interessant war - "was für Typen" sich damit gar ernsthaft beschäftigten -

    eher so "staatstragende" mal vorsichtig formuliert;)

     

    kurz -

    Sehe - jenseits von Stoff/Fakten-Sammlungen - nicht, wie der Grundkonflikt des Rechts -> Sein/Sollen qua Mathematisierung aufgelöst werden könnte.

  • ERNSTHAFT TAZ!

     

    Hier herauszustellen es gäbe einen Konflikt Maschine vs. Mensch geht VÖLLIG am Thema vorbei. Und diskreditiert von Anfang an den statistischen Forschungsansatz.

     

    Der eigentlichen Attribute der Konfliktparteien sind hier nämlich folgende:

     

    - Statistiker die versuchen gesellschaftliche Zusammenhänge zu verstehen

    - Leute die auf Rehabilitation oder aber Rache setzen

    - Leute die Statistik nicht verstehen aber Graphen für unhinterfragbare Wahrheiten halten

    - Psychologen die versuchen den Einzelfall zu verstehen

     

    Alle diese Gruppen, die man sich aus diesen 4 (sich nicht ausschließenden) Attributen bauen kann, benutzen Computer zum arbeiten. Viel mehr kann man lernen wenn man die einzelnen Attribute zu Gruppen bastelt. Viel Spaß dabei.

    • @Jenny_:

      "…diskreditiert von Anfang an den statistischen Forschungsansatz.…"

       

      Mit Verlaub - sind Sie sicher - die

      Dimensionen der beiden

      Beiträge bzw Intv. - öh -

      Komplett zu erfassen¿!

      ¿! - Hauptsache!

  • Wann kapieren die USA eigentlich, daß sie sich lieber Gedanken machen sollten wie sie Leute aus den Gefängnissen wieder herauskriegen sollten, statt darüber wie man sie schneller reinkriegt oder länger drinbehält. Glaubt denn ernsthaft einer, daß jemand auf Bewährung entlassen wird wenn ein Algorythmus eine "schlechte" Sozialprogrose abgibt? In Verbindung mit Dingen wie dem 3-Strikes Quark etc pp wird das doch eher noch schlimmer...

    • @Dideldidum:

      Hast Du mal daran gedacht, dass es auch gute Sozialprognosen geben könnte?

       

      Ansonsten bin ich auf Deiner Seite

      • @bonus bonus:

        Für die Herstellerinnen der Programme sind false negativs gefährlicher als false positives.

         

        Wenn sie einen Menschen fälschlicherweise als ungefährlich einstufen und die dann was schlimmes macht, werden die Herstellerinnen angefeindet. Wenn ihr Programm einen Menschen unschuldig einbuchtet, passiert ihnen nichts.

         

        Sie haben also Interesse daran, die Software zuungunsten der Menschen einzustellen.