piwik no script img

Big Data bei den US-WahlenDas Silicon Valley weiß, wen du wählst

Clinton und Trump durchleuchten ihre WählerInnen – mit Algorithmen. Das zerstöre die Demokratie, sagt die Mathematikerin Cathy O’Neil.

„Trump sucks“ twittern, Selfie mit Hillary facebooken – landet alles im Silicon Valley Foto: dpa

NEW YORK taz | Wer in den Vereinigten Staaten eine Wahl gewinnen will, muss alles über die Wählerinnen und Wähler des Landes wissen: Wo sie wohnen, welche Hautfarbe sie haben, ob sie gläubig sind, was sie arbeiten und welche Jobs sie vorher hatten, welche Bücher sie lesen, welche Filme sie schauen, ob sie für oder gegen Homoehe sind, Sojaschnitzel oder lieber frittierte Hühner essen, dick oder dünn sind, Grundbesitz haben oder Miete zahlen, eine Hypothek oder Löcher in den Zähnen oder Warzen am Arsch haben … Einfach alles. Über jeden Einzelnen. Und das Gleiche über alle ihr Freunde, Bekannten, Schulfreunde, Familienmitglieder und Arbeitskollegen.

Egal, ob Hillary Clinton oder Donald Trump: Beide Wahlkämpfer nutzen die gesamte Macht der Datenberge. Sonst hätten sie keine Chance. Die Konsequenz ist verheerend: Wer regieren will, muss grundlegende demokratische Ideale zerstören, etwa die Idee der freien Bürger, die unbeobachtet eine geheime Wahl treffen. Die Öffentlichkeit ist längst abgestumpft und daran gewöhnt.

Dieser Text ist geprägt von einem Gespräch mit der US-Autorin, Mathematikerin und Aktivistin Cathy O’Neil in deren Wohnung in der Nähe der Columbia University in New York. Sie hat eine reale Dystopie über die Macht der Algorithmen geschrieben – jene in Programmen codierten mathematischen Modelle, die unsere Facebook-Timeline und Google-Trefferliste bestücken, unsere Kreditwürdigkeit berechnen oder, vor allem in den USA, die Polizei in bestimmte Viertel dirigieren, Richtern beim Verhängen des Strafmaßes beraten, Jobbewerber aussortieren oder Wechselwähler identifizieren.

„Weapons of Math Destruction“ heißt O’Neils Buch. Ein Wortspiel, das in der deutschen Übersetzung etwas schwerfällig klingt, in etwa „Mathevernichtungswaffen“ statt Massenvernichtungswaffen. FürO’Neil verbessern diese Programme die Gesellschaft nicht. Sie verstärken Rassismus, vertiefen soziale Probleme und höhlen die Demokratie aus. „Die Leute denken, die Demokratie ist am Leben, nur weil zwei Parteien mit unterschiedlichen Interessen zur Wahl stehen. Die Annahme ist ziemlicher Bullshit“, sagt sie in ihrem Wohnzimmer etwas außer Atem – die U-Bahn war verstopft, trotz Algorithmen, die den Verkehr optimieren sollen.

Damit die Polizei dort häufiger patrouilliert

O’Neil hat ihre eigene Geschichte mit Algorithmen. Sie hat ihren Doktor in Mathematik in Harvard gemacht, am MIT geforscht und dann für den Hedgefonds D. E. Shaw Programme entwickelt, die an den Finanzmärkten Investmententscheidungen treffen sollten. Den Kollaps der Märkte 2008 haben weder ihre noch andere Programme erkannt, in keinem der Institute. O’Neil erkannte das Grundproblem: Algorithmen durchforsten Datenberge nach Mustern, die sich wiederholen. Sie prognostizierten ständig steigende Immobilienpreise, weil das die Muster der Vergangenheit waren. Auf eine Gesellschaft übertragen heißt das, sie kodifizieren die herrschenden Verhältnisse.

Ein Beispiel ist das in den USA beliebte „predictive policing“ – vorausschauende Polizeiarbeit. Dabei identifizieren Programme Gegenden mit hoher Kriminalität, damit die Polizei dort häufiger patrouilliert. Eigentlich keine schlechte Idee.

Die Folge ist allerdings, dass ein weißer Junge, der mit 16 in einem guten Viertel einen Joint raucht, einfach nur einen Joint raucht. Raucht ein gleichaltriger Latino oder Schwarzer in einem ärmeren Viertel einen Joint, ist die Wahrscheinlichkeit, dabei von der Polizei entdeckt zu werden, wesentlich höher. Es folgt vielleicht ein Eintrag im Polizeiregister wegen Drogenbesitzes und Ärger in der Schule. Damit sinkt die Chance auf einen Job oder ein gutes College. Schließlich sind auch dort Algorithmen im Einsatz, die Daten sind allgegenwärtig. Der Junge aus schlechtem Viertel mit Vorstrafe bekommt wahrscheinlich eine schlechtere Bewertung als der aus gutem Hause. Statt die Welt zu verbessern, zementieren die Algorithmen die sozialen Verhältnisse. Sie verstärken Rassismus und die Benachteiligung bestimmter Bevölkerungsschichten.

Seit dem Crash 2008 hat O’Neil über die Algorithmisierung der Welt nachgedacht. Und stieß auf viel gravierendere Auswüchse als die viel diskutierten Filterblasen: Soziale Medien zeigen ihren Usern Inhalte an, die diese mögen – also verstärken sich die immer gleichen Ansichten. Wer Trump gut findet, bei dem tauchen in der Timeline eben Texte darüber auf, wie schlimm Clintons E-Mail-Affäre ist. Wer Clinton gut findet, der findet Texte über Trumps sexuelle Übergriffe. Eine Debatte findet nicht statt.

Die Bürger sind komplett durchleuchtet

Die Wahlkampfteams verstärken das Problem noch zusätzlich. Welches Ausmaß ihre Datenwut angenommen hat, beschreibt Alexander Nix, Chef des New Yorker Unternehmens Cambridge Analytica, in einem Interview mit der Zeitschrift Wirtschaftswoche. Die Firma kauft ganz legal bei Datenanbietern Informationen aus sozialen Netzwerken, TV-Boxen und öffentlichen Registern und hat, so freut sich der Chef, Profile von 200 Millionen Amerikanern, die jeweils 4.000 bis 5.000 Informationen enthalten. Diese Daten verkauft sie an Trump – nur zum Beispiel, denn bei Clinton sieht das nicht anders aus.

Das Buch

Cathy O’Neil, „Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy“, Crown Publishing Group/Penguin Random House September 2016

Damit sind die Bürger komplett durchleuchtet. Perfektioniert hat die Methode das Team von Barack Obama vor der Wahl 2012. Die Tools dazu, so schreibt O’Neil, entwickelten Computerwissenschaftler, die zuvor beispielsweise Supermarktkunden anhand von Kaufgewohnheiten eingeteilt hatten. Sie führten Tausende Interviews mit WählerInnen, um deren Wünsche und Ängste zu verstehen und sie in Kategorien einzuteilen – linksliberaler Öko, rechtskonservativer Waffennarr. Jeder hinterlässt spezifische Spuren im Netz, klickt auf bestimmte Seiten, wohnt in bestimmten Gegenden, bestellt bestimmte Bücher bei Amazon. Das macht den einen zum potenziellen Spender, während ein anderer selbst als Wähler nicht mehr interessiert, weil er ohnehin fest in Händen des politischen Gegners ist.

In den USA hat sich bereits eine ganze Datenindustrie entwickelt. Besonders wertvoll sind für diese die Profile von Wechselwählern in umkämpften Staaten wie Florida, Ohio oder Nevada. Wähler, die ohnehin entschieden sind, sind dagegen wertlos – außer als Spender.

„Wir können uns die Wählerschaft wie die Finanzmärkte vorstellen: Mit Informationen fallen oder steigen ihre Werte. In diesem neuen Politikmarkt repräsentiert jeder von uns eine Aktie, deren Wert fluktuiert. Jede Kampagne muss entscheiden, in wen sie investiert“, schreibt O’Neil. Es scheint, als entschieden nicht 218 Millionen Amerikaner – sondern nur die Unentschlossenen, die über knappe Ausgänge etwa in Florida entscheiden. Grundsätzlich war das früher nicht anders. Aber heute wissen beide Parteien vor der Wahl, wer unentschlossen ist. Die Wahlschlacht schrumpft auf einen von Algorithmen vorhergesagten Personenkreis.

Im Netz präsentiert sich Trump gezielt anders

Damit ändert sich der Wahlkampf und das, was wir unter demokratischer Öffentlichkeit verstehen – sie fragmentiert und schafft sich ab. So kann sich ein Kandidat öffentlich zahm und präsidial geben, so wie es Donald Trump in der letzten Woche vor der Wahl versucht. Gleichzeitig können die Wahlkampfteams Wechselwählern in sozialen Netzwerken gezielt einen ganz anderen Kandidaten präsentieren.

Das passiert täglich und das erkläre auch, warum Teile der Wählerschaft diskutieren, als lebten sie in Paralleluniversen. Laut Umfragen glaubten noch 2015 43 Prozent der Republikaner, Barack Obama sei ein Muslim. „Wir wissen schlicht nicht, welche politischen Botschaften unsere Nachbarn bekommen, also wird es immer schwerer zu verstehen, warum sie glauben, was sie glauben“, sagtO’Neil.

Live-Ticker US-Präsidentschaftswahl

Wir bleiben wach! Die taz begleitet die Präsidentschaftswahl am 8. November ab 22.00 Uhr mit einem Live-Ticker bis in die Morgenstunden.

War es früher nicht genauso? Es gab immer explizit rechte und explizit linke Publikationen. O’Neil zählt das Argument nicht. Natürlich haben Medien eine enorme Macht – die auch oft genug angeprangert worden ist. Doch wenn sie Kandidaten empfehlen oder kaputtschreiben, dann ist das Teil eines öffentlichen Prozesses. Redakteure müssen sich für ihre Argumentation verantworten, andere Medien reagieren darauf. Ihre Parteilichkeit ist offensichtlich.

Dagegen halten die meisten WählerInnen das, was sie auf Facebook sehen oder was ihnen Google anzeigt, für objektiv. Den wenigsten ist bewusst, dass dahinter Programme stecken, die von ihren Herstellern gezielt darauf getrimmt sind, den Usern das zu zeigen, was sie ohnehin denken. Oder dass die verschiedenen Wahlteams ihre Vorlieben haargenau kennen und ihnen das präsentieren, was sie sowieso hören wollen.

Also mehr Bildung, mehr Aufklärung? „Wenn ich Sie mit einem entlassen will, dann damit: Wir können nicht von den Menschen verlangen, dass sie von selbst aus ihrer Blase rauskommen. Das ist ein systemisches Problem. Es betrifft arme Leute am meisten, weil sie am wenigsten Zeit haben“, sagt O’Neil. Sie vergleicht die heutigen Zeitbudgets mit denen zu Beginn der Industrialisierung. Als vielversprechende neue Technologien zu Ausbeutung von ArbeiterInnen in Minen und Fabriken führten – bis der Staat Regeln setzte. „Wir müssen Fairness und Verantwortlichkeit in das Zeitalter der Daten bringen.“

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

6 Kommentare

 / 
  • Ich finde dieses Thema wird immer ein wenig übertrieben.

     

    Und vor allem wird immer ignoriert, dass sich Menschen nicht so verhalten wie es Facebook & Co gerne hätten. Man gibt einen falschen Namen, einen falschen Geburtstag in Facebook an. Auf ein und denselben PC gibt eine ganze Familie Suchanfragen ein und das Tablet wird dafür nur zum Absetzen von Anfragen von Gartentipps verwendet.

     

    Ein Beispiel: Google ist einfach nicht in der Lage zu erkennen, dass dieser Computer hier (die virtuelle Machine von dem ich das hier poste) zu meinem youtube Account gehört. Jedes Mal wenn ich mich von hier aus anmelde, sagt er mir, dass ich ein Hacker bin und keinen Zugang bekomme. Und wenn Google nicht mal erkennt, dass ich ein und dieselbe Person bin wenn ich mich versuche in ein und denselben Account anzumelden. Wie soll sie dann bitte mein Wahlverhalten erkennen?

    • @Generator:

      Es gibt bei jeder Art von Kategorisierung ein paar Prozent, die nicht ins Raster passen. Das gibt allerdings Leuten, die Kampagnen fahren, einen Anreiz, diese paar Prozent gezielt zu beeinflussen, damit sie besser ins Raster passen. Das macht Kampagnen billiger.

       

      Die verschiedenen sozialen Netze haben allerdings ohnehin einen problematischen Anreiz für die Entwickler. Da sie durch Werbung finanziert werden, gibt es für sie nur einen Wert: Aufmerksamkeit binden.

       

      Anders gesagt: Die sozialen Netze verdienen nur dann Geld, wenn sie Deine Zeit beanspruchen können. Leider läuft das aber effizienter Nutzung der eigenen Zeit zuwider.

       

      Nochmal kurz klicken und doch noch etwas gucken statt das zu nutzen, was man gerade gefunden hat. Das ist der Preis, den wir für den falschen Anreiz von Entwicklern sozialer Netze zahlen.

    • @Generator:

      Ganz einfach, es gibt eine menge Menschen, deren Computer ähnlich konfiguriert ist. Mit denen wirst du verglichen und die Chance errechnet, dass du xyz wählst.

       

      Es spielt ja keine Rolle, ob der Computer der dein Scoring errechnet recht hat. Sondern dass er die Menschen davor glauben machen kann, sein Scoring würde schon passen.

  • @ schonn - but -

    Das mit alter Hut - ist leider nur allzu wahr!

     

    Les ich ungläubig.

    "…Ein Beispiel ist das in den USA beliebte „predictive policing“ – vorausschauende Polizeiarbeit. Dabei identifizieren Programme Gegenden mit hoher Kriminalität, damit die Polizei dort häufiger patrouilliert. Eigentlich keine schlechte Idee.…"

     

    Im Ernst - "…Eigentlich keine schlechte Idee.…" ????

     

    Wo bitte - lassen Sie denken?!

    Was - bitte - wissen Sie in Echtzeit

    Über solche Zusammenhänge -

    Werter Herr Ingo Arzt?!

    Mal in echt!

     

    Solches fällt im weitesten Sinne unter

    Viktimologie & Solches hab ich mir -

    Wie alle willig-neugierigen Studis -

    Ab Mitte der 60er an den Hacken abgelaufen!

    Sodaß sich mit Verlaub ihr bodenloses "Eigentlich keine schlechte Idee.…"

    Schlicht verbietet. - Genau!

    Wie Sie anschließend selbst bestätigen!

     

    kurz - "keine schlechte?" - Geht's noch?!

    Nein - Eine Scheißidee!

    wg cui bono? ~> Save in whole -

    The WASP&Upper-class!

    So geht das! - ever!

  • „Wir müssen Fairness und Verantwortlichkeit in das Zeitalter der Daten bringen.“?

     

    Ja, genau.

    Und jeder Weltbürger sollte so schlau sein, sich nicht nur bei einer Quelle zu informieren.

  • Sehr interessant, sehr schön. Allerdings letzten Ende eine Ansammlung von Anekdoten. Wissenschaftliche Beweise sind das auch nicht. Gibt es die überhaupt schon? Schwer vorstellbar bei dieser Tragweite.