Big Data bei den US-Wahlen: Das Silicon Valley weiß, wen du wählst

Clinton und Trump durchleuchten ihre WählerInnen – mit Algorithmen. Das zerstöre die Demokratie, sagt die Mathematikerin Cathy O’Neil.

Silicon Valley von oben

„Trump sucks“ twittern, Selfie mit Hillary facebooken – landet alles im Silicon Valley Foto: dpa

NEW YORK taz | Wer in den Vereinigten Staaten eine Wahl gewinnen will, muss alles über die Wählerinnen und Wähler des Landes wissen: Wo sie wohnen, welche Hautfarbe sie haben, ob sie gläubig sind, was sie arbeiten und welche Jobs sie vorher hatten, welche Bücher sie lesen, welche Filme sie schauen, ob sie für oder gegen Homoehe sind, Sojaschnitzel oder lieber frittierte Hühner essen, dick oder dünn sind, Grundbesitz haben oder Miete zahlen, eine Hypothek oder Löcher in den Zähnen oder Warzen am Arsch haben … Einfach alles. Über jeden Einzelnen. Und das Gleiche über alle ihr Freunde, Bekannten, Schulfreunde, Familienmitglieder und Arbeitskollegen.

Egal, ob Hillary Clinton oder Donald Trump: Beide Wahlkämpfer nutzen die gesamte Macht der Datenberge. Sonst hätten sie keine Chance. Die Konsequenz ist verheerend: Wer regieren will, muss grundlegende demokratische Ideale zerstören, etwa die Idee der freien Bürger, die unbeobachtet eine geheime Wahl treffen. Die Öffentlichkeit ist längst abgestumpft und daran gewöhnt.

Dieser Text ist geprägt von einem Gespräch mit der US-Autorin, Mathematikerin und Aktivistin Cathy O’Neil in deren Wohnung in der Nähe der Columbia University in New York. Sie hat eine reale Dystopie über die Macht der Algorithmen geschrieben – jene in Programmen codierten mathematischen Modelle, die unsere Facebook-Timeline und Google-Trefferliste bestücken, unsere Kreditwürdigkeit berechnen oder, vor allem in den USA, die Polizei in bestimmte Viertel dirigieren, Richtern beim Verhängen des Strafmaßes beraten, Jobbewerber aussortieren oder Wechselwähler identifizieren.

„Weapons of Math Destruction“ heißt O’Neils Buch. Ein Wortspiel, das in der deutschen Übersetzung etwas schwerfällig klingt, in etwa „Mathevernichtungswaffen“ statt Massenvernichtungswaffen. FürO’Neil verbessern diese Programme die Gesellschaft nicht. Sie verstärken Rassismus, vertiefen soziale Probleme und höhlen die Demokratie aus. „Die Leute denken, die Demokratie ist am Leben, nur weil zwei Parteien mit unterschiedlichen Interessen zur Wahl stehen. Die Annahme ist ziemlicher Bullshit“, sagt sie in ihrem Wohnzimmer etwas außer Atem – die U-Bahn war verstopft, trotz Algorithmen, die den Verkehr optimieren sollen.

Damit die Polizei dort häufiger patrouilliert

O’Neil hat ihre eigene Geschichte mit Algorithmen. Sie hat ihren Doktor in Mathematik in Harvard gemacht, am MIT geforscht und dann für den Hedgefonds D. E. Shaw Programme entwickelt, die an den Finanzmärkten Investmententscheidungen treffen sollten. Den Kollaps der Märkte 2008 haben weder ihre noch andere Programme erkannt, in keinem der Institute. O’Neil erkannte das Grundproblem: Algorithmen durchforsten Datenberge nach Mustern, die sich wiederholen. Sie prognostizierten ständig steigende Immobilienpreise, weil das die Muster der Vergangenheit waren. Auf eine Gesellschaft übertragen heißt das, sie kodifizieren die herrschenden Verhältnisse.

Ein Beispiel ist das in den USA beliebte „predictive policing“ – vorausschauende Polizeiarbeit. Dabei identifizieren Programme Gegenden mit hoher Kriminalität, damit die Polizei dort häufiger patrouilliert. Eigentlich keine schlechte Idee.

Die Folge ist allerdings, dass ein weißer Junge, der mit 16 in einem guten Viertel einen Joint raucht, einfach nur einen Joint raucht. Raucht ein gleichaltriger Latino oder Schwarzer in einem ärmeren Viertel einen Joint, ist die Wahrscheinlichkeit, dabei von der Polizei entdeckt zu werden, wesentlich höher. Es folgt vielleicht ein Eintrag im Polizeiregister wegen Drogenbesitzes und Ärger in der Schule. Damit sinkt die Chance auf einen Job oder ein gutes College. Schließlich sind auch dort Algorithmen im Einsatz, die Daten sind allgegenwärtig. Der Junge aus schlechtem Viertel mit Vorstrafe bekommt wahrscheinlich eine schlechtere Bewertung als der aus gutem Hause. Statt die Welt zu verbessern, zementieren die Algorithmen die sozialen Verhältnisse. Sie verstärken Rassismus und die Benachteiligung bestimmter Bevölkerungsschichten.

Seit dem Crash 2008 hat O’Neil über die Algorithmisierung der Welt nachgedacht. Und stieß auf viel gravierendere Auswüchse als die viel diskutierten Filterblasen: Soziale Medien zeigen ihren Usern Inhalte an, die diese mögen – also verstärken sich die immer gleichen Ansichten. Wer Trump gut findet, bei dem tauchen in der Timeline eben Texte darüber auf, wie schlimm Clintons E-Mail-Affäre ist. Wer Clinton gut findet, der findet Texte über Trumps sexuelle Übergriffe. Eine Debatte findet nicht statt.

Die Bürger sind komplett durchleuchtet

Die Wahlkampfteams verstärken das Problem noch zusätzlich. Welches Ausmaß ihre Datenwut angenommen hat, beschreibt Alexander Nix, Chef des New Yorker Unternehmens Cambridge Analytica, in einem Interview mit der Zeitschrift Wirtschaftswoche. Die Firma kauft ganz legal bei Datenanbietern Informationen aus sozialen Netzwerken, TV-Boxen und öffentlichen Registern und hat, so freut sich der Chef, Profile von 200 Millionen Amerikanern, die jeweils 4.000 bis 5.000 Informationen enthalten. Diese Daten verkauft sie an Trump – nur zum Beispiel, denn bei Clinton sieht das nicht anders aus.

Cathy O’Neil, „Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy“, Crown Publishing Group/Penguin Random House September 2016

Damit sind die Bürger komplett durchleuchtet. Perfektioniert hat die Methode das Team von Barack Obama vor der Wahl 2012. Die Tools dazu, so schreibt O’Neil, entwickelten Computerwissenschaftler, die zuvor beispielsweise Supermarktkunden anhand von Kaufgewohnheiten eingeteilt hatten. Sie führten Tausende Interviews mit WählerInnen, um deren Wünsche und Ängste zu verstehen und sie in Kategorien einzuteilen – linksliberaler Öko, rechtskonservativer Waffennarr. Jeder hinterlässt spezifische Spuren im Netz, klickt auf bestimmte Seiten, wohnt in bestimmten Gegenden, bestellt bestimmte Bücher bei Amazon. Das macht den einen zum potenziellen Spender, während ein anderer selbst als Wähler nicht mehr interessiert, weil er ohnehin fest in Händen des politischen Gegners ist.

In den USA hat sich bereits eine ganze Datenindustrie entwickelt. Besonders wertvoll sind für diese die Profile von Wechselwählern in umkämpften Staaten wie Florida, Ohio oder Nevada. Wähler, die ohnehin entschieden sind, sind dagegen wertlos – außer als Spender.

„Wir können uns die Wählerschaft wie die Finanzmärkte vorstellen: Mit Informationen fallen oder steigen ihre Werte. In diesem neuen Politikmarkt repräsentiert jeder von uns eine Aktie, deren Wert fluktuiert. Jede Kampagne muss entscheiden, in wen sie investiert“, schreibt O’Neil. Es scheint, als entschieden nicht 218 Millionen Amerikaner – sondern nur die Unentschlossenen, die über knappe Ausgänge etwa in Florida entscheiden. Grundsätzlich war das früher nicht anders. Aber heute wissen beide Parteien vor der Wahl, wer unentschlossen ist. Die Wahlschlacht schrumpft auf einen von Algorithmen vorhergesagten Personenkreis.

Im Netz präsentiert sich Trump gezielt anders

Damit ändert sich der Wahlkampf und das, was wir unter demokratischer Öffentlichkeit verstehen – sie fragmentiert und schafft sich ab. So kann sich ein Kandidat öffentlich zahm und präsidial geben, so wie es Donald Trump in der letzten Woche vor der Wahl versucht. Gleichzeitig können die Wahlkampfteams Wechselwählern in sozialen Netzwerken gezielt einen ganz anderen Kandidaten präsentieren.

Das passiert täglich und das erkläre auch, warum Teile der Wählerschaft diskutieren, als lebten sie in Paralleluniversen. Laut Umfragen glaubten noch 2015 43 Prozent der Republikaner, Barack Obama sei ein Muslim. „Wir wissen schlicht nicht, welche politischen Botschaften unsere Nachbarn bekommen, also wird es immer schwerer zu verstehen, warum sie glauben, was sie glauben“, sagtO’Neil.

Wir bleiben wach! Die taz begleitet die Präsidentschaftswahl am 8. November ab 22.00 Uhr mit einem Live-Ticker bis in die Morgenstunden.

War es früher nicht genauso? Es gab immer explizit rechte und explizit linke Publikationen. O’Neil zählt das Argument nicht. Natürlich haben Medien eine enorme Macht – die auch oft genug angeprangert worden ist. Doch wenn sie Kandidaten empfehlen oder kaputtschreiben, dann ist das Teil eines öffentlichen Prozesses. Redakteure müssen sich für ihre Argumentation verantworten, andere Medien reagieren darauf. Ihre Parteilichkeit ist offensichtlich.

Dagegen halten die meisten WählerInnen das, was sie auf Facebook sehen oder was ihnen Google anzeigt, für objektiv. Den wenigsten ist bewusst, dass dahinter Programme stecken, die von ihren Herstellern gezielt darauf getrimmt sind, den Usern das zu zeigen, was sie ohnehin denken. Oder dass die verschiedenen Wahlteams ihre Vorlieben haargenau kennen und ihnen das präsentieren, was sie sowieso hören wollen.

Also mehr Bildung, mehr Aufklärung? „Wenn ich Sie mit einem entlassen will, dann damit: Wir können nicht von den Menschen verlangen, dass sie von selbst aus ihrer Blase rauskommen. Das ist ein systemisches Problem. Es betrifft arme Leute am meisten, weil sie am wenigsten Zeit haben“, sagt O’Neil. Sie vergleicht die heutigen Zeitbudgets mit denen zu Beginn der Industrialisierung. Als vielversprechende neue Technologien zu Ausbeutung von ArbeiterInnen in Minen und Fabriken führten – bis der Staat Regeln setzte. „Wir müssen Fairness und Verantwortlichkeit in das Zeitalter der Daten bringen.“

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.