Midterms in den USA: Push the Button
Am Dienstag wird in den USA gewählt. Facebook will die Leute zum Wählen animieren. Sind wir wirklich so leicht zu manipulieren?
Knöpfe drücken, das ist eben Facebooks Ding. Die Like-Buttons sind längst tief in die Popkultur eingesickert. Im Sommer wurden Psychoexperimente des sozialen Netzwerks bekannt, in denen Facebook herauszufinden suchte, wie Nutzer reagieren, wenn Algorithmen ihnen vor allem positive oder negative Einträge ihrer Freunde anzeigen.
Damit ist vielen Nutzern einmal mehr klar geworden, dass ihr Newsfeed eben nicht eins zu eins darstellt, was ihre Freunde tatsächlich posten – sondern eben das, was Facebooks Algorithmus aus welchen Gründen auch immer für besonders relevant erachtet. Oder eben für die eigenen Forschungszwecke.
Und am Dienstag, anlässlich der Midterm Elections in den USA, wird Facebook auch einmal versuchen, ein paar Knöpfe bei seinen US-Nutzern zu drücken. Knöpfe, die seine User zum Wählen motivieren sollen.
Bereits seit sechs Jahren werkelt Facebook daran herum, wie es seine Nutzer wirksam dazu motiviert zu wählen. Mal mit Buttons mit banalen „Statements“ wie „Ich wähle“ oder „Ich bin Wähler“, mal, dass einigen Nutzern zunehmend Nachrichtentexte in den Feed gespült wurden. Experimente, die wirken: Laut einer Studie, die im Magazin Nature veröffentlicht wurde, motivierten die Wahlbuttons 2010 immerhin zusätzlich 340.000 Menschen, zur Wahl zu gehen.
Nutzer als Versuchskaninchen
Und das gezielte Hochspülen von geteilten Nachrichtentexten soll die Wählerquote in dieser Gruppe sogar um drei Prozent gesteigert haben. Das zumindest haben Recherchen des US-Magazins Mother Jones ergeben. Der Artikel, der seither in den USA für Aufruhr sorgt: Muss Facebook transparenter sein, wie es mit seinen Nutzern experimentiert? Und: Kann das soziale Netzwerk Wahlen entscheiden? Facebook selbst gibt sich bislang wenig auskunftsfreudig über dieses Experiment.
Am Dienstag stimmen die US-Bürger über Repräsentantenhaus, Senat sowie 36 Gouverneure ab. Spannend wird das Rennen um die Macht im Senat: Dort fehlen den Republikanern sechs Sitze, um die Mehrheit von der Partei des US-Präsidenten zu erobern.
Die ersten Wahllokale öffnen an der amerikanischen Ostküste am Dienstag um 12.00 Uhr MEZ. Die letzten Lokale schließen in Alaska und Hawaii am Mittwoch um 6.00 Uhr MEZ. Bis das endgültige Ergebnis für den Senat feststeht, könnte es allerdings aufgrund von Stichwahlen bis Januar dauern. Doch bereits kurz nach Schließung der ersten Wahllokale am Mittwoch um 1.00 Uhr MEZ dürften die großen TV-Sender erste Prognosen und Hochrechnungen präsentieren.
Ein Motiv, das wieder und wieder in der Science-Fiction bemüht worden ist: Der Konzern drückt Knöpfe, die Nutzer reagieren. Der Algorithmus lenkt, die Menschen folgen. Unbehaglich, wenn das nun, heute, im Big-Data-Zeitalter, tatsächlich Realität wird. Die Nutzer als Versuchskaninchen. Der Lenkung der mächtigen Konzerne ausgeliefert, die die Geschicke der Welt lenken. Es wäre eine Antiaufklärung.
Doch nun einmal einen Schritt zurück. Wenn wir nicht über „die Nutzer“ sprechen, sondern von uns ganz persönlich: Funktionieren wir wirklich so billig? Ein paar Knöpfe, ein paar Posts und Links mehr, die man zu einem bestimmten Zeitpunkt in seinem Newsfeed sieht und schon ist man dem unsichtbaren Willen eines bösen Konzerns unterworfen? Im Allgemeinen sind die Leute vielleicht so blöd. Sich selbst nimmt man bei solchen Analysen ja gerne aus.
Das unangenehme Ergebnis diverser Facebook-Studien ist: Ja, so einfach sind wir manipulierbar. So banal und billig funktionieren wir. Manchmal. Wenn man die richtigen Knöpfe drückt. Oder irgendwelche externen Faktoren uns dazu gebracht haben, unser Verhalten zu ändern. 61 Millionen Nutzer waren 2010 Teil von Facebooks Wahlbutton-Experiment, 340.000 mehr gingen wählen. Das sind 0,14 Prozent der Gesamtwählerschaft. Verhaltensänderungen in homöopathischen Dosen. Aber doch Veränderungen – die unter bestimmten Umständen auch einen Wahlausgang mitentscheiden könnten.
Algorithmen liefern Informationen
Und doch bleibt der Kontrollverlust problematisch. Wer sich in Zeitung, Fernsehen oder Radio zu stark im Sinne seiner eigenen Meinung informiert fühlt, kann einfach umschalten oder ein anderes Blatt kaufen. Dass das publizistische Produkt nicht neutral ist, ist transparent – anders als bei Facebook.
Steckt uns Facebook unbemerkt in Filterblasen, während wir uns in unserer Nachrichtenauswahl vom sozialen Empfehlungsstrom leiten lassen, nehmen wir von bestimmten Nachrichten unter Umständen gar keine Notiz mehr. Und fühlen uns zunehmend bestärkt in unserer eigenen Position – weil Facebooks Algorithmus uns mehr und mehr entsprechende Informationen nach oben spült.
Werden wir dann auch noch Gegenstand eines Facebook-Experiments, ohne zu wissen, wie unser Nachrichtenstrom frisiert wurde oder dass wir überhaupt Teil dieses Experiments sind, ist es noch schwerer, sich zu widersetzen.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
Rechtspopulistinnen in Europa
Rechts, weiblich, erfolgreich
Haftbefehl gegen Netanjahu
Sollte die deutsche Polizei Netanjahu verhaften?
#womeninmalefields Social-Media-Trend
„Ne sorry babe mit Pille spür ich nix“
Buchpremiere von Angela Merkel
Nur nicht rumjammern
Stellungnahme im Bundestag vorgelegt
Rechtsexperten stützen AfD-Verbotsantrag
Landesparteitag
Grünen-Spitze will „Vermieterführerschein“