Berechnung des Alltags: Wir sind Algorithmen-Zombies
Algorithmen steuern uns alle fern. Sie bestimmen Entscheidungen, ohne dass wir es merken, und machen uns so manipulierbar.
Dirk Helbing veröffentlichte seine Position nicht etwa im Yps-Heft, sondern in der aktuellen Ausgabe von Science, einer der angesehensten Wissenschaftszeitschriften der Welt. Auch ist Helbing kein Verschwörungstheoretiker, sondern Leiter des Bereichs Computational Social Science (so eine Art Informatik der Gesellschaft) der ETH Zürich – einer der besten Universitäten Europas.
„Personalisierte Informationen, Empfehlungssysteme und die dahinter stehenden Algorithmen ermöglichen eine Fernsteuerung unserer Handlungen durch reflexhafte Reaktionen. Das hebelt bewusstes Entscheiden weitgehend aus“, sagt er.
In seinem Beitrag für die Nature bezieht er sich etwa auf China. Das Regime führt dort ein Ratingsystem ein, das anhand des Surfverhaltens den Zugang der BürgerInnen zu bestimmten Berufen regelt. Mit einer Punktzahl, die den Personalausweis ergänzt. Wer die falschen Seiten aufruft oder auch nur digitalen Kontakt zu den „falschen“ Menschen pflegt, wird für berufliche Positionen gesperrt oder von Reisezielen ausgeschlossen.
Suchmaschinen steuern Wähler
Algorithmen sind also längst das probate Mittel einer kybernetischen Menschensteuerung. Ist alles nur in merkwürdigen Staatsformen möglich? Von wegen. NSA, globale Überwachung, Big Data.
Anhand von Massendaten lässt sich Verblüffendes prognostizieren: menschliches Verhalten etwa. Versicherungen können sehr genau mögliche Krankheiten vorhersagen. Das LKA München setzte Algorithmen ein, um Verbrechen zu identifizieren, bevor sie geschehen. Der Algorithmus von Facebook sortiert, was deren NutzerInnen sehen und was nicht.
Dirk Helbing
Im Sommer 2014 veröffentlichte der Konzern die Ergebnisse eines Menschenexperiments. Facebook war es gelungen, den Gemütszustand von 689.000 Usern positiv wie auch negativ durch eine Variation des Algorithmus fernzusteuern. Unbemerkt, denn die User wurden erst im Nachhinein unterrichtet. Die weltweite Kritik war vernichtend.
Und dann gibt es ja noch diesen Konzern, der sich neuerdings – „im Anfang war das Wort“ – Alphabet nennt: Google. Der Verhaltenspsychologe Robert Epstein beschrieb kürzlich, wie durch unbemerkte Variation der Google-Algorithmen Wahlen bereits heute entschieden werden. Er nennt das den „Suchmaschinen-Manipulations-Effekt“ (SEME). Denn über 90 Prozent der User berücksichtigen bei Google-Suchen nur die erste Seite der Trefferlisten. Davon schauen rund 50 Prozent nur die ersten zwei Suchtreffer an.
Marktführer von Suchmaschinen können den Ausgang der US-Präsidentenwahl entscheiden, so Epstein. Zwanzig Prozent der unentschlossenen Wähler ließen sich gezielt in die eine oder die andere Richtung fernsteuern. Und unentschlossene Wähler entscheiden oft, wer gewinnt. Bei 50 Prozent aller US-Präsidentschaftswahlen lagen die Unterschiede zwischen den Kandidaten bei weniger als 7,6 Prozent der Stimmen.
Lernende Maschinen
„Manipulierte Suchergebnisse sind eine Bedrohung für die Demokratie“, sagt Epstein. Deutschland müsse seine Führungsrolle in Europa nutzen und sich dafür einsetzen, dass Suchergebnisse bei Wahlen streng reguliert werden und nicht dafür benutzt werden können, Wahlen zu entscheiden. Die USA diskutieren bereits über die Regulierung von Algorithmen.
Helbing übertreibt also nicht, wenn er von einer Fernsteuerung spricht. Das Problem ist allerdings komplizierter: Denn Algorithmen werden immer komplexer. Sie reprogrammieren sich bereits selbst. Machine Learning nennt sich das – oder künstliche Intelligenz.
Programmieren dient der Automatisierung von Prozessen. Die Automatisierung der Programmierung bedeutet also eine Automatisierung der Automatisierung. Klingt nach Niklas Luhmann und ließe sich auch als Definition von Kontrollverlust verwenden.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
Nahost-Konflikt
Alternative Narrative
Nach der Gewalt in Amsterdam
Eine Stadt in Aufruhr
IStGH erlässt Haftbefehl gegen Netanjahu
Wanted wegen mutmaßlicher Kriegsverbrechen
Die Wahrheit
Der erste Schnee
+++ Nachrichten im Nahost-Krieg +++
IStGH erlässt Haftbefehl gegen Netanjahu und Hamas-Anführer
Putins Atomdrohungen
Angst auf allen Seiten