Projekt „Datenspende“: Ganz schön aufgeblasene Blase
ForscherInnen haben untersucht, wie stark sich Google-Suchergebnisse von Person zu Person unterscheiden. Das Ergebnis: weniger als gedacht.
Zu Beginn dieses Jahrzehnts hat ein Netzaktivist die Welt verunsichert. Eli Pariser, Präsident des linken Thinktanks MoveOn.org, behauptete mit seiner Theorie von der „Filterblase“: Was wir im Internet sehen, haben Algorithmen für uns zusammengestellt – und zwar gemäß dem, was sie für unsere Vorlieben halten. Die Konsequenz, so Pariser: Je mehr sich Menschen über Google, Facebook und ähnliche Plattformen informieren, desto mehr spaltet sich die Gesellschaft in isolierte Grüppchen mit homogenen Meinungen.
Inzwischen ist die „Filterblase“ geflügeltes Wort, Ereignisse wie der Brexit oder die Wahl Donald Trumps, die viele für undenkbar hielten, verstärken den Eindruck einer virtuellen Sichtfeldbeschränkung. Dabei fehlt bis heute eine solide Grundlage an Daten, die die Filterblasen-These stützen könnten. Seit es den Begriff gibt, gibt es somit auch Kritik an Pariser: Er habe das Problem aufgebauscht, anhand von Stichproben und Spekulationen ein Bedrohungsszenario aufgebaut. Andere gaben der Theorie einen Vertrauensvorschuss – weil sie plausibel klingt.
Mit dem Forschungsprojekt „Datenspende“ gibt es nun in Deutschland zum ersten Mal eine belastbare, wenn auch nicht repräsentative Erhebung zum Thema. Für die Untersuchung arbeiteten der Verein AlgorithmWatch, die TU Kaiserslautern und sechs Landesmedienanstalten zusammen. 4.400 deutsche InternetnutzerInnen „spendeten“ dem Projekt freiwillig ihre Google-Suchergebnisse – das heißt konkret, dass sie sich fünf Wochen vor der Bundestagswahl eine besondere Erweiterung für ihren Browser installierten. Die gab automatisch alle vier Stunden eine Reihe von Suchbegriffen bei Google ein – die Namen der wichtigsten Parteien und PolitikerInnen – und zeichnete dann auf, welche Ergebnisse die Suche anzeigte.
Die so erzeugten Daten verraten, wie sehr Suchergebnisse von Person zu Person variieren. Antwort: Weniger als gedacht. Von den ersten 20 Suchergebnissen waren im Schnitt nur vier bis fünf unterschiedlich. Das heißt, was die Testpersonen bei Google angezeigt bekamen, war zu über drei Viertel identisch.
Für Katharina Zweig, Netzwerkforscherin an der TU Kaiserslautern und Leiterin des Projekts, bedeutet dieses Ergebnis zwar nicht, dass die Filterbubble-Theorie falsch ist. Aber: „Was Google in Deutschland angeht, gibt es keine Datengrundlage für die Theorie.“
Nicht repräsentativ
Das gilt allerdings nur eingeschränkt. Denn zum einen ist die Erhebung nicht repräsentativ. Angenommen wurden Datenspenden von allen, die sich dazu bereit erklärten, und nicht etwa proportional nach Alter, Geschlecht oder – besonders wichtig – sozialem und politischem Milieu.
Zum anderen hat sich die Studie mit der wichtigsten Plattform noch gar nicht beschäftigt: Facebook. Denn noch viel mehr als bei der Suchmaschine Google spielt bei Facebook die Personalisierung eine zentrale Rolle. Also dass Inhalte nach den Interessen und den sozialen Beziehungen der NutzerInnen algorithmisch ausgewählt werden. Bei Facebook gehört es zum Markenkern, dass man sich innerhalb vertrauter Netzwerke bewegt, die eigene Interessen und Meinungen eher teilen. Trotzdem ist nach wie vor nicht klar, wie der Facebook-Algorithmus Inhalte gewichtet – und welche er aussortiert.
Katharina Zweig sagt, dass es im Gegensatz zu Google bei Facebook aber nicht so einfach möglich sei, Personalisierung zu erforschen. „Die Testpersonen müssten dazu entweder gleich ihren Log-in zur Verfügung stellen oder aber Screenshots von ihrer Timeline schicken“, erklärt die Wissenschaftlerin. „Das wird niemand machen.“
Zweig und ihr Team haben es daher anders versucht: Über eine Reihe von selbstgemachten Fake-Accounts wollten sie eine repräsentative Testgruppe simulieren. Das wiederum scheiterte aber an der strikten Identitätsüberprüfung von Facebook. „Die wollten dann gleich, dass wir die Fake-Accounts mit Telefonnummern bestätigen.“
Und so ist Facebook, die wahrscheinlich wichtigste Plattform, wenn es um Filterblasen geht, kaum zu erforschen. Natürlich hat der Konzern kein Interesse daran, seinen Algorithmus preiszugeben. Aus unternehmerischer Sicht wäre das so, als würde eine Sterneköchin ihre Rezepte an die Konkurrenz verteilen.
Und es gibt noch einen weiteren Grund: Solange niemand weiß, wie der Algorithmus genau arbeitet, ist es schwierig, Facebook zu regulieren.
Allerdings steht das Unternehmen immer mehr unter Druck. Es hat kein Interesse daran, als Plattform für rechte Trolle und Populismus zu gelten – oder als das Netzwerk, das den politischen Diskurs kaputtgemacht hat. Deswegen verkündet Facebook auch immer mal wieder, dass es den Algorithmus in dieser oder jener Weise anpassen will. Zuletzt hieß es aus Kalifornien, dass bald persönliche Empfehlungen von engen FreundInnen stärker gewichtet würden als Posts von Nachrichtenseiten. Wie das gegen Filterblasen helfen soll, ist ungewiss – das Gegenteil müsste der Fall sein.
Vielfalt sicherstellen
Allerdings ist klar: Facebook will sich als transparent präsentieren, ohne Betriebsgeheimnisse preiszugeben. Und genau dort sehen die deutschen Landesmedienanstalten und die ForscherInnen beim Projekt „#Datenspende“ eine Chance.
Die Medienanstalten sind deshalb interessiert, weil sie dafür zuständig sind, Medienvielfalt sicherzustellen. Früher ging das via Zuteilung von TV-Sendeplätzen – heute spielen die sogenannten Intermediären eine große Rolle: Google, Facebook, Instagram, YouTube – keine Medien, keine Quellen, sondern Informationshändler mit großer Macht. Über die es aber zu wenig Wissen gibt, sagt Anja Zimmer, Direktorin der Landesmedienanstalt Berlin-Brandenburg (MABB). „Dieses Wissen liegt im Moment zu großen Teilen bei den Intermediären. Das ist ein gravierendes Hindernis für die Forschung, aber auch für die Regulierung.“
Die MABB berät daher seit Neuestem in ihrer „Data Access Initiative“ darüber, wie man die Intermediären davon überzeugt, sich anzapfen zu lassen. „Wir fragen uns, wie eine Regulierung aussehen kann, die gleichzeitig Transparenz und notwendigen Datenschutz gewährleistet“, sagt Zimmer.
Netzwerkforscherin Zweig findet, dass das im Interesse von Facebook sein müsse. „Das wäre ein Win-win für beide Seiten, denn dann müsste man nicht mehr an ihr Geschäftsgeheimnis ran.“ Dazu müsste sich Facebook jetzt nur noch bereit erklären. In der Zwischenzeit gilt immerhin schon mal die gute Nachricht: Wer Google nutzt, ist weitgehend sicher davor, in eine Diskursnische gesaugt zu werden. Was alle anderen Plattformen angeht, ist gesunder Argwohn weiter angemessen.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
Spiegel-Kolumnist über Zukunft
„Langfristig ist doch alles super“
Hoffnung und Klimakrise
Was wir meinen, wenn wir Hoffnung sagen
+++ Nachrichten im Ukraine-Krieg +++
Slowakischer Regierungschef bei Putin im Kreml
Rechte Gewalt in Görlitz
Mutmaßliche Neonazis greifen linke Aktivist*innen an
Nachtcafé für Obdachlose
Störende Armut
Nachhaltige Elektronik
Ein blauer Engel für die faire Maus