piwik no script img

Projekt „Datenspende“Ganz schön aufgeblasene Blase

ForscherInnen haben untersucht, wie stark sich Google-Suchergebnisse von Person zu Person unterscheiden. Das Ergebnis: weniger als gedacht.

Ist die Blase nur ein Märchen? Foto: reuters

Zu Beginn dieses Jahrzehnts hat ein Netzaktivist die Welt verunsichert. Eli Pariser, Präsident des linken Thinktanks MoveOn.org, behauptete mit seiner Theorie von der „Filterblase“: Was wir im Internet sehen, haben Algorithmen für uns zusammengestellt – und zwar gemäß dem, was sie für unsere Vorlieben halten. Die Konsequenz, so Pariser: Je mehr sich Menschen über Google, Facebook und ähnliche Plattformen informieren, desto mehr spaltet sich die Gesellschaft in isolierte Grüppchen mit homogenen Meinungen.

Inzwischen ist die „Filterblase“ geflügeltes Wort, Ereignisse wie der Brexit oder die Wahl Donald Trumps, die viele für undenkbar hielten, verstärken den Eindruck einer virtuellen Sichtfeldbeschränkung. Dabei fehlt bis heute eine solide Grundlage an Daten, die die Filterblasen-These stützen könnten. Seit es den Begriff gibt, gibt es somit auch Kritik an Pariser: Er habe das Problem aufgebauscht, anhand von Stichproben und Spekulationen ein Bedrohungsszenario aufgebaut. Andere gaben der Theorie einen Vertrauensvorschuss – weil sie plausibel klingt.

Mit dem Forschungsprojekt „Datenspende“ gibt es nun in Deutschland zum ersten Mal eine belastbare, wenn auch nicht repräsentative Erhebung zum Thema. Für die Untersuchung arbeiteten der Verein AlgorithmWatch, die TU Kaiserslautern und sechs Landesmedienanstalten zusammen. 4.400 deutsche InternetnutzerInnen „spendeten“ dem Projekt freiwillig ihre Google-Suchergebnisse – das heißt konkret, dass sie sich fünf Wochen vor der Bundestagswahl eine besondere Erweiterung für ihren Browser installierten. Die gab automatisch alle vier Stunden eine Reihe von Suchbegriffen bei Google ein – die Namen der wichtigsten Parteien und PolitikerInnen – und zeichnete dann auf, welche Ergebnisse die Suche anzeigte.

Die so erzeugten Daten verraten, wie sehr Suchergebnisse von Person zu Person variieren. Antwort: Weniger als gedacht. Von den ersten 20 Suchergebnissen waren im Schnitt nur vier bis fünf unterschiedlich. Das heißt, was die Testpersonen bei Google angezeigt bekamen, war zu über drei Viertel identisch.

Für Katharina Zweig, Netzwerkforscherin an der TU Kaiserslautern und Leiterin des Projekts, bedeutet dieses Ergebnis zwar nicht, dass die Filterbubble-Theorie falsch ist. Aber: „Was Google in Deutschland angeht, gibt es keine Datengrundlage für die Theorie.“

Nicht repräsentativ

Das gilt allerdings nur eingeschränkt. Denn zum einen ist die Erhebung nicht repräsentativ. Angenommen wurden Datenspenden von allen, die sich dazu bereit erklärten, und nicht etwa proportional nach Alter, Geschlecht oder – besonders wichtig – sozialem und politischem Milieu.

Zum anderen hat sich die Studie mit der wichtigsten Plattform noch gar nicht beschäftigt: Facebook. Denn noch viel mehr als bei der Suchmaschine Google spielt bei Facebook die Personalisierung eine zentrale Rolle. Also dass Inhalte nach den Interessen und den sozialen Beziehungen der NutzerInnen algorithmisch ausgewählt werden. Bei Facebook gehört es zum Markenkern, dass man sich innerhalb vertrauter Netzwerke bewegt, die eigene Interessen und Meinungen eher teilen. Trotzdem ist nach wie vor nicht klar, wie der Facebook-Algorithmus Inhalte gewichtet – und welche er aussortiert.

Im Gegensatz zu Google kann man Filterblasen bei Facebook quasi nicht erforschen

Katharina Zweig sagt, dass es im ­Gegensatz zu Google bei Facebook aber nicht so einfach möglich sei, Personalisierung zu erforschen. „Die Testpersonen müssten dazu entweder gleich ihren Log-in zur Verfügung stellen oder aber Screenshots von ihrer Timeline schicken“, erklärt die Wissenschaftlerin. „Das wird niemand machen.“

Zweig und ihr Team haben es daher anders versucht: Über eine Reihe von selbstgemachten Fake-Accounts wollten sie eine repräsentative Testgruppe simulieren. Das wiederum scheiterte aber an der strikten Identitätsüberprüfung von Facebook. „Die wollten dann gleich, dass wir die Fake-Accounts mit Telefonnummern bestätigen.“

Und so ist Facebook, die wahrscheinlich wichtigste Plattform, wenn es um Filterblasen geht, kaum zu erforschen. Natürlich hat der Konzern kein Interesse daran, seinen Algorithmus preiszugeben. Aus unternehmerischer Sicht wäre das so, als würde eine Sterne­köchin ihre Rezepte an die Konkurrenz verteilen.

Und es gibt noch einen weiteren Grund: Solange niemand weiß, wie der Algorithmus genau arbeitet, ist es schwierig, Facebook zu regulieren.

Allerdings steht das Unternehmen immer mehr unter Druck. Es hat kein Interesse daran, als Plattform für rechte Trolle und Populismus zu gelten – oder als das Netzwerk, das den politischen Diskurs kaputtgemacht hat. Deswegen verkündet Facebook auch immer mal wieder, dass es den Algorithmus in dieser oder jener Weise anpassen will. Zuletzt hieß es aus Kalifornien, dass bald persönliche Empfehlungen von engen FreundInnen stärker gewichtet würden als Posts von Nachrichtenseiten. Wie das gegen Filterblasen helfen soll, ist ungewiss – das Gegenteil müsste der Fall sein.

Vielfalt sicherstellen

Allerdings ist klar: Facebook will sich als transparent präsentieren, ohne Betriebsgeheimnisse preiszugeben. Und genau dort sehen die deutschen Landesmedienanstalten und die ForscherInnen beim Projekt „#Datenspende“ eine Chance.

Die Medienanstalten sind deshalb interessiert, weil sie dafür zuständig sind, Medienvielfalt sicherzustellen. Früher ging das via Zuteilung von TV-Sendeplätzen – heute spielen die sogenannten Intermediären eine große Rolle: Google, Facebook, Instagram, YouTube – keine Medien, keine Quellen, sondern Informationshändler mit großer Macht. Über die es aber zu wenig Wissen gibt, sagt Anja Zimmer, Direktorin der Landesmedienanstalt Berlin-Brandenburg (MABB). „Dieses Wissen liegt im Moment zu großen Teilen bei den Intermediären. Das ist ein gravierendes Hindernis für die Forschung, aber auch für die Regulierung.“

Die MABB berät daher seit Neuestem in ihrer „Data Access Initiative“ darüber, wie man die Intermediären davon überzeugt, sich anzapfen zu lassen. „Wir fragen uns, wie eine Regulierung aussehen kann, die gleichzeitig Transparenz und notwendigen Datenschutz gewährleistet“, sagt Zimmer.

Netzwerkforscherin Zweig findet, dass das im Interesse von Facebook sein müsse. „Das wäre ein Win-win für beide Seiten, denn dann müsste man nicht mehr an ihr Geschäftsgeheimnis ran.“ Dazu müsste sich Facebook jetzt nur noch bereit erklären. In der Zwischenzeit gilt immerhin schon mal die gute Nachricht: Wer Google nutzt, ist weitgehend sicher davor, in eine Diskursnische gesaugt zu werden. Was alle anderen Plattformen angeht, ist gesunder Argwohn weiter angemessen.

Links lesen, Rechts bekämpfen

Gerade jetzt, wo der Rechtsextremismus weiter erstarkt, braucht es Zusammenhalt und Solidarität. Auch und vor allem mit den Menschen, die sich vor Ort für eine starke Zivilgesellschaft einsetzen. Die taz kooperiert deshalb mit Polylux. Das Netzwerk engagiert sich seit 2018 gegen den Rechtsruck in Ostdeutschland und unterstützt Projekte, die sich für Demokratie und Toleranz einsetzen. Eine offene Gesellschaft braucht guten, frei zugänglichen Journalismus – und zivilgesellschaftliches Engagement. Finden Sie auch? Dann machen Sie mit und unterstützen Sie unsere Aktion. Noch bis zum 31. Oktober gehen 50 Prozent aller Einnahmen aus den Anmeldungen bei taz zahl ich an das Netzwerk gegen Rechts. In Zeiten wie diesen brauchen alle, die für eine offene Gesellschaft eintreten, unsere Unterstützung. Sind Sie dabei? Jetzt unterstützen

Mehr zum Thema

3 Kommentare

 / 
  • "Wer Google nutzt, ist weitgehend sicher davor, in eine Diskursnische gesaugt zu werden"

     

    Kann man aus der Versuchsanordnung nicht herleiten.

     

    Da wäre sowas wie "Kochbuch Mann Anfänger" lohnender, manuell eingetippt im Android-Phone (Google-Suche), in der exakt gleichen Reihenfolge und Schreibweise. 3 Personen in meinem Bekanntenkreis bekamen völlig verschiedene Treffer, eine als #1 eine Seite mit Sexspielzeug, eine was anderes, eine tatsächlich Kochbücher.

     

    Zur Methode: Da alle Tester das gleiche Spezialplugin installiert hatten, waren sie für Googles Automaten auf 100 km zu erkennen. Das alleine reicht schon, und wenn die alle im selben Takt die selben 16 Begriffe funken ... Für Google ist es extrem wichtig, solche Robotersuchen zu erkennen, denn sie versauen ihnen die Relevanz und damit die Datenqualität, und Datenschrott verkauft sich schlecht. Man könnte Google richtig schaden und sich gleichzeitig gegen Profiling schützen, zumindest, was die Suchmaschine betrifft. So einfach ist das nicht. Bin daher sicher, sie erkennen es. Google hat zum Profiling viel mehr Daten als nur die Suchbegriffe - angefangen von eingebetteten Google-Fonts oder -Helferbibliotheken in nahezu allen Seiten, hat vermutlich die Mehrheit der Tester Android-Handys - die sind zumindest zu Hause im selben WLAN und damit für Google zuordenbar. Über die Verknüpfung wirds erst knackig.

     

    Schließlich hat Google laut Testbericht (Seite 10) Ausländer! erkannt und diesen Testern deutlich abweichende Treffer geliefert, was sich die AutorInnen der Studie nicht erklären können. Ja und nu? Vielleicht sollten sie sich mal mit der EFF und Data-Mining-Leuten in Verbindung setzen. Außerdem ist das ein anderes Fazit der Studie.

  • Die Filterblase existiert!

    Sie ist "nach oben" hin größer, weil wir schon alle drin sind.

    Ich hatte letztens zum ersten Mal "farbige" Suchergebnisse bei Facebook...

    D.h. Menschen anderer Hautfarbe kommen bei mir auf Google, Facebook &Co. so gut wie nie vor...

    Das mag an meinen "weißen" Likes liegen, was ich aber nicht glaube.

    Wenn man drin steckt, kann man das schlecht von außen beurteilen.

    Dort sollte man ansetzen.

     

    #WhiteBubble #FilterBlase #RaceBubble

    #FBRacism? #FBRassismus?

  • Naja, meiner Ansicht ist die Filterblase das was viele Journalisten sich auf FB und Twitter erschaffen haben. Deshalb diese hysterische Berichterstattung über manche Ereignisse ud die Verwunderung über die Ergebnisse von Wahlen.

     

    Da ich selbst FB nicht nutze kann ich nur von Twitter sprechen und dort wird sich auf Trends und die eigene Timeline fokusiert, dabei ist das nur ein Bruchteil der Kommunikation auf Twitter. Und tatsächlich ist Twitter nicht mal im Ansatz wirklich ein Medium was als vollwertiges Recherchegrundlage dienen sollte. Aber seit Twitter in der Tagesschau gelandet ist wundert mich nichts mehr und wenn man liest wie Journalisten den Begriff Filterblase, hauptsächlich als Kampfbegriff gegen die Personen, deren Meinung sie nicht teilen, benutzen ist klar das etwas verkehrt läuft.

     

    Eine Filterblase ist aber auch etwas völlig normales, nur sollte man in der Lage sein diese auch zu erkennen. Und die Menschen die eine andere Meinung haben als die eigene, haben eine andere Filterblase.

     

    Aber was ist das Problem damit?