piwik no script img

Projekt „Datenspende“Ganz schön aufgeblasene Blase

ForscherInnen haben untersucht, wie stark sich Google-Suchergebnisse von Person zu Person unterscheiden. Das Ergebnis: weniger als gedacht.

Ist die Blase nur ein Märchen? Foto: reuters

Zu Beginn dieses Jahrzehnts hat ein Netzaktivist die Welt verunsichert. Eli Pariser, Präsident des linken Thinktanks MoveOn.org, behauptete mit seiner Theorie von der „Filterblase“: Was wir im Internet sehen, haben Algorithmen für uns zusammengestellt – und zwar gemäß dem, was sie für unsere Vorlieben halten. Die Konsequenz, so Pariser: Je mehr sich Menschen über Google, Facebook und ähnliche Plattformen informieren, desto mehr spaltet sich die Gesellschaft in isolierte Grüppchen mit homogenen Meinungen.

Inzwischen ist die „Filterblase“ geflügeltes Wort, Ereignisse wie der Brexit oder die Wahl Donald Trumps, die viele für undenkbar hielten, verstärken den Eindruck einer virtuellen Sichtfeldbeschränkung. Dabei fehlt bis heute eine solide Grundlage an Daten, die die Filterblasen-These stützen könnten. Seit es den Begriff gibt, gibt es somit auch Kritik an Pariser: Er habe das Problem aufgebauscht, anhand von Stichproben und Spekulationen ein Bedrohungsszenario aufgebaut. Andere gaben der Theorie einen Vertrauensvorschuss – weil sie plausibel klingt.

Mit dem Forschungsprojekt „Datenspende“ gibt es nun in Deutschland zum ersten Mal eine belastbare, wenn auch nicht repräsentative Erhebung zum Thema. Für die Untersuchung arbeiteten der Verein AlgorithmWatch, die TU Kaiserslautern und sechs Landesmedienanstalten zusammen. 4.400 deutsche InternetnutzerInnen „spendeten“ dem Projekt freiwillig ihre Google-Suchergebnisse – das heißt konkret, dass sie sich fünf Wochen vor der Bundestagswahl eine besondere Erweiterung für ihren Browser installierten. Die gab automatisch alle vier Stunden eine Reihe von Suchbegriffen bei Google ein – die Namen der wichtigsten Parteien und PolitikerInnen – und zeichnete dann auf, welche Ergebnisse die Suche anzeigte.

Die so erzeugten Daten verraten, wie sehr Suchergebnisse von Person zu Person variieren. Antwort: Weniger als gedacht. Von den ersten 20 Suchergebnissen waren im Schnitt nur vier bis fünf unterschiedlich. Das heißt, was die Testpersonen bei Google angezeigt bekamen, war zu über drei Viertel identisch.

Für Katharina Zweig, Netzwerkforscherin an der TU Kaiserslautern und Leiterin des Projekts, bedeutet dieses Ergebnis zwar nicht, dass die Filterbubble-Theorie falsch ist. Aber: „Was Google in Deutschland angeht, gibt es keine Datengrundlage für die Theorie.“

Nicht repräsentativ

Das gilt allerdings nur eingeschränkt. Denn zum einen ist die Erhebung nicht repräsentativ. Angenommen wurden Datenspenden von allen, die sich dazu bereit erklärten, und nicht etwa proportional nach Alter, Geschlecht oder – besonders wichtig – sozialem und politischem Milieu.

Zum anderen hat sich die Studie mit der wichtigsten Plattform noch gar nicht beschäftigt: Facebook. Denn noch viel mehr als bei der Suchmaschine Google spielt bei Facebook die Personalisierung eine zentrale Rolle. Also dass Inhalte nach den Interessen und den sozialen Beziehungen der NutzerInnen algorithmisch ausgewählt werden. Bei Facebook gehört es zum Markenkern, dass man sich innerhalb vertrauter Netzwerke bewegt, die eigene Interessen und Meinungen eher teilen. Trotzdem ist nach wie vor nicht klar, wie der Facebook-Algorithmus Inhalte gewichtet – und welche er aussortiert.

Im Gegensatz zu Google kann man Filterblasen bei Facebook quasi nicht erforschen

Katharina Zweig sagt, dass es im ­Gegensatz zu Google bei Facebook aber nicht so einfach möglich sei, Personalisierung zu erforschen. „Die Testpersonen müssten dazu entweder gleich ihren Log-in zur Verfügung stellen oder aber Screenshots von ihrer Timeline schicken“, erklärt die Wissenschaftlerin. „Das wird niemand machen.“

Zweig und ihr Team haben es daher anders versucht: Über eine Reihe von selbstgemachten Fake-Accounts wollten sie eine repräsentative Testgruppe simulieren. Das wiederum scheiterte aber an der strikten Identitätsüberprüfung von Facebook. „Die wollten dann gleich, dass wir die Fake-Accounts mit Telefonnummern bestätigen.“

Und so ist Facebook, die wahrscheinlich wichtigste Plattform, wenn es um Filterblasen geht, kaum zu erforschen. Natürlich hat der Konzern kein Interesse daran, seinen Algorithmus preiszugeben. Aus unternehmerischer Sicht wäre das so, als würde eine Sterne­köchin ihre Rezepte an die Konkurrenz verteilen.

Und es gibt noch einen weiteren Grund: Solange niemand weiß, wie der Algorithmus genau arbeitet, ist es schwierig, Facebook zu regulieren.

Allerdings steht das Unternehmen immer mehr unter Druck. Es hat kein Interesse daran, als Plattform für rechte Trolle und Populismus zu gelten – oder als das Netzwerk, das den politischen Diskurs kaputtgemacht hat. Deswegen verkündet Facebook auch immer mal wieder, dass es den Algorithmus in dieser oder jener Weise anpassen will. Zuletzt hieß es aus Kalifornien, dass bald persönliche Empfehlungen von engen FreundInnen stärker gewichtet würden als Posts von Nachrichtenseiten. Wie das gegen Filterblasen helfen soll, ist ungewiss – das Gegenteil müsste der Fall sein.

Vielfalt sicherstellen

Allerdings ist klar: Facebook will sich als transparent präsentieren, ohne Betriebsgeheimnisse preiszugeben. Und genau dort sehen die deutschen Landesmedienanstalten und die ForscherInnen beim Projekt „#Datenspende“ eine Chance.

Die Medienanstalten sind deshalb interessiert, weil sie dafür zuständig sind, Medienvielfalt sicherzustellen. Früher ging das via Zuteilung von TV-Sendeplätzen – heute spielen die sogenannten Intermediären eine große Rolle: Google, Facebook, Instagram, YouTube – keine Medien, keine Quellen, sondern Informationshändler mit großer Macht. Über die es aber zu wenig Wissen gibt, sagt Anja Zimmer, Direktorin der Landesmedienanstalt Berlin-Brandenburg (MABB). „Dieses Wissen liegt im Moment zu großen Teilen bei den Intermediären. Das ist ein gravierendes Hindernis für die Forschung, aber auch für die Regulierung.“

Die MABB berät daher seit Neuestem in ihrer „Data Access Initiative“ darüber, wie man die Intermediären davon überzeugt, sich anzapfen zu lassen. „Wir fragen uns, wie eine Regulierung aussehen kann, die gleichzeitig Transparenz und notwendigen Datenschutz gewährleistet“, sagt Zimmer.

Netzwerkforscherin Zweig findet, dass das im Interesse von Facebook sein müsse. „Das wäre ein Win-win für beide Seiten, denn dann müsste man nicht mehr an ihr Geschäftsgeheimnis ran.“ Dazu müsste sich Facebook jetzt nur noch bereit erklären. In der Zwischenzeit gilt immerhin schon mal die gute Nachricht: Wer Google nutzt, ist weitgehend sicher davor, in eine Diskursnische gesaugt zu werden. Was alle anderen Plattformen angeht, ist gesunder Argwohn weiter angemessen.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

3 Kommentare

 / 
  • "Wer Google nutzt, ist weitgehend sicher davor, in eine Diskursnische gesaugt zu werden"

     

    Kann man aus der Versuchsanordnung nicht herleiten.

     

    Da wäre sowas wie "Kochbuch Mann Anfänger" lohnender, manuell eingetippt im Android-Phone (Google-Suche), in der exakt gleichen Reihenfolge und Schreibweise. 3 Personen in meinem Bekanntenkreis bekamen völlig verschiedene Treffer, eine als #1 eine Seite mit Sexspielzeug, eine was anderes, eine tatsächlich Kochbücher.

     

    Zur Methode: Da alle Tester das gleiche Spezialplugin installiert hatten, waren sie für Googles Automaten auf 100 km zu erkennen. Das alleine reicht schon, und wenn die alle im selben Takt die selben 16 Begriffe funken ... Für Google ist es extrem wichtig, solche Robotersuchen zu erkennen, denn sie versauen ihnen die Relevanz und damit die Datenqualität, und Datenschrott verkauft sich schlecht. Man könnte Google richtig schaden und sich gleichzeitig gegen Profiling schützen, zumindest, was die Suchmaschine betrifft. So einfach ist das nicht. Bin daher sicher, sie erkennen es. Google hat zum Profiling viel mehr Daten als nur die Suchbegriffe - angefangen von eingebetteten Google-Fonts oder -Helferbibliotheken in nahezu allen Seiten, hat vermutlich die Mehrheit der Tester Android-Handys - die sind zumindest zu Hause im selben WLAN und damit für Google zuordenbar. Über die Verknüpfung wirds erst knackig.

     

    Schließlich hat Google laut Testbericht (Seite 10) Ausländer! erkannt und diesen Testern deutlich abweichende Treffer geliefert, was sich die AutorInnen der Studie nicht erklären können. Ja und nu? Vielleicht sollten sie sich mal mit der EFF und Data-Mining-Leuten in Verbindung setzen. Außerdem ist das ein anderes Fazit der Studie.

  • Die Filterblase existiert!

    Sie ist "nach oben" hin größer, weil wir schon alle drin sind.

    Ich hatte letztens zum ersten Mal "farbige" Suchergebnisse bei Facebook...

    D.h. Menschen anderer Hautfarbe kommen bei mir auf Google, Facebook &Co. so gut wie nie vor...

    Das mag an meinen "weißen" Likes liegen, was ich aber nicht glaube.

    Wenn man drin steckt, kann man das schlecht von außen beurteilen.

    Dort sollte man ansetzen.

     

    #WhiteBubble #FilterBlase #RaceBubble

    #FBRacism? #FBRassismus?

  • Naja, meiner Ansicht ist die Filterblase das was viele Journalisten sich auf FB und Twitter erschaffen haben. Deshalb diese hysterische Berichterstattung über manche Ereignisse ud die Verwunderung über die Ergebnisse von Wahlen.

     

    Da ich selbst FB nicht nutze kann ich nur von Twitter sprechen und dort wird sich auf Trends und die eigene Timeline fokusiert, dabei ist das nur ein Bruchteil der Kommunikation auf Twitter. Und tatsächlich ist Twitter nicht mal im Ansatz wirklich ein Medium was als vollwertiges Recherchegrundlage dienen sollte. Aber seit Twitter in der Tagesschau gelandet ist wundert mich nichts mehr und wenn man liest wie Journalisten den Begriff Filterblase, hauptsächlich als Kampfbegriff gegen die Personen, deren Meinung sie nicht teilen, benutzen ist klar das etwas verkehrt läuft.

     

    Eine Filterblase ist aber auch etwas völlig normales, nur sollte man in der Lage sein diese auch zu erkennen. Und die Menschen die eine andere Meinung haben als die eigene, haben eine andere Filterblase.

     

    Aber was ist das Problem damit?