piwik no script img

Medientheoretiker über Filter Bubbles„Was ich nicht finde, fehlt mir nicht“

Jeder Nutzer bekommt bei Google personalisierte Treffer angezeigt. Der Medientheoretiker Felix Stalder fragt sich, woher das Unternehmen weiß, was das Beste für einen ist.

Unterschiedliche Nutzer erhalten von Google verschiedene Ergebnisse – trotz des selben Suchbegriffs: Filter Bubbles. Bild: benicce / photocase.com
Interview von Svenja Bergt

sonntaz: Herr Stalder, was haben Sie zuletzt gegoogelt?

Felix Stalder: Oh je, das mache ich so oft, das fällt mir kaum mehr auf. Ich glaube, das Letzte war eine Suche nach einem Text des französischen Philosophen Georges Simondon.

Und kam ein brauchbares Ergebnis heraus?

Ja. Wie so oft kam zuoberst Wikipedia, und da war der Text verlinkt.

Haben Sie bei dieser Suche gemerkt, dass Google seine Suchergebnisse personalisiert, unterschiedliche Nutzer also mit demselben Suchbegriff verschiedene Ergebnisse erhalten?

Konkret bei der Suche nicht. Aber so eine Personalisierung ist für den Einzelnen ja auch fast nicht zu bemerken. Schließlich weiß man in der Regel nicht, wie die Suchergebnisse aussehen würden, wären sie nicht personalisiert oder wenn Google andere Informationen über einen gespeichert hätte.

Sie haben in einem Experiment mit extra dafür angelegten Google-Konten untersucht, wie stark sich die Ergebnisse unterscheiden und im Fazit geschrieben, das Ausmaß sei „überraschend“. Wieso?

Weil es gezeigt hat, dass diese ursprüngliche Idee, dass es so etwas wie allgemeines Ranking gibt, wo das Wichtigste oben steht und die weniger wichtigen Sachen weiter unten, kaum mehr stimmt. Was wir finden, hängt in ganz großem Maße von unserer Person ab – oder von dem, wofür uns Google hält. Das fängt bei dem Standort an, von dem wir suchen, unseren Spracheinstellungen und geht weiter über das, was wir in der Vergangenheit gesucht haben, bis hin zu den Informationen, die Google aus seinen anderen Diensten wie etwa Gmail und Adsense über uns gesammelt hat.

FELIX STALDER

44, beschäftigt sich als Professor für Digitale Kultur an der Zürcher Hochschule der Künste mit politischen, ökonomischen und kulturellen Dimensionen der Wissengesellschaft. Er ist am Wiener World Information Institute tätig und twittert als @stalfel.

Der Autor Eli Pariser, auf den der Begriff der Filter Bubble zurückgeht, bringt ein Beispiel, in dem der eine Benutzer auf Google das Stichwort „BP“ suchte und Nachrichten zu Investitionsmöglichkeiten erhielt, während ein anderer Nutzer mit derselben Suchanfrage Informationen über die von der BP-Bohrplattform „Deepwater Horizon“ verursachte Ölpest bekam. Ist das nicht ein sehr extremes Beispiel?

Das ist sicher extrem. Aber ich denke, es ist in der Tendenz nicht ungewöhnlich, weil es in der Logik der Personalisierung die Nutzer in Gruppen einteilt. Und dann wird gefragt: Mit welchen Augen sieht diese Gruppe die Welt? Denen eines Investors oder denen eines Umweltschützers?

Google sagt, sie wollen nur die besten Ergebnisse für den Nutzer.

Das sagen auch Eltern zu ihren Kindern, und trotzdem will niemand ewig Kind bleiben. Woher weiß Google denn im Voraus, was das Beste ist? Weiß ich als Nutzer das überhaupt, wenn ich suche? Das Problem ist: Was ich nicht finde, das fehlt mir nicht. Es kommt immer etwas Passendes, und ob es noch etwas Besseres gibt, das weiß ich ja gar nicht. Insofern lässt sich individuell gar nicht sagen, ob die Ergebnisse so toll sind. Dazu kommt eine Art sich selbst erfüllende Prophezeiung: Nur aus dem Grund, dass etwas oben in den Suchergebnissen auftaucht, schließen viele auf eine hohe Relevanz. Und klicken drauf. Und deshalb taucht es wieder oben in den Suchergebnissen auf.

Bild: taz
Im Interview: sonntaz

Diesen und viele weitere spannende Texte lesen Sie in der sonntaz vom 16./17. Februar 2013. Am Kiosk, eKiosk oder gleich im Wochenendabo. Und für Fans und Freunde: facebook.com/sonntaz

Zumindest bei Google können Nutzer selbst die Personalisierung abschwächen, indem sie etwa Cookies und den Browserverlauf löschen.

Ja, das hilft zumindest zum Teil. Aber es wird den Nutzern immer unattraktiver gemacht. Google, Facebook und andere geben einem möglichst viele Gründe, immer eingeloggt zu sein. Dazu kommt: Die Personalisierung ist nicht nur falsch. Prinzipiell soll mir eine Suchmaschine aus 500.000 möglichen Resultaten die fünf rausgeben, die für mich relevant sind. Google und Facebook sind ja nicht von außen aufgedrängte bösartige Dienste, die ich zwangsweise nutzen muss. Sie sind in vielerlei Hinsicht wirklich nützlich. Aber mit dem Dienst, den der User zu nutzen glaubt, kommen eben noch andere Sachen mit, die für ihn nicht sichtbar sind, wie diese Art goldener Informationskäfig.

Also ist das Problem vor allem, dass der Nutzer gar nicht weiß, was da passiert.

Genau, die Mechanismen sind völlig intransparent. Und die Kunden von Google, aber auch von Facebook, das mit ähnlichen Konzepten arbeitet, sind ja nicht wir, die Nutzer, sondern die Werbetreibenden. Die Personalisierung dient nicht nur dazu, die Welt für den Nutzer zu personalisieren, sondern den Nutzer selbst zu personalisieren. So kann Werbung passgenau präsentiert werden. Jede Suche ist also eine doppelte Suche: Der Nutzer sucht nach Information und der Werbetreibende nach Kunden oder potenziell beeinflussbaren Subjekten.

Das werden die Nutzer nicht gern hören.

Na ja, Google sagt, es ist eine Win-win-Situation. Werbung sei ja auch nützliche Information. Aber Werbung ist genau nicht Information, sondern der Versuch, Verhalten zu beeinflussen.

Und welchen Einfluss hat die Personalisierung auf eine Gesellschaft?

Wir haben eine Vielzahl von Mechanismen, die uns erlauben, das, was wir von der Welt wahrnehmen, zu filtern. Das ist nicht grundsätzlich neu, wir können die Welt immer nur selektiv wahrnehmen, aber diese Filter werden immer feiner und immer umfassender. Und dadurch nimmt der gesamtgesellschaftliche Vorrat an geteiltem Wissen ab. Wir haben immer mehr Menschen mit ganz viel Nischenwissen und ganz viel Spezialistentum. Die Piratenpartei ist ein gutes Beispiel dafür. Deren Mitglieder sind unglaublich communityorientiert und haben wenig Interesse, mit der Allgemeinheit, der Öffentlichkeit im alten Sinne, zu kommunizieren. Die verstehen das Internet ja eh nicht, ist die Haltung.

Und wieso ist das jetzt problematisch?

Es ist dann problematisch, wenn sie nicht mehr nur in einzelnen Bereichen – etwa der Berufswelt – normal ist, sondern überall.

Warum?

Weil verschiedene Gruppen mit ihrer jeweils eigenen Sichtweise auf die Welt sich dann zunehmend einander nicht mehr verständlich machen können. Wir haben das beispielsweise gerade in den USA gesehen, wo die Republikaner total erstaunt waren, die Wahlen zu verlieren, weil sie in einer Welt gelebt haben, in der alle Anzeichen darauf hingedeutet haben, dass sie die Wahlen gewinnen werden. Sie sahen nur noch die Welt, die sie sehen wollten. Wenn man da auf politischer Ebene agieren, Kompromisse finden muss, dann ist diese eingeschränkte Weltsicht ein echtes Hindernis.

Sehen Sie eine Möglichkeit, das wieder aufzufangen?

Notwendig wäre eine stärkere Auseinandersetzung mit der Realität, die von allen gemacht wird. Am Ende drang die Wahlniederlage auch in die stärkste Filter Bubble durch und hat einen Nachdenkprozess ausgelöst. Ein Mittel, dieses Engagement zu erweitern, wäre etwa durch mehr Partizipation. Mit mehr Elementen der direkten Demokratie, Volksentscheiden etwa, kann man den Diskurs wieder zurück auf eine gemeinschaftliche Ebene zurückbringen und die Menschen aus ihrem Kokon herausholen.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Themen #Google
Mehr zum Thema

5 Kommentare

 / 
  • KR
    Kevin R.

    Der Artikel spricht mir aus der Seele, vielen Dank! Meine Vorredner bestätigen leider nur Stalders Analyse:

     

    "Wir haben immer mehr Menschen mit ganz viel Nischenwissen und ganz viel Spezialistentum."

     

    "Und wieso ist das jetzt problematisch?"

     

    "Weil verschiedene Gruppen mit ihrer jeweils eigenen Sichtweise auf die Welt sich dann zunehmend einander nicht mehr verständlich machen können. ... Notwendig wäre eine stärkere Auseinandersetzung mit der Realität, die von allen gemacht wird."

  • N
    Nova

    @ Mediennutzer, Sobiesky und andere verkappte Lobbyisten:

    Es geht in dem Artikel explizit nicht um Vorteile, sondern Nachteile der Filterblase, die der Mix aus Algorhithmen und persönlicher Datenauswertung per Cookies etc. erzeugt - so angenehm das bei Buchempfehlungen sein mag, so indiskutabel ist dieser Effekt bei der Recherche und dem Nutzen von Suchmaschinen zwecks Meinungsbildung oder individueller politischer Handlungsoptionen.

    Grob gesagt, wenn beispielsweise mögliche Mitinvestoren oder Entscheider bei einem Projekt, das sozial oder ökologisch bedenkliche Züge trägt, bei ihren Recherchen lediglich die Investorensichtweise von Google angezeigt bekommen, macht dies wortwörtlich blind für eine gesamtgesellschaftliche und berechtigt kritische Sichtweise. Damit trägt Google seinen kleinen oder größeren Teil dazu bei, daß selbstgerechte einbahnstraßenähnliche Weltbilder profitorientierter Klientel 'ich hab den größeren...(Geldbeutel), also hab ich Recht' auch bloß keine Risse bekommt. Insofern hat diese Anpassung von Suchergebnissen weitläufig negative Aspekte und fördert ein Ständeprinzip - jeder kreist sozusagen in seiner eigenen Suppe. Keine empfehlenswerte Strategie, wenn man für eine offene, durchmischte Gesellschaft mit prinzipiell dem selben Informationszugang für Alle plädiert - aber das ist wohl sowieso nicht Jan Sobieskys Weltsicht, siehe obiger Kommentar:

    "Mich dünkt, die inflationäre Zunahme der Zahl an "Experten", "Beaufttagten" usw. ist eine Folge des linken Bildungsexoperiments: Masse statt Klasse."

    Wer schwingt sich hier auf, in selbstauferlegtem elitären Habitus 'Masse' abzukanzeln? Grusel.

  • M
    Mediennutzer

    Mein Gott, der Typ hätte mal auch besser recherchieren können:

     

    - http://www.golem.de/news/imho-warum-googles-datensammeln-gar-nicht-so-boese-ist-1203-90241.html

     

    - http://de.wikipedia.org/wiki/Assoziationsanalyse

     

    - http://www.taz.de/!108139/

     

    Anstatt einfach rumzublubbern das er gar nicht weiß und versteht was da passiert.

  • D
    dubstep

    Es gibt ja genügend Alternativen. ixquick zum Beispiel, eine Suchmaschine, die unsere Privatsphäre respektiert. Besonders interessant ist die deuzentrale Websuche Yeci. Wer google nutzen möchte kann dies auch uneingeloggt über einen Torserver tun.

     

    Es sind ja oft gerade die nicht beabsichtigten Treffer, eben zufällige Ergebnisse nach denen man nicht direkt gesucht hat, die nicht selten die interessantesten sind.

  • JS
    Jan Sobiesky

    Na ja - Medien"theoretiker", wie der Titel schon sagt. Gibt es eigentlich auch "Experten" für Experten?. Mich dünkt, die inflationäre Zunahme der Zahl an "Experten", "Beaufttagten" usw. ist eine Folge des linken Bildungsexoperiments: Masse statt Klasse.

     

    Das Interview hätte ich Ihnen als Laie auch geben können - ich bin zwar kein "Experte" aber ganz sicher auch kein "Theoretiker" sondern Praktiker.