piwik no script img

„Filterblasen“ bei der InternetnutzungUngesunde Infohäppchen

Wer Google oder Facebook nutzt, landet in der Filter-Blase: vermeintlich Unliebsames wird herausgefiltert. Es gibt immer mehr vom Gleichen.

Wohin man schaut, alles ist ähnlich. Foto: dpa

Berlin taz | Den Suchbegriff „Egypt“ bei Google eingeben. Und schauen, was rauskommt. Nachrichten über die Situation vor Ort? Oder Reisetipps mit Bildern von Dünen und Kamelen?

Das ist ein Beispiel, mit dem der Autor Eli Pariser 2011 den Begriff der Filter Bubble prägte. Der Gedanke: Zahlreiche Web-Angebote packen den Nutzer in eine Blase. Sie setzen ihm die Happen vor, von denen der Dienst meint, dass der Nutzer sie haben will. Dafür enthalten sie ihm andere, vermeintlich ungewollte Stücke vor.

Das klingt erst mal nach Service. Schließlich ist quasi der Arbeitsauftrag eines Nutzers an die Suchmaschine: Zeig mir die relevanten Links zum Suchwort oben auf einer Liste an, die weniger relevanten unten. Das Problem ist: Die Frage „Was ist relevant“ beantwortet die Suchmaschine selbst. Und auf einer Basis, die für den Nutzer nicht transparent ist.

Als Pariser vor vier Jahren den Begriff der Filter Bubble prägte, ging es noch primär um Informationen. Nachrichten, Google, Facebook, Yahoo. Doch die Blase wird größer. Heute gibt es kaum noch einen kommerzialisierten Bereich im Netz, der ohne sie auskommt. Amazon praktiziert seit Jahren sehr erfolgreich eine Filter Bubble bei Waren, die meisten Onlineshops haben nachgezogen.

Vergangenheit bestimmt Zukunft

Streamingdienste orientieren sich an Hörgewohnheiten, Videodienste an den in der Vergangenheit präferierten Serien und Genres. App-Stores schlagen dem Nutzer Anwendungen vor, die er noch brauchen könnte, Hotelvermittler werden einem Urlauber, der stets mit seiner Familie nach Italien fährt, kaum einen Trip zu zweit nach Skandinavien vorschlagen. Die Devise: Immer mehr vom Gleichen. Pariser sprach damals von „Information Junkfood“. Eine unausgewogene Ernährung statt ein bisschen von allem. Auch dem, was einem vielleicht nicht so schmeckt.

Die Filter Bubble basiert auf zwei Mechanismen, von denen jeder für sich schon problematisch genug ist. Das eine ist das massenhafte Sammeln persönlicher Informationen über die Nutzer. Wer sich ohne spezielle Anonymisierungswerkzeuge im Internet bewegt, hinterlässt Spuren. Von Interessen, Vorlieben und finanzieller Situation über – mutmaßliches – Alter und Geschlecht bis hin zum Standort. Das zweite Problem: Unternehmen werten diese Daten aus und ziehen daraus Schlüsse – auf einer Basis, die der Nutzer nicht kennt.

Wie sehr sich das in der Praxis auswirken kann, zeigt nicht nur das Beispiel Ägypten. Ein Team der Carnegie Mellon University und des International Computer Science Institute untersuchten, welche Jobanzeigen Googles Werbenetzwerk seinen Nutzern präsentiert. Und fanden laut der im Frühjahr publizierten Studie heraus: Nutzer, die von Google als männlich identifiziert wurden, bekamen mit höherer Wahrscheinlichkeit hochbezahlte Führungsjobs angeboten als solche, die als weiblich identifiziert wurden.

Die Welt wird kleiner

Das muss nicht an Google liegen, schließlich können Drittanbieter von Anzeigen selbst Kriterien für Nutzer definieren, denen die Anzeigen ausgeliefert werden. Doch das ethische Problem ist das gleiche wie bei der Filter Bubble: ein Algorithmus, der auf einer für den Nutzer nicht nachvollziehbaren Datengrundlage Ergebnisse ausspuckt und ihn so beschränkt.

Und die Blase ist bereits dabei, sich auf den nächsten Bereich auszudehnen: den Haushalt. Thermostate, die automatisch nach Uhrzeiten, Wetterlagen und Schlafgewohnheiten die Wohnung heizen oder kühlen, gibt es bereits; nächster Schritt sind weitere sich vernetzende Hausgeräte. Sie verkleinern die Welt innerhalb des Filters nicht nur um Wissen, Nachrichten, Unterhaltung, Konsum. Sondern auch ganz direkt um Handlungsoptionen. Warum abends noch ausgehen, wenn doch schon die Wohnung geheizt wird? Warum Kirschjoghurt kaufen, wenn doch schon die automatische Bestellung für den Einkauf samt Erdbeerjoghurt rausgegangen ist?

Natürlich, das lässt sich alles ausstellen, ändern, ignorieren. Es lassen sich auch Browser-Cookies löschen, Anti-Tracking-Tools installieren und die Suchmaschine wechseln, um der Blase zu entfliehen. Laut dem Analyseportal Statcounter lag in Deutschland der Marktanteil des Google-Suchdienstes im Juni bei 93 Prozent.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

4 Kommentare

 / 
  • Filterblasen existieren auch in der taz bei den Kommentaren. Auch dort wird gefiltert und es tauchen i.d.R. die immer gleichen paar Kommentatoren auf.

  • Nichts von dem, was die Autorin in ihrem Artikel auflistet und beschreibt, ist neu - es ist aber sicher wichtig, das Thema Tracking im Netz nicht zu vernachlässigen. Vielmehr ist das Problem eine (wachsende?) Gruppe von Internetnutzenden, die allen Ernstes glaubt, bei Google oder Facebook handele es sich um neutrale Informationsportale oder gar gemeinnützige Stiftungen, die einzig das Wohl der Menschen im Auge hätten. Es ist nach meinem Verständnis zumutbar, bei der Recherche im Netz - wonach auch immer - sich ein wenig anzustrengen, mehrere Quellen zu nutzen, sich Zeit zu nehmen für die Zusammenhänge und auf das souveräne Denken nicht zu verzichten. Die wirkungsvollste Filterblase ist kein Algorithmus aus Mountain View, sondern sitzt im Kopf eines jeden Menschen.

  • Die Gefahr der Filterblase dürfte im Bereich der Sozialen Medien am größten sein. Zum einen haben Unternehmen wie Facebook die genausten personenbezogenen Daten des Nutzers und zum anderen haben sie gleichzeitig auch viele Daten der Freunde dieser Person. Da der Freundeskreis meist aus Menschen mit ähnlichen Werten und Ansichten besteht, ergibt sich so ein recht vollständiges Persönlichkeitsprofil des Nutzers. Um Werbung möglichst effizient zu platzieren, versucht Facebook schon lange durch genaue Auswertung der Daten die Timeline immer passgenauer auf den Nutzer zuzuschneiden. So blendet die Social Media Plattform seit einiger Zeit Meldungen von Facebook-Kontakten im News Feed systematisch aus, wenn die Personen längere Zeit nicht per Kommentare, Chat oder auch nur Gefällt mir-Button interagiert haben. Facebook trägt somit durch die immer konsequentere Personalisierung des News Feeds langfristig dazu bei, den Nutzer in seine individuelle Informationsblase einzuhüllen. Bedenklich wird es, wenn Facebook z.B. von jüngeren Nutzern tatsächlich als seriöse Nachrichtenquelle angesehen wird und sie fast ausschließlich von dort ihre Informationen über das Weltgeschehen beziehen. Sich langfristig auch als Nachrichtenkanal zu etablieren ist jedoch genau das unter anderem mit den Instant Articles verfolgte Ziel von Facebook.

    • @Deutschlandreform:

      Und abgesehen von den dadurch entstehenden Propaganda-Möglichkeiten liegt ein großes Problem in Einkommensquelle von Facebook: Um die Kunden an Werbetreibende zu verkaufen, muss Facebook dafür sorgen, dass die Kunden ständig mit Facebook beschäftigt sind (d.h. ihr "engagement" steigern).

       

      Entsprechend werden dann die Nachrichten ausgewählt: Mit dem einzigen Ziel, die von Facebook eingenommene Zeit zu steigern.

       

      Das ist dann nicht mehr „Ihr seid ja immer noch da! Abschalten!“ (Peter Lustig, Löwenzahn), sondern „bleibt dran, euer echtes Leben ist nicht so wichtig wie die nächste Werbeeinblendung!“.