piwik no script img

Sonntaz-Interview mit Eli Pariser"Konzerne geben vor, was wir sehen"

Bestimmte Informationen werden im Netz weniger verteilt. Der Netzaktivist Eli Pariser über gefilterte Meinungen und die Strategie von Google und Facebook.

Google und Facebook: Sie bestärken Meinungen statt neue zu präsentieren. Bild: dpa
Johannes Gernert
Interview von Johannes Gernert

sonntaz: Herr Pariser, Facebook und Google liefern uns Nachrichten oder Freundesklatsch maßgeschneidert: Für jede genau das, was sie interessieren dürfte. Sie sagen in Ihrem Buch "Filter Bubble", diese Personalisierung gefährde unsere Demokratie. Wie das denn?

Eli Pariser: Es ist doch die Frage, wer die Kontrolle hat. Und das sind Unternehmen wie Facebook oder Google, die sich in erster Linie ihren Werbekunden verpflichtet fühlen. Statt die Menschen also zu ermächtigen, sich ihren eigenen Nachrichtenmix zusammenzustellen, entscheiden sie für diese Menschen, was die sehen können und was nicht.

Sie sprechen von einer "Filter Bubble", einer Filterblase, in der wir gefangen sind.

Die "Filter Bubble" ist ein persönliches Informationsuniversum, in der wir in unserem Onlineleben immer stärker hineingezogen werden. Aus den Informationen über uns versuchen die Unternehmen zu schließen, was wir sehen wollen. Das Hauptziel fast aller großen Onlinekonzerne ist es, so viele Daten über uns zu sammeln wie möglich, um uns dann Werbebanner vorzusetzen, auf die wir mit hoher Wahrscheinlichkeit klicken.

Im Deutschen sagen manche "Hallraum". So wie wir ins Netz rufen - so wie wir suchen, posten, sammeln -, hallt es zurück. Nach dem Motto: Wer sich für dieses Buch interessiert hat, der sollte sich das hier ansehen.

Genau. Das Problem aber ist, dass wir gar nicht wissen, wie diese Blase für uns konstruiert wird. Wir wissen also nicht, was wir verpassen. Und manchmal wissen wir noch nicht einmal, dass die Inhalte überhaupt so stark ausgesiebt werden.

Wie funktioniert das?

Facebooks Newsfeed, die Nachrichten, die jeder über Freunde und die Welt erhält, zeigt unterschiedlichen Menschen ganz unterschiedliche Dinge. Was man angeboten bekommt, hängt davon ab, auf welche Inhalte man vorher geklickt hat mit wem man befreundet ist, wie eng, und wie sich dieses Verhalten auf Facebooks Gewinn auswirkt. Eine der verblüffendsten Geschichten hat mir eine Führungskraft des Konzerns erzählt. Sie wissen bei Facebook: Wenn du eine 30 Jahre alte Frau bist und deine Freunde Bilder von sich veröffentlichen, ist die Wahrscheinlichkeit hoch, dass du das auch tust. Wenn du das tust, werden deine männlichen Freunde diese Bilder wahrscheinlich kommentieren. Und wenn sie das tun, steigt die Wahrscheinlichkeit, dass sie Facebook in den kommenden Monaten treu bleiben.

Und wie nutzt Facebook dieses Wissen?

Sie zäumen das Pferd von hinten auf und sagen: Eli nutzt Facebook noch ein bisschen zu wenig. Lass uns doch ein paar Freundinnen von ihm finden, denen Fotos von ihren Freundinnen zeigen, sodass Eli das kommentieren kann und mehr Zeit auf Facebook verbringt.

Eli Pariser

31 Jahre alt, ist politischer Aktivist, Journalist und Vorstandschef der Plattform moveon.org, die mit ihren Anti-Bush-Kampagnen bekannt wurde.

Sein Buch "Filter Bubble. Wie wir im Internet entmündigt werden" erscheint am 27. Februar im Hanser Verlag. Die Seite zum Buch: thefilterbubble.com

Wissen die Programmierer so genau, was sie tun - bei mehr als 800 Millionen Facebook-Nutzern und komplexesten Algorithmen?

Eines meiner verstörendsten Gespräche hatte ich mit einem Google-Programmierer, der für solche Prozesse zuständig ist. Er gestand im Grunde, dass er auch nicht immer genau weiß, warum Google einen bestimmten Algorithmus in einem bestimmten Moment genau so ausrichtet. Die Codezeilen sind viel zu lang, die Datenbanken zu riesig, sodass ein einzelner Mensch das kaum fassen kann. Das wäre ja alles gar nicht so schlimm, wenn die Entscheidungen, die sie treffen, nicht so extrem wichtig wären.

Das sind auch ethische Fragen. Denken die Programmierer darüber nach? Sie haben ja für Ihr Buch mit einigen gesprochen.

Empfohlener externer Inhalt

Wir würden Ihnen hier gerne einen externen Inhalt zeigen. Sie entscheiden, ob sie dieses Element auch sehen wollen:

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung

Sie denken nicht genug über die ethischen Konsequenzen nach. Oft sind sie sich ihrer Verantwortung gar nicht bewusst. Wir sind uns alle einig, dass der Redakteur einer Zeitung ethische Verantwortung trägt für die Geschichten, die auf seiner Seite oder auf dem Titel erscheinen. Google betrachtet seine Suchfunktion nicht als eine ähnlich verantwortungsvolle Aufgabe. Ich habe beispielsweise gefragt: Wenn ich ein Verschwörungstheoretiker bin, der sich für 9/11 interessiert, was ist dann euer Job? Besteht er darin, mir möglichst neue abstruse Informationen zu diesen Theorien zu liefern? Oder wäre es besser, ich bekäme Material, das meinen Ansichten widerspricht, mich aber aufklärt. Da fiel ihnen erst mal gar nichts ein.

Die sehen Zahlen und keine Inhalte?

Google behauptet ja, den Leuten geben zu wollen, was die wollen. Das klingt erst mal gut. Aber es ist viel komplizierter. Die Leute wollen Kuchen essen und dünn bleiben. Zwei echte Bedürfnisse, die in entgegengesetzte Richtungen weisen. Menschen wollen Sachen lesen, die sie in ihren Meinungen bestärken. Gleichzeitig wollen sie etwas über die Welt erfahren. Google konzentriert sich ein bisschen sehr auf das erste Bedürfnis: Es bestärkt Meinungen, statt neue zu präsentieren.

Foto: taz
Im Interview: Sonntaz

Diesen und viele andere spannende Texte lesen Sie in der sonntaz vom 11./12. Februar. Am Kiosk, eKiosk und im Wochenendabo. Für Fans und Freunde: facebook.com/sonntaz

Und manchmal weiß man selbst gar nicht, was man will.

Man weiß vor allem nicht, was einem vorenthalten wird, was man verpasst.

Wie könnte die "Filter Bubble" die Wahlen in den USA beeinflussen?

Ich stellte irgendwann fest, dass Facebook mir vor allem Beiträge von Freunden zeigten, die politisch meiner Meinung waren. Facebook hatte einfach gemerkt, dass ich mit meinen politischen Freunden mehr interagiere. Die Beiträge der anderen tauchten kaum noch auf, obwohl ich gerade von ihnen Neues erfahren wollte.

Wie verändert das eine Demokratie?

Eine Demokratie erfordert Organisation und dass man sich um eine gemeinsame Sache versammelt. Aber auch die Fähigkeit, Differenzen zu überbrücken, um Entscheidungen zu ringen. Mit dieser Personalisierung wird es wirklich schwierig, andere Perspektiven einzunehmen, nicht nur im eigenen Saft zu schmoren. Das ist gefährlich.

Bevorzugt das Barack Obama oder Mitt Romney?

Schwierige Frage. Nehmen Sie lieber den Klimawandel, eine unverrückbare Tatsache. In einer durchpersonalisierten Filterblase wäre es aber einem Großteil der Amerikaner möglich, nicht daran zu glauben, ihr Leben nicht zu ändern, weil sie die Wahrheit gar nicht wahrnehmen.

Wenn Facebook wollte, könnte es den Newsfeed politisch manipulieren?

Ich denke nicht, dass Facebook das tut. Aber es könnte. In anderen Ländern geschieht das. Es gibt ein Netzwerk in China, das ähnlich funktioniert wie Facebook. Wenn man da bestimmte politische Begriffe eingibt, erscheinen nur leere Boxen. Das zeigt, wie groß die öffentliche Verantwortung ist, die solche Firmen tragen.

Was erwarten Sie von den Regierungen, etwa in den USA?

Die Gesetze zum Erfassen von personenbezogenen Daten sind in den USA vierzig Jahre alt. Sie sind nicht gemacht für eine Welt, in der der Klick auf eine Website das, was man später auf einer anderen Website sieht, beeinflussen kann.

Für Facebook schlagen Sie einen "Important"-Button vor statt des "Like"-Buttons. "Wichtig" statt "Gefällt mir".

Der "Like"-Button bestimmt die Art, wie Informationen weitergegeben werden. Es ist einfach, auf die Nachricht "Habe gerade den Marathon geschafft" zu klicken, aber nicht ganz so einfach, zu "Genozid in Darfur" "Like" zu sagen. Bestimmte Informationen werden also seltener verteilt. Wenn man statt "Gefällt mir" "Das ist wichtig" klicken könnte, würde sich die Informationsverteilung ändern.

Kennen Sie die Studie des Wissenschaftlers Eytan Bakshy, der Ihnen widerspricht?

Seine zentrale Erkenntnis ist ja richtig. Die Leute, die man weniger gut kennt, bringen die neuen Informationen ins eigene Netzwerk. Facebooks Algorithmus allerdings, der Newsfeed, konzentriert sich ja gerade darauf, die Leute zu bevorzugen, die man extrem gut kennt. Insofern stützt die Studie sogar meine These.

Facebook präsentiert die Studie trotzdem wie einen Gegenbeweis gegen die "Filter Bubble". Das Gros der Informationen stamme von entfernten Bekannten.

Ich lese mich da gerade noch durch. Aber es ist ja auch so: Facebook muss für solche Forschung Zugang zu den Datenbanken genehmigen. Die werden das nicht tun, wenn sie sich nicht ein vernünftiges Ergebnis erhoffen. Ich fände es großartig, wenn Facebook seine Datenbanken auch den Leuten öffnen würde, die sich kritisch mit Facebook auseinandersetzen. Das ist bisher aber eher, als ob man im Irak als embedded journalist unterwegs ist. Die dürfen auch keine negativen Bilder verbreiten. Das sind embedded researchers. Kritische Wissenschaftler, die ich kenne, haben so einen Zugang bisher nicht erhalten.

Haben Sie manchmal Verfolgungsangst, seit Sie durch Ihre Recherchen erfahren haben, wo überall Daten abgesaugt werden?

In meinem Buch versuche ich, den Leuten das alles so zu erklären, dass sie informierter surfen können. Ich nehme einfach mal einen anderen Browser und schaue, ob sich die Ergebnisse der Suchen ändern. Man muss die Kontrolle zurückgewinnen oder Dienste nutzen, die sie einem geben. Twitter etwa, ganz anders als Facebook, sortiert keine Tweets aus. Man kann Google verwenden, aber die Dinge noch mal gegenchecken, anderswo. Man kann bei Google auch die personalisierte Suche ausstellen.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

6 Kommentare

 / 
  • QI
    qe (not impressed)

    @Klaas: die Personalisierung ist vielleicht bewusst begrenzt, wie Singhal schreibt, aber die Frage bleibt doch, wer die Kontrolle haben sollte.

     

    Die Idee bei Google und co., jeder wolle diese Personalisierung in irgendeiner Form, ist schon falsch. Die ganze Argumentation ist doch bogus und viel zu schwach als Rechtfertigung für die Bevormundung.

     

    Wenn ich etwas in meiner Nähe will, gebe ich das ein. Wenn ich wissen will, wieviel Karten für ein Spiel kosten, suche ich gezielt danach. Wenn ich "Jaguar", das Tier und nicht das Auto suche, dann gebe ich das halt mit an oder klicke nicht auf die anderen Ergebnisse.

     

    Die Philosophie und die Arroganz von Google, besser als du selbst erkennen zu wollen, was du gerade willst, ist mehr als zweifelhaft. Conputersysteme sollen nach möglichst durchschaubaren Prinzipien funktionieren, statt mit- und vorzudenken. Ganz schlechter Trend.

  • KZ
    Kritischer Zeitgenosse

    Das werbefinanzierte Unternehmen ihre Werbung gezielt platzieren, ist klar. Dazu gehört oft, alles darauf aufzubauen, klicks zu erzielen. Bleibt die Frage, warum so unglaublich viele Menschen sich diesem aus meiner Sicht leicht durchschaubaren "Diktat" unterwerfen. Diesen Facebookwahn habe ich noch nie verstanden.

     

    Es gibt keinen Zwang die Bildzeitung als Hauptinformationsquelle zu nutzen, und es gibt keinen Zwang, Google ständig zu nutzen. Wer intelligent handeln will, nutzt auch andere Suchen. Und wie Dr. Satori richtig anmerkte, nutzt man diese Unangemeldet, ohne Cookies. Google zumindest speichert bei mir keine Cookies, aber ich gebe zu, ich lösche selten alle der ohnehin begrenzt gespeicherten Cookies. In Zukunft öfter.

  • H
    Hans

    Jo, immer sind Google und Konsorten schuld.

    Internetidioten bekommen halt das, was man ihnen vorsetzt. Es gab in den 90ern etliche Versuche deutsche SUMAS zu etablieren. Anscheinend sind Deutsche aber zu blöd Alternativen zu nutzen oder selbst zu gründen, damals wie heute. Das ist wie über Tüten für Hundekacke zu philosophieren, statt die Ursache zu beseitigen. Es fehlt an Medienkompetenz, an politischem Bewußtsein und Handlungskompetenz, und das an vielen Ecken. Moin, moin.

  • DS
    Dr. Satori

    Die Aussagen in diesem Artikel sind bedingt richtig. Freilich zeigt einem die Suchmaschine Google zuerst die Ergebnisse einer Suchanfrage, die eher auf den Fragenden zugeschnitten sind und bedient sich hierbei empirischer Werte, die in einer Datenbank erfasst worden sind. Dem ist aber nur so, wenn ich mich mit meinem Googlekonto anmelde und dann eine Suchanfrage stelle. Das sollte man wissen! Google ich beispielsweise nach meinem Namen "Dr. Satori" und bin mit meinem Googlekonto abgemeldet, erhalte ich eine völlig andere Rangfolge der Suchergebnisse, wie wenn ich abgemeldet bin. Ebenso verändern sich auch die Suchergebnisse unter Google, wenn ich alle Cookies lösche. Möchte man unter Google ein "filterfreies, unpersonalisierte Suchergebnis" sehen, vom Googlekonto abmelden und alle Cookies löschen. Es ist schon interessant zu beobachten, wie sich das Ergebnis dann ändert.

     

    Facebook ist freilich ein Sonderfall, denn dort kann unangemeldet quasi nichts 'unternommen' werden. Noch kann Google 'unpersonalisiert' genutzt werden - bei Beachtung dessen, was ich obenstehend schrieb - die Frage ist nur, wie lange noch...

  • D
    delysid

    Das einzige Problem dieses Menschen scheint es zu sein, dass Google und Facebook sich nicht als politische Instanzen einsetzen lassen, um Ansichten zu verbreiten welche er persönlich als "unumstößliche Wahrheit" deklariert.

  • KF
    Klaas Flechsig

    Die Personalisierung der Suchergebnisse und Anzeigen bei Google ist bewusst algorithmisch begrenzt. Der User sieht daher keineswegs nur Inhalte, die er schon kennt und mag. Insofern hinkt die Theorie der Filter-Bubble; die Wirklichkeit sieht anders aus. Amit Singhal hat dazu im November einen interessanten Blogpost veröffentlicht: http://goo.gl/VpXt6