piwik no script img

Psychologe Michal Kosinski„Die Filterbubble ist ein Mythos“

Haben die Methoden von Michal Kosinski den Sieg Donald Trumps ermöglicht? Und was sagen Fritten über Intelligenz? Der Psychologe im Gespräch.

„Facebook ist nicht schuld an der Filterbubble, der Mensch ist es“, sagt Kosinski Foto: photocase.de / knallgrün
Daniel Schulz
Interview von Daniel Schulz

taz.am wochenende: Herr Kosinski, sind Sie für Donald Trumps Wahlsieg verantwortlich?

Michal Kosinski: Kommen Sie, Sie wissen, dass das eine lächerliche Frage ist. Natürlich nicht.

Es gab hier in Deutschland eine Menge Diskussionen über einen Text, in dem steht, eine Firma namens Cambridge Analytica habe daran, dass Trump gewonnen hat, entscheidenden Anteil: und zwar weil sie Ihre Methode benutzte, um Daten von Facebook-Nutzern auszuwerten und so Wähler gezielt anzusprechen.

Nun, Journalisten übertreiben manchmal. Ich bin mir ziemlich sicher, dass nicht Cambridge Analytica ihm den Sieg ermöglicht hat. Will man mit Daten Wahlkämpfe gewinnen, ist das auch eine Geldfrage. Hillary Clinton hat weit mehr Geld in diese Art des Wahlkampfs gesteckt als Trump, und sie hat viel länger auf Big Data gesetzt.

Trump hat lange gesagt, er vertraue nicht auf Daten. Cambridge Analytica wurde erst im Sommer 2016 engagiert. Aber vielleicht war Clintons Wahlkampf weniger effektiv.

Wir wissen auch nicht, wie effektiv Cambridge Analytica wirklich war. Natürlich wollen die den Eindruck erwecken, sie hätten diese Wahl gewonnen. Aber wir wissen es nicht.

Im Interview: Michal Kosinski

ist Psychologe an der Universität Stanford und Experte für Psychometrie. Seinen Forschungsergebnissen zufolge lassen sich aus Facebook-Likes psychologische Profile erstellen.

In vielen Artikeln über die Firma steht, dass sie ihre Daten nicht mit den anderen an der Trump-Kampagne beteiligten Firmen teilen wollte.

Wie gesagt, wir wissen nicht, wie effektiv die arbeiten. Aber der wirklich wichtige Aspekt ist ohnehin nicht Trump.

Originelle These. Was ist denn derzeit wichtiger als Trump?

Früher brauchte jemand, wenn er so detaillierte Informationen über Ihre Persönlichkeit erhalten wollte, Ihre Zustimmung. Um etwas über Ihre Persönlichkeit zu erfahren, musste ein Psychologe, ein geschulter Mensch Sie interviewen. Das war sehr aufwendig. Meine Forschung zeigt, dass heute sehr genaue Aussagen über Sie und Ihre Persönlichkeit getroffen werden können, wenn man sich mithilfe von Algorithmen Ihre Datenspuren im Internet ansieht. Unsere Untersuchungen haben gezeigt, dass schon wenige Facebook-Likes ausreichen, um sehr konkrete Aussagen über fünf Aspekte Ihrer Persönlichkeit zu treffen. So ab, sagen wir, 240 Likes vielleicht sogar bessere als Ihre Freundin.

Sie selbst finden das, worüber Sie forschen, offenbar so gefährlich, dass Sie einige Ihrer Arbeiten mit entsprechenden Warnungen versehen haben. Warum erforschen Sie so etwas dann?

Seine Arbeit

Forschung: Michal Kosinski verglich psychologische Frage­bögen mit den Facebook-Profilen der Testpersonen.

Diskussion: In der Schweizer Zeitschrift Das Magazin hieß es kürzlich, die Firma Cambridge Analytica habe sich für die Pro-Brexit- und die Trump-Kampagne der Ergebnisse bedient. Mit ihnen könne man Gruppen gezielt ansprechen, etwa: besorgte Väter, unentschlossene Demokraten.

Ich habe diese Methoden ja nicht erfunden, ich gehe davon aus, dass Firmen das schon länger machen. Wir brauchen eine Diskussion darüber, wie wir damit umgehen. Dafür aber muss man wissen, wie diese Technologien funktionieren. Und man kann damit sehr viel Gutes tun.

Was soll daran gut sein?

Firmen, Politiker, wer auch immer eine Botschaft vermitteln will, können diese Botschaft in Zukunft nur denen zeigen, die sie auch angeht und die sie interessiert. Das bedeutet schlicht: weniger Werbung.

Das klingt eher wie die Perfektionierung der Filterbubble.

Die Filterbubble ist ein Mythos, es gibt keinen wissenschaftlichen Beweis dafür.

Welchen Beweis braucht es denn? Viele Menschen merken einfach, dass sie in ihren Freundeslisten auf Facebook vor allem Menschen mit ähnlicher Gesinnung begegnen.

taz.am wochenende

Mit 88 wollte Mama nicht mehr leben – sie hörte auf zu essen und zu trinken. Nach 13 Tagen erlag sie einem Nierenversagen. Ist Sterbefasten Suizid? Das Gespräch mit der Buchautorin Christiane zur Nieden lesen Sie in der taz.am wochenende vom 17./18. Dezember. Außerdem: Wieso es unmöglich ist, die Erde perfekt auf einem Blatt Papier abzubilden. Und: Warum 2016 besser war als sein Ruf. Am Kiosk, eKiosk oder gleich im praktischen Wochenendabo.

Aber das hat mit dem Internet nichts zu tun. Menschen mögen Informationen, die mit ihrem Weltbild übereinstimmen, die sie bestätigen. Menschen sind dazu gemacht, in einer Filterbubble zu leben. De facto hatten wir nie weniger Filterbubble als heute. Früher, als die meisten Menschen auf dem Dorf oder in kleinen Städten lebten, haben wenige Männer das kontrolliert, was an Informationen zugänglich war: der Lehrer, der Bibliothekar, der Priester. Nein, der Mensch tendiert dazu, andere für etwas verantwortlich zu machen, das er selbst tut. Menschen tendieren dazu, sich zu beschweren und zu jammern. Facebook ist nicht schuld an der Filterbubble, der Mensch ist es. Heute macht es das Internet überhaupt erst möglich, dass wir die Informationen sehen und ertragen müssen, die wir früher nie gesehen hätten.

Seit Deutschland viele Flüchtlinge aufgenommen hat, werfen sich Rechte und Linke gegenseitig vor, nur die Informationen zu konsumieren, die ins eigene Weltbild passen. Die können doch mit ihrer Wahrnehmung nicht alle falsch liegen.

Wie gesagt, Menschen neigen dazu, gerne nur das zu sehen, was ihre Meinung bestätigt. Aber erst durch Facebook und das Internet überhaupt werden Menschen förmlich gezwungen, zu sehen, dass es total andere Haltungen als die ihre gibt. Das bewahrt sie nicht davor, sich menschlich zu verhalten, viele versuchen immer noch ihre Weltsicht zu erhalten und auf andere Informationen, die in diese Perspektive nicht hineinpassen, reagieren sie entsprechend. In Filterbubbles zu leben, das ist unser natürlicher Zustand. Aber das Internet bringt ihn in Gefahr, weil die andere Information immer nur einen Klick entfernt ist, es gibt eine nie zuvor dagewesene Vermischung von Ansichten, Ideologien und Perspektiven und deshalb fangen wir ans uns zu beschweren.

Halten Sie die Polarisierung, die es auf Facebook gibt, nicht für ein Problem?

Es gab einmal eine schöne Alternative. Die Sowjetunion. Da wurde im Prinzip eine Wahrheit immer wieder kopiert. Das macht die Informationen nicht wahrer, aber es macht eine Gesellschaft natürlich weit weniger konfliktreich. So wie es jetzt ist, sind wir gezwungen aufeinander zu treffen und uns irgendwie miteinander auseinander zu setzen.

Kommen wir mal zu Ihrer Forschung zurück. Warum soll ein Facebook-Like so viel über mich aussagen? Ich spiele im Internet eine Rolle. Ich bin nicht mein wahres „Ich“.

Sich anders zu verhalten, eine Rolle zu spielen, ist anstrengender, als die meisten denken. Darum ist Schauspielerei ein Beruf, und auch den machen viele nicht gut. Natürlich haben wir alle Masken auf, aber Menschen verkleiden sich im realen Leben viel einfacher als im Internet. Sie ziehen sich an, sie haben einen Bart oder nicht, schminken sich, tragen eine Frisur. Vor dem Computer sind sie in gewisser Weise mit sich allein, es gibt nicht viel, hinter dem sie sich verstecken können. Und dann versuchen Sie mal über ein Jahr, fünf Jahre, zehn Jahre jemand anderes zu sein. Tragen Sie dieselbe Maske über diese Zeit. Das ist mühsam, und diese Mühe nehmen die meisten Menschen nicht auf sich. Über die Zeit wird der Algorithmus zum Beispiel merken, dass sich ein bestimmtes Muster in ihrem Verhalten immer wiederholt, wenn Sie traurig sind.

Das heißt, je länger jemand auf Facebook ist, desto präziser werden Ihre Aussagen?

Ja, mehr Daten sind immer besser. Aber letztendlich reichen bei vielen Menschen dann doch zehn Likes, um schon recht genaue Vorhersagen über den Charakter zu treffen.

Sie haben einen Test auf Ihrer Website: Man kann sehen, was der Algorithmus alles über einen weiß. Viele in Deutschland haben auf Facebook geschrieben, es sei Unsinn dabei herausgekommen. Frauen waren Männer und umgekehrt, heterosexuelle Männer wurden homosexuell.

Das Modell auf unserer Webseite zielt auf Menschen in den USA. Bestimmte Symbole bedeuten hier und dort etwas ganz anderes. Ein fiktives Beispiel: Ein Auto von BMW bedeutet in den USA vielleicht vor allem für junge ungebildete Männer etwas, in Deutschland aber für ältere gesetzte Herren.

Sie haben in einem Interview mal gesagt, Menschen mit einem hohen IQ würden öfter „Curly Fries“ liken, diese gekringelten Pommes. Warum ist das so?

Es könnte sein, und auch das denke ich mir aus, dass mal irgendwer an einer Universität einen Witz über Curly Fries gemacht und der hat sich dann unter Mathematikern verbreitet. Oder vielleicht war es ganz anders. Das ist eine dieser Verbindungen, die nur der Algorithmus sieht, nicht der Mensch.

Bei mir hat Ihr Test dafür ziemlich gut funktioniert, dafür dass er nur 18 Likes ausgewertet hat. Aber in meiner Auswertung steht, dass meine Likes für den Sender CNN, den Schriftsteller Neil Gaiman und die Zeitung „New York Times“ mich “liberal“ und „artistic“ erscheinen lassen und daneben steht, dass die Likes für CNN, „New York Times“ und Neil Gaiman mich „competitive“ erscheinen lassen. Können die gleichen Likes unterschiedliche Aussagen bedeuten?

Ja, natürlich. Ich könnte mir vorstellen, dass zum Beispiel Gaiman ein ziemlicher „strong like“ ist, ein starker Like. Das ist ein Schriftsteller mit einem recht speziellen Stil, das könnte zum Beispiel etwas über Offenheit aussagen. New York Times und CNN sind möglicherweise eher neutrale Likes, die bei der Bewertung im Verhältnis vielleicht weniger den Ausschlag geben. Sowohl bei den Curly Fries als auch bei Ihren Likes geht es aber immer nur um Bruchteile von Prozent, die in die Aussage über eine Person einfließen. Für sich selbst genommen mögen manche Faktoren ganz unbedeutend sein, erst in der Summe, indem der Algorithmus sie zusammen analysiert, ergeben sie einen Sinn.

In einem Ihrer Aufsätze aus dem Januar 2015 schreiben Sie, die menschliche Wahrnehmung habe den Vorteil, sehr flexibel zu sein und viele unbewusste Signale wahrnehmen zu können. Deshalb, so schreiben Sie weiter, könnten Menschen besser darin sein, Charakterzüge zu beschreiben, für die es der Fähigkeit bedarf Subtiles wahrnehmen zu können. Da relativieren Sie Ihre Forschung?

Meine Forschung ist nicht zu Ende, wir stehen noch am Anfang. Betonen Sie bei der Aussage dort oben vor allem das „könnte“. Was wir bisher sehen ist, dass Maschinen uns besser beurteilen als Menschen, aber ich sage trotzdem nicht, dass ich Recht habe. Es kann auch noch andere Ergebnisse geben.

Blendet Ihre Konzentration auf Likes nicht viele andere wichtige Faktoren aus? Ob jemand aus einem Arbeiterhaushalt kommt oder an eine bessere Schule gegangen ist?

Im Gegenteil, die Likes sagen über unsere Herkunft, unsere Lebensumstände sehr viel aus. Ich habe in meiner Jugend in Polen natürlich auch Beatles gehört, das überschneidet sich sicherlich mit Menschen, die in einer fancy Schule in L. A. waren. Aber ich habe auch vieles gehört, von dem hier niemand etwas weiß. Und das spiegelt sich in den Likes wieder.

Und da macht es keinen Unterschied, ob ich etwas like, weil ich es tatsächlich mag oder weil ich es einfach nur interessant finde?

Nein, entscheidend ist, dass Sie auf den Knopf drücken. Der Algorithmus wird es dann mit Likes Ihrer Freunde vergleichen, mit dem, was Sie früher geliked haben, und Schlüsse ziehen.

Der Psychologe David Funder von der Universität von Kalifornien sagt, er sei durchaus beeindruckt von Ihrer Arbeit, aber um eine Person wirklich zu verstehen, seien schon eher 100 Items notwendig und nicht fünf.

Ich schätze die Arbeit von David. Aber warum 100 Items? Warum nicht 1.000? Oder 10.000? Das sind doch willkürliche Zahlen, aber klar, es gilt: Je mehr Daten desto besser. Nur können Menschen diese 1.000 verschiedene Informationen gar nicht verarbeiten und 10.000 schon gar nicht. Nicht die Computer reduzieren uns auf weniger als 1.000 oder 100 Aspekte, das machen wir selbst. Wir reduzieren uns, wenn wir uns ein Bild von unseren Mitmenschen machen und von uns selbst übrigens auch. Wir produzieren Vorurteile und Verallgemeinerungen und kategorisieren uns. Menschen sind begrenzt darin, sich mehrdimensional zu sehen. Computer sind das nicht.

Computer sind also die besseren Menschen?

Wir sind sehr gut darin, Menschen zu sein. Computer haben weniger Vorurteile.

Können vorurteilsbehaftete Menschen Algorithmen schreiben, die selbst keine Vorurteile haben?

Eine philosophische Frage. Wenn Algorithmen nur von Menschen lernen, dann werden sie wohl auch menschliche Einstellungen übernehmen. Wenn ich einen Algorithmus programmiere, der mir den besten Investmentbanker suchen soll, dann wird da nach Stand der Dinge wohl ein weißer Mann herauskommen. Eine Methode wäre, zu versuchen, die Fragen an den Algorithmus weniger wertend zu formulieren und stattdessen nach einem Paket eher messbarer Fragen zu suchen. Zum Beispiel danach zu fragen, wer eine bestimmte Aufgabe am besten meistert. Oder den Algorithmus von etwas lernen zu lassen, das nicht der Mensch ist. Der Natur zum Beispiel.

Sie haben einmal gesagt, das gesamte Internet widerspreche mit seinen vielen verfügbaren Informationen über Personen eigentlich dem deutschen Datenschutz. Heißt das, im Umkehrschluss, dass solche Entwicklungen wie in den USA hier nicht möglich sind?

Das Internet hat keine Grenzen. Und eigentlich haben wir, auch in den USA, zumindest einige Regeln wie sensible Daten über unsere Persönlichkeit, religiöse Vorlieben et cetera zu sammeln sind. Nur werden diese Regeln durch die Entwicklungen, die ich beschreibe, ausgehebelt.

Die deutsche Algorithmusentwicklerin Yvonne Hofstetter sagt, das Demokratien und Gesetze zu langsam sind für immer komplexere Vorgänge und sie deswegen dysfunktional werden.

Sie hat Recht.

Aber wenn so viele Informationen über uns verfügbar sind – warum sind dann die Ergebnisse so ungenau? Ständig erzählen sich Menschen, wie ungenau die Algorithmen von Amazon wohl sein müssen, weil sie dauernd Dinge angeboten bekommen, die sie nicht wollen.

Erstens erzählen Menschen eher von Dingen, die nicht funktionieren, als von denen, die funktionieren. Gerade, wenn diese Dinge sonst ziemlich gut funktionieren. Zweitens: Wer sagt, dass Werbung heute so gut funktioniert, wie sie könnte? Ein Datingportal hat kein Interesse, dass der Algorithmus so gut ist, dass wirklich alle einen Partner finden – weil dann das Portal pleitegeht. Und die Werbung kann derzeit gar nicht das Ziel haben, alles zielgerichtet zu verkaufen. Wo bliebe da die Nachfrage für neue Aufträge?

Andererseits gibt es die berühmte Geschichte einer schwangeren 16-Jährigen, die nur aufgrund ihrer Datenspuren im Internet unverlangt Schwangerschaftsprodukte zugesandt bekam. Ist das eine moderne Legende? Die Legende des allwissenden Algorithmus?

Nein, dieses Beispiel gibt es, und es ist auch nicht nur eine Frau gewesen. Aber das ist auch ein Beispiel dafür, warum Algorithmen heute nicht so gut funktionieren, wie sie könnten. Natürlich finden die Leute es creepy, wenn so etwas passiert. Also mischt man bei Schwangeren heute halt unter die Babyprodukte auch mal etwas anderes. Und in der Kommunikation mit Kunden oder nach außen verschleiern die entsprechenden Unternehmen dann eben ihre Sprache. Dann heißt es nicht mehr, man würde Schwangerschaften voraussehen, sondern sie ersetzen „Schwangerschaft“ durch „dimension alpha“ oder einen anderen Kunstbegriff für einen plötzlichen Wandel im Benehmen. Da sind die Leute dann schon viel weniger besorgt.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

8 Kommentare

 / 
  • "So ab, sagen wir, 240 Likes vielleicht sogar bessere als Ihre Freundin."

     

    Nicht nur Journalisten übertreiben manchmal.

     

    Der youtube-Vorschlags-Algorithmus ist bis jetzt - nach mehreren hundert Likes und Dislikes - nicht in der Lage mir ordentliches Zeug vorzuschlagen. Im Prinzip kommt einfach nur das Zeug was ich zuletzt angesehen habe. Z.b.: Ich schau mir ein Video über Filmtheorie an und 5 Minuten später ist meine Vorschlagsliste voller Videos über Filmtheorie. Nicht besonders clever...

     

    ...wenn er wenigstens die neuen Videos meiner abonnierten Kanäle auflisten würde. Aber nichts da. Von denen ist weit und breit nichts zu sehen.

     

    Und dann kommt er auch immer wieder mit Inhalten die ich schon vorher mit "interessiert mich nicht" markiert habe.

  • Als Hauptargument gegen die vermeintliche Filterblase würde ich die Kommentarfunktion hervorheben. Spätestens dort wird man zuhauf mit Meinungen jedweder Couleur konfrontiert. Bei Zeitungen, Radio, Fernsehen wurden bestenfalls ein paar handsortierte Leserbriefe präsentiert, nach einem völlig intransparenten 'Redaktions-Algorithmus'.

     

    Wer Kommentare nur als belangloses Hintergrundrauschen versteht (oder gar auf News-Portalen nur die Anreißer liest wie Günter Oettinger einmal selbst-entlarvend andeutete) bleibt natürlich in der Filterblase. Da kann ein Algorithmus, der im Grunde nur die Themen vorsortiert nichts dafür, sondern der Mensch ist selber schuld wie Kosinski richtig sagt.

     

    Bei Talkshows wiederum ist das Meinungsspektrum aufgrund der ausgesuchten Diskutanten in weiten Teilen vorbestimmt. Und nicht zuletzt im Freundes- und Bekanntenkreis entkommt man der eigenen sozioökonomischen Filterblase kaum, da sich insb. bei politischen Themen in einer Gruppe niemand gerne unbeliebt macht.

     

    Das alles wurde durch das Netz grundlegend verändert. Auch wenn man sich im Angesicht konträrer Meinungen über vieles ärgern mag, es gehört zur Demokratie dazu unterschiedliche Meinungen auszuhalten. Wer andere ignoriert, blockt oder zensiert der ist für mich kein wahrer Demokrat. Auch ein Shitstorm kann durchaus verdient sein. Wie man in den Wald ruft so schallt es heraus.

     

    Medien, die keinen ständigen Kommentarbereich anbieten, oder die durch übermäßige, einseitige Zensur auffallen verhalten sich per se undemokratisch. Ein freigeschalteter Kommentarbereich sollte überall Standard sein. Dazu mehr Transparenz bei der Moderation welche auf ein Minimum beschränkt sein sollte, und mit genauen Angaben warum und wie viele Beiträge insg. gelöscht wurden.

     

    tl;dr Für die demokratische und pluralistische Meinungsbildung im digitalen Zeitalter und gegen die selbst geschaffene Filterblase ist der Kommentarbereich ein unverzichtbares Element.

  • Journalisten übertreiben manchmal? Das ist wohl sehr stark untertrieben!

     

    Wer dauerhaft vom Journalismus leben will, sollte alle Journalisten durch Bots ersetzen, die es eine "Originelle These" nennen, wenn ein ausgebildeter Psychologe ihnen sagt: "Aber der wirklich wichtige Aspekt ist ohnehin nicht Trump" - und auch noch fragen: "Was ist denn derzeit wichtiger als Trump?"

     

    Solche Leute stecken nämlich auch in einer Filterblase fest. In einer, die sie hindert zu kapieren, dass für die meisten Nicht-Journalisten ihr privates Leben immer noch wichtiger ist, als jedes fremde Alphatier, zu dessen Wahrnehmung ehrgeizige Hofberichterstatter sie zu zwingen versuchen. Wer zahlt schon gerne fürs Genötigt-Werden?

     

    Im Übrigen scheint sich Michal Kosinski schon zu lange mit Computern zu befassen. In seiner Filterblase hat er total vergessen, dass Menschen Infos völlig anders "verarbeiten" als Rechner. Rechner zerlegen den Input in Nullen und Einsen, bevor sie ihn ganz ohne Wertung auf einen großen Haufen kippen. Menschen tun mehr. Sie filtern erst, verknüpfen dann mit einem Sinn und legen anschließend an einer bestimmten Stelle in einem individuellen Netz ab.

     

    Im Laufe ihres Lebens werden Menschen mit weit mehr als 100.000 Informationen geflutet. Sie müssen sie schon deswegen verarbeite, weil sie sich sonst ständig darin verheddern würden, ohne je zu finden, was sie suchen. Deswegen haben sie eine Psyche.

     

    Wir Menschen reduzieren tatsächlich, aber nicht bewusst oder aus Mangel. Wir kategorisieren, weil unser Unterbewusstsein geschützt ist. Wir brauchen quasi "Passwörter", wenn wir zugreifen wollen auf unsere Infos. Wir müssen uns bewusst machen, was wir wissen. Erst dann können wir uns daran orientieren.

     

    Hier irrt der "Fachmann" übrigens: Computer sind begrenzt darin, sich mehrdimensional zu sehen, Menschen nicht. Sie tun es bloß nicht oft. Aus Angst vor Strafe wollen sie es nicht einmal probieren.

    • Daniel Schulz , Autor*in des Artikels, Reportage und Recherche
      @mowgli:

      Sehr geehrter Herr Mowgli,

       

      das tut mir Leid, offenbar kommt das Ironische das die Frage angesichts des Interesses an Trump haben sollte, nicht rüber.

       

      Ich glaube, ich lasse das künftig einfach wieder bei Texten, die nicht deutlich als "Ironie" o.ä. gekennzeichnet sind.

       

      Hofberichterstatter von Trump bin ich allerdings noch nicht, dazu fehlt es mir an Nähe - und wenn ich mir die Menschen in seiner Nähe so anschaue - wohl auch am nötigen Geld.

       

      Sie haben Recht, es gibt Wichtigeres als Donald Trump, zumindestens braucht man ab und an eine Pause von ihm.

  • Durch Algorithmen auf eine Meinung durch das Auftreten im Internet reduziert zu werden ist eine große Gefahr für die Bildung von Meinungen.

    Vor dem Einzug des Internets in unsere Wohnzimmer war es Möglich eine Meinung des einzelnen durch Aufklärung zu ändern, in dem man dies durch Fakten belegte.

    Man traf sich bei Informationsveranstaltungen, es wurden Stammtischgespräche geführt, es gab Gartenzaungespräche unter Nachbarn, bei denen man auch mit der anderen Meinung konfrontiert wurde und somit in die Lage versetzt wurde auch andere Meinungen gelten zu lassen oder sogar anzunehmen.

    Im Internet sieht das heutzutage aber so aus als ob man, einmal auf eine Meinung festgelegt, seine Meinung nicht mehr so leicht ändern kann, da man immer wieder mit dem Material beschossen wird, welches einmal von diversen Algorithmen festgelegt worden sind. Bei der einmalig festgelegten Richtung wird man immer wieder auf Material gelenkt, die diese dann auch weiter verfestigt.

     

    Die Chancen sich in alle Richtungen zu informieren werden stark reduziert!!!

  • 8G
    85198 (Profil gelöscht)

    Seltsam. Da wird anerkannt, dass das Internet weit mehr als jedes andere Kommunikationsmittel Menschen dazu gebracht (vielleicht sogar gezwungen) hat, sich mit anderweitigen Meinungen auseinanderzusetzen.

    Facebook ändert das nicht notwendigerweise, aber für viele Leute stellt Facebook quasi das Portal zum Internet dar, besonders auf Smartphones.

    Heute muss man nicht mehr nach Informationen suchen und sich unter verschiedenen Quellen entscheiden, sondern man kann sich von Algorithmen durchs Internet führen lassen wie früher vom Pastor durchs Leben.

    Auch die weitgehende Monopolisierung der Internetsuche durch Google und die permanente Überwachung durch Cookies wirken in diese Richtung.

    Die Frage, ob Facebook eine Filterblase bildet hängt von den individuellen Gewohnheiten ab, d.h. davon wie ein Mensch das Internet tatsächlich benutzt. Kosinski antwortet auf die Frage nach Facebook mit einem Verweis auf die vermeinte Anarchie des Internets. Im Gegenteil sind aber Facebook, Google und Co. gerade dabei, diese Anarchie mit einer verborgenen Ordnung zu unterlegen, in der, um nur ein Beispiel zu nennen, Frauen keine Brustwarzen haben.

    Klar braucht man nicht Facebook um in einer Filterblase zu leben, das lässt aber nicht den Umkehrschluss zu, dass Facebook nicht ein Problem wäre, sondern nur "die Menschen".

    Es ist sehr wohl ein Problem, dass Facebook und Google eine unsichtbare Machtstruktur bilden, in der der Anschein der individuellen Unabhängigkeit gewahrt bleibt, während im Hintergrund auf den/die einzelne Nutzer*In zugeschnittene Realitäten erzeugt werden, sodass diese*r in den für sie realen Optionen abhängig von den Algorithmen, d.h. Machtstrukturen werden.

    Ich denke dass kann man durchaus Filterblase nennen.

  • Die Sache mit den Curly Fries stammt doch von einer Amerikanischen Forscherin in einem TEDtalk. Und die Nette Dame hat das auch ganz ausführlich und RICHTIG erklärt.