Psychologe Michal Kosinski: „Die Filterbubble ist ein Mythos“
Haben die Methoden von Michal Kosinski den Sieg Donald Trumps ermöglicht? Und was sagen Fritten über Intelligenz? Der Psychologe im Gespräch.
taz.am wochenende: Herr Kosinski, sind Sie für Donald Trumps Wahlsieg verantwortlich?
Michal Kosinski: Kommen Sie, Sie wissen, dass das eine lächerliche Frage ist. Natürlich nicht.
Es gab hier in Deutschland eine Menge Diskussionen über einen Text, in dem steht, eine Firma namens Cambridge Analytica habe daran, dass Trump gewonnen hat, entscheidenden Anteil: und zwar weil sie Ihre Methode benutzte, um Daten von Facebook-Nutzern auszuwerten und so Wähler gezielt anzusprechen.
Nun, Journalisten übertreiben manchmal. Ich bin mir ziemlich sicher, dass nicht Cambridge Analytica ihm den Sieg ermöglicht hat. Will man mit Daten Wahlkämpfe gewinnen, ist das auch eine Geldfrage. Hillary Clinton hat weit mehr Geld in diese Art des Wahlkampfs gesteckt als Trump, und sie hat viel länger auf Big Data gesetzt.
Trump hat lange gesagt, er vertraue nicht auf Daten. Cambridge Analytica wurde erst im Sommer 2016 engagiert. Aber vielleicht war Clintons Wahlkampf weniger effektiv.
Wir wissen auch nicht, wie effektiv Cambridge Analytica wirklich war. Natürlich wollen die den Eindruck erwecken, sie hätten diese Wahl gewonnen. Aber wir wissen es nicht.
ist Psychologe an der Universität Stanford und Experte für Psychometrie. Seinen Forschungsergebnissen zufolge lassen sich aus Facebook-Likes psychologische Profile erstellen.
In vielen Artikeln über die Firma steht, dass sie ihre Daten nicht mit den anderen an der Trump-Kampagne beteiligten Firmen teilen wollte.
Wie gesagt, wir wissen nicht, wie effektiv die arbeiten. Aber der wirklich wichtige Aspekt ist ohnehin nicht Trump.
Originelle These. Was ist denn derzeit wichtiger als Trump?
Früher brauchte jemand, wenn er so detaillierte Informationen über Ihre Persönlichkeit erhalten wollte, Ihre Zustimmung. Um etwas über Ihre Persönlichkeit zu erfahren, musste ein Psychologe, ein geschulter Mensch Sie interviewen. Das war sehr aufwendig. Meine Forschung zeigt, dass heute sehr genaue Aussagen über Sie und Ihre Persönlichkeit getroffen werden können, wenn man sich mithilfe von Algorithmen Ihre Datenspuren im Internet ansieht. Unsere Untersuchungen haben gezeigt, dass schon wenige Facebook-Likes ausreichen, um sehr konkrete Aussagen über fünf Aspekte Ihrer Persönlichkeit zu treffen. So ab, sagen wir, 240 Likes vielleicht sogar bessere als Ihre Freundin.
Sie selbst finden das, worüber Sie forschen, offenbar so gefährlich, dass Sie einige Ihrer Arbeiten mit entsprechenden Warnungen versehen haben. Warum erforschen Sie so etwas dann?
Forschung: Michal Kosinski verglich psychologische Fragebögen mit den Facebook-Profilen der Testpersonen.
Diskussion: In der Schweizer Zeitschrift Das Magazin hieß es kürzlich, die Firma Cambridge Analytica habe sich für die Pro-Brexit- und die Trump-Kampagne der Ergebnisse bedient. Mit ihnen könne man Gruppen gezielt ansprechen, etwa: besorgte Väter, unentschlossene Demokraten.
Ich habe diese Methoden ja nicht erfunden, ich gehe davon aus, dass Firmen das schon länger machen. Wir brauchen eine Diskussion darüber, wie wir damit umgehen. Dafür aber muss man wissen, wie diese Technologien funktionieren. Und man kann damit sehr viel Gutes tun.
Was soll daran gut sein?
Firmen, Politiker, wer auch immer eine Botschaft vermitteln will, können diese Botschaft in Zukunft nur denen zeigen, die sie auch angeht und die sie interessiert. Das bedeutet schlicht: weniger Werbung.
Das klingt eher wie die Perfektionierung der Filterbubble.
Die Filterbubble ist ein Mythos, es gibt keinen wissenschaftlichen Beweis dafür.
Welchen Beweis braucht es denn? Viele Menschen merken einfach, dass sie in ihren Freundeslisten auf Facebook vor allem Menschen mit ähnlicher Gesinnung begegnen.
Mit 88 wollte Mama nicht mehr leben – sie hörte auf zu essen und zu trinken. Nach 13 Tagen erlag sie einem Nierenversagen. Ist Sterbefasten Suizid? Das Gespräch mit der Buchautorin Christiane zur Nieden lesen Sie in der taz.am wochenende vom 17./18. Dezember. Außerdem: Wieso es unmöglich ist, die Erde perfekt auf einem Blatt Papier abzubilden. Und: Warum 2016 besser war als sein Ruf. Am Kiosk, eKiosk oder gleich im praktischen Wochenendabo.
Aber das hat mit dem Internet nichts zu tun. Menschen mögen Informationen, die mit ihrem Weltbild übereinstimmen, die sie bestätigen. Menschen sind dazu gemacht, in einer Filterbubble zu leben. De facto hatten wir nie weniger Filterbubble als heute. Früher, als die meisten Menschen auf dem Dorf oder in kleinen Städten lebten, haben wenige Männer das kontrolliert, was an Informationen zugänglich war: der Lehrer, der Bibliothekar, der Priester. Nein, der Mensch tendiert dazu, andere für etwas verantwortlich zu machen, das er selbst tut. Menschen tendieren dazu, sich zu beschweren und zu jammern. Facebook ist nicht schuld an der Filterbubble, der Mensch ist es. Heute macht es das Internet überhaupt erst möglich, dass wir die Informationen sehen und ertragen müssen, die wir früher nie gesehen hätten.
Seit Deutschland viele Flüchtlinge aufgenommen hat, werfen sich Rechte und Linke gegenseitig vor, nur die Informationen zu konsumieren, die ins eigene Weltbild passen. Die können doch mit ihrer Wahrnehmung nicht alle falsch liegen.
Wie gesagt, Menschen neigen dazu, gerne nur das zu sehen, was ihre Meinung bestätigt. Aber erst durch Facebook und das Internet überhaupt werden Menschen förmlich gezwungen, zu sehen, dass es total andere Haltungen als die ihre gibt. Das bewahrt sie nicht davor, sich menschlich zu verhalten, viele versuchen immer noch ihre Weltsicht zu erhalten und auf andere Informationen, die in diese Perspektive nicht hineinpassen, reagieren sie entsprechend. In Filterbubbles zu leben, das ist unser natürlicher Zustand. Aber das Internet bringt ihn in Gefahr, weil die andere Information immer nur einen Klick entfernt ist, es gibt eine nie zuvor dagewesene Vermischung von Ansichten, Ideologien und Perspektiven und deshalb fangen wir ans uns zu beschweren.
Halten Sie die Polarisierung, die es auf Facebook gibt, nicht für ein Problem?
Es gab einmal eine schöne Alternative. Die Sowjetunion. Da wurde im Prinzip eine Wahrheit immer wieder kopiert. Das macht die Informationen nicht wahrer, aber es macht eine Gesellschaft natürlich weit weniger konfliktreich. So wie es jetzt ist, sind wir gezwungen aufeinander zu treffen und uns irgendwie miteinander auseinander zu setzen.
Kommen wir mal zu Ihrer Forschung zurück. Warum soll ein Facebook-Like so viel über mich aussagen? Ich spiele im Internet eine Rolle. Ich bin nicht mein wahres „Ich“.
Sich anders zu verhalten, eine Rolle zu spielen, ist anstrengender, als die meisten denken. Darum ist Schauspielerei ein Beruf, und auch den machen viele nicht gut. Natürlich haben wir alle Masken auf, aber Menschen verkleiden sich im realen Leben viel einfacher als im Internet. Sie ziehen sich an, sie haben einen Bart oder nicht, schminken sich, tragen eine Frisur. Vor dem Computer sind sie in gewisser Weise mit sich allein, es gibt nicht viel, hinter dem sie sich verstecken können. Und dann versuchen Sie mal über ein Jahr, fünf Jahre, zehn Jahre jemand anderes zu sein. Tragen Sie dieselbe Maske über diese Zeit. Das ist mühsam, und diese Mühe nehmen die meisten Menschen nicht auf sich. Über die Zeit wird der Algorithmus zum Beispiel merken, dass sich ein bestimmtes Muster in ihrem Verhalten immer wiederholt, wenn Sie traurig sind.
Das heißt, je länger jemand auf Facebook ist, desto präziser werden Ihre Aussagen?
Ja, mehr Daten sind immer besser. Aber letztendlich reichen bei vielen Menschen dann doch zehn Likes, um schon recht genaue Vorhersagen über den Charakter zu treffen.
Sie haben einen Test auf Ihrer Website: Man kann sehen, was der Algorithmus alles über einen weiß. Viele in Deutschland haben auf Facebook geschrieben, es sei Unsinn dabei herausgekommen. Frauen waren Männer und umgekehrt, heterosexuelle Männer wurden homosexuell.
Das Modell auf unserer Webseite zielt auf Menschen in den USA. Bestimmte Symbole bedeuten hier und dort etwas ganz anderes. Ein fiktives Beispiel: Ein Auto von BMW bedeutet in den USA vielleicht vor allem für junge ungebildete Männer etwas, in Deutschland aber für ältere gesetzte Herren.
Sie haben in einem Interview mal gesagt, Menschen mit einem hohen IQ würden öfter „Curly Fries“ liken, diese gekringelten Pommes. Warum ist das so?
Es könnte sein, und auch das denke ich mir aus, dass mal irgendwer an einer Universität einen Witz über Curly Fries gemacht und der hat sich dann unter Mathematikern verbreitet. Oder vielleicht war es ganz anders. Das ist eine dieser Verbindungen, die nur der Algorithmus sieht, nicht der Mensch.
Bei mir hat Ihr Test dafür ziemlich gut funktioniert, dafür dass er nur 18 Likes ausgewertet hat. Aber in meiner Auswertung steht, dass meine Likes für den Sender CNN, den Schriftsteller Neil Gaiman und die Zeitung „New York Times“ mich “liberal“ und „artistic“ erscheinen lassen und daneben steht, dass die Likes für CNN, „New York Times“ und Neil Gaiman mich „competitive“ erscheinen lassen. Können die gleichen Likes unterschiedliche Aussagen bedeuten?
Ja, natürlich. Ich könnte mir vorstellen, dass zum Beispiel Gaiman ein ziemlicher „strong like“ ist, ein starker Like. Das ist ein Schriftsteller mit einem recht speziellen Stil, das könnte zum Beispiel etwas über Offenheit aussagen. New York Times und CNN sind möglicherweise eher neutrale Likes, die bei der Bewertung im Verhältnis vielleicht weniger den Ausschlag geben. Sowohl bei den Curly Fries als auch bei Ihren Likes geht es aber immer nur um Bruchteile von Prozent, die in die Aussage über eine Person einfließen. Für sich selbst genommen mögen manche Faktoren ganz unbedeutend sein, erst in der Summe, indem der Algorithmus sie zusammen analysiert, ergeben sie einen Sinn.
In einem Ihrer Aufsätze aus dem Januar 2015 schreiben Sie, die menschliche Wahrnehmung habe den Vorteil, sehr flexibel zu sein und viele unbewusste Signale wahrnehmen zu können. Deshalb, so schreiben Sie weiter, könnten Menschen besser darin sein, Charakterzüge zu beschreiben, für die es der Fähigkeit bedarf Subtiles wahrnehmen zu können. Da relativieren Sie Ihre Forschung?
Meine Forschung ist nicht zu Ende, wir stehen noch am Anfang. Betonen Sie bei der Aussage dort oben vor allem das „könnte“. Was wir bisher sehen ist, dass Maschinen uns besser beurteilen als Menschen, aber ich sage trotzdem nicht, dass ich Recht habe. Es kann auch noch andere Ergebnisse geben.
Blendet Ihre Konzentration auf Likes nicht viele andere wichtige Faktoren aus? Ob jemand aus einem Arbeiterhaushalt kommt oder an eine bessere Schule gegangen ist?
Im Gegenteil, die Likes sagen über unsere Herkunft, unsere Lebensumstände sehr viel aus. Ich habe in meiner Jugend in Polen natürlich auch Beatles gehört, das überschneidet sich sicherlich mit Menschen, die in einer fancy Schule in L. A. waren. Aber ich habe auch vieles gehört, von dem hier niemand etwas weiß. Und das spiegelt sich in den Likes wieder.
Und da macht es keinen Unterschied, ob ich etwas like, weil ich es tatsächlich mag oder weil ich es einfach nur interessant finde?
Nein, entscheidend ist, dass Sie auf den Knopf drücken. Der Algorithmus wird es dann mit Likes Ihrer Freunde vergleichen, mit dem, was Sie früher geliked haben, und Schlüsse ziehen.
Der Psychologe David Funder von der Universität von Kalifornien sagt, er sei durchaus beeindruckt von Ihrer Arbeit, aber um eine Person wirklich zu verstehen, seien schon eher 100 Items notwendig und nicht fünf.
Ich schätze die Arbeit von David. Aber warum 100 Items? Warum nicht 1.000? Oder 10.000? Das sind doch willkürliche Zahlen, aber klar, es gilt: Je mehr Daten desto besser. Nur können Menschen diese 1.000 verschiedene Informationen gar nicht verarbeiten und 10.000 schon gar nicht. Nicht die Computer reduzieren uns auf weniger als 1.000 oder 100 Aspekte, das machen wir selbst. Wir reduzieren uns, wenn wir uns ein Bild von unseren Mitmenschen machen und von uns selbst übrigens auch. Wir produzieren Vorurteile und Verallgemeinerungen und kategorisieren uns. Menschen sind begrenzt darin, sich mehrdimensional zu sehen. Computer sind das nicht.
Computer sind also die besseren Menschen?
Wir sind sehr gut darin, Menschen zu sein. Computer haben weniger Vorurteile.
Können vorurteilsbehaftete Menschen Algorithmen schreiben, die selbst keine Vorurteile haben?
Eine philosophische Frage. Wenn Algorithmen nur von Menschen lernen, dann werden sie wohl auch menschliche Einstellungen übernehmen. Wenn ich einen Algorithmus programmiere, der mir den besten Investmentbanker suchen soll, dann wird da nach Stand der Dinge wohl ein weißer Mann herauskommen. Eine Methode wäre, zu versuchen, die Fragen an den Algorithmus weniger wertend zu formulieren und stattdessen nach einem Paket eher messbarer Fragen zu suchen. Zum Beispiel danach zu fragen, wer eine bestimmte Aufgabe am besten meistert. Oder den Algorithmus von etwas lernen zu lassen, das nicht der Mensch ist. Der Natur zum Beispiel.
Sie haben einmal gesagt, das gesamte Internet widerspreche mit seinen vielen verfügbaren Informationen über Personen eigentlich dem deutschen Datenschutz. Heißt das, im Umkehrschluss, dass solche Entwicklungen wie in den USA hier nicht möglich sind?
Das Internet hat keine Grenzen. Und eigentlich haben wir, auch in den USA, zumindest einige Regeln wie sensible Daten über unsere Persönlichkeit, religiöse Vorlieben et cetera zu sammeln sind. Nur werden diese Regeln durch die Entwicklungen, die ich beschreibe, ausgehebelt.
Die deutsche Algorithmusentwicklerin Yvonne Hofstetter sagt, das Demokratien und Gesetze zu langsam sind für immer komplexere Vorgänge und sie deswegen dysfunktional werden.
Sie hat Recht.
Aber wenn so viele Informationen über uns verfügbar sind – warum sind dann die Ergebnisse so ungenau? Ständig erzählen sich Menschen, wie ungenau die Algorithmen von Amazon wohl sein müssen, weil sie dauernd Dinge angeboten bekommen, die sie nicht wollen.
Erstens erzählen Menschen eher von Dingen, die nicht funktionieren, als von denen, die funktionieren. Gerade, wenn diese Dinge sonst ziemlich gut funktionieren. Zweitens: Wer sagt, dass Werbung heute so gut funktioniert, wie sie könnte? Ein Datingportal hat kein Interesse, dass der Algorithmus so gut ist, dass wirklich alle einen Partner finden – weil dann das Portal pleitegeht. Und die Werbung kann derzeit gar nicht das Ziel haben, alles zielgerichtet zu verkaufen. Wo bliebe da die Nachfrage für neue Aufträge?
Andererseits gibt es die berühmte Geschichte einer schwangeren 16-Jährigen, die nur aufgrund ihrer Datenspuren im Internet unverlangt Schwangerschaftsprodukte zugesandt bekam. Ist das eine moderne Legende? Die Legende des allwissenden Algorithmus?
Nein, dieses Beispiel gibt es, und es ist auch nicht nur eine Frau gewesen. Aber das ist auch ein Beispiel dafür, warum Algorithmen heute nicht so gut funktionieren, wie sie könnten. Natürlich finden die Leute es creepy, wenn so etwas passiert. Also mischt man bei Schwangeren heute halt unter die Babyprodukte auch mal etwas anderes. Und in der Kommunikation mit Kunden oder nach außen verschleiern die entsprechenden Unternehmen dann eben ihre Sprache. Dann heißt es nicht mehr, man würde Schwangerschaften voraussehen, sondern sie ersetzen „Schwangerschaft“ durch „dimension alpha“ oder einen anderen Kunstbegriff für einen plötzlichen Wandel im Benehmen. Da sind die Leute dann schon viel weniger besorgt.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
Prozess zu Polizeigewalt in Dortmund
Freisprüche für die Polizei im Fall Mouhamed Dramé
Proteste in Georgien
Wir brauchen keine Ratschläge aus dem Westen
Fake News liegen im Trend
Lügen mutiert zur Machtstrategie Nummer eins
Ex-Wirtschaftsweiser Peter Bofinger
„Das deutsche Geschäftsmodell funktioniert nicht mehr“
MLPD droht Nichtzulassung zur Wahl
Scheitert der „echte Sozialismus“ am Parteiengesetz?
Syrien nach Assad
„Feiert mit uns!“