Experiment mit Nutzer-Emotionen

Facebook verbreitet schlechte Laune

Für ein Experiment manipulierte Facebook die Emotionen von 700.000 Nutzern – offenbar erfolgreich. Der Konzern ist in der Kritik, weil er das ohne Zustimmung tat.

Freude durch Facebook? Bild: spacejunkie / photocase.de

MENLO PARK dpa/taz | Facebook hat für eine Studie die Auswahl der Einträge im Nachrichtenstrom von mehreren Hunderttausend Nutzern manipuliert. Bei dem Experiment sollte erforscht werden, wie sich positive und negative Emotionen in Netzwerken ausbreiten. Die Autoren der kürzlich veröffentlichten Studie kamen zu dem Schluss, dass Menschen, die mehr positive Nachrichten sahen, etwas eher dazu neigten, auch selbst Einträge mit positivem Inhalt zu veröffentlichen – und umgekehrt.

Insgesamt wurden im Januar 2013 für eine Woche die Newsfeeds von knapp 690.000 Nutzern der englischsprachigen Facebook-Version manipuliert. Es wurden laut Studie über drei Millionen Einträge von Software ausgewertet, die per Wortanalyse die Emotion zuordnete.

Das brachte neben Kritik an der ethischen Seite des Experiments auch Zweifel an der Aussagekraft der Studie: So verwies das Psychologie-Blog „Psych Central“ auf Schwierigkeiten der verwendeten Software, die Stimmung eines Eintrags nur anhand einzelner Wörter zuzuordnen. Von Facebook gab es zunächst keine Reaktion.

Die Studie war bereits am 2. Juni veröffentlicht worden, kam aber erst jetzt mit Medienberichten und Kritik im Internet in die Diskussion. In dem Papier wird darauf hingewiesen, dass die Datenverwendungsregeln von Facebook, denen die Nutzer zustimmen, ein solches Vorgehen zulassen. Das Online-Magazin Slate kritisierte allerdings, dass dies nicht die „informierte Einwilligung“ ersetze, die allgemein für wissenschaftliche Experimente mit Menschen gefordert wird.

Einmal zahlen
.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de

Ihren Kommentar hier eingeben