piwik no script img

Umstrittenes Timeline-ExperimentFacebook will doch nur verstehen

Facebook sorgt sich um seine User. So erklärt ein Autor die Studie, bei der Newsfeeds manipuliert wurden. Auch auf sein internes Aufsichtsverfahren verweist Facebook.

Luftig – auch in seinen Aussagen zur Psycho-Studie. Bild: reuters

MENLO PARK dpa | Facebook hat das heftig kritisierte Psycho-Experiment verteidigt, bei dem der Nachrichtenstrom einiger hunderttausend Nutzer manipuliert wurde. Für das Netzwerk sei es wichtig, zu verstehen, wie Mitglieder auf verschiedene Inhalte reagierten, erklärte Facebook in der Nacht zu Montag. „Wir überlegen vorsichtig, welche Forschung wir betreiben, und haben ein striktes internes Aufsichtsverfahren.“

Bei dem einwöchigen Experiment im Januar 2012 sollte ermittelt werden, wie sich Emotionen in Netzwerken ausbreiten. Entsprechend wurden für Nutzer die Einträge ihrer Facebook-Freunde vorgefiltert: Den einen wurden mehr positive Nachrichten angezeigt, den anderen mehr negative. Die Studie ergab, dass Menschen, die mehr positive Nachrichten sahen, etwas eher dazu neigten, auch selbst Einträge mit positivem Inhalt zu veröffentlichen – und umgekehrt.

Einer der Autoren der Studie erläuterte in einem Facebook-Eintrag, man habe die Sorge überprüfen wollen, dass Menschen sich ausgeschlossen fühlten, wenn sie positive Nachrichten ihrer Freunde sehen. Zudem habe es zuvor Bedenken gegeben, dass viele negative Einträge von Freunden die Nutzer veranlassen könnten, Facebook zu meiden, schrieb Adam Kramer.

Er könne aber verstehen, dass die Studie bei einigen Menschen Sorgen ausgelöst habe, meinte Kramer. Er und seine Mitautoren bedauerten dies. „Wir haben unsere Motive in dem Papier nicht klargemacht“, räumte er ein. Rückblickend haben die Erkenntnisse der Studie die ausgelösten Ängste vielleicht nicht gerechtfertigt.

Insgesamt waren bei dem Experiment ohne Vorwarnung die Newsfeeds von knapp 690.000 Nutzern der englischsprachigen Facebook-Version manipuliert worden. Über drei Millionen Einträge wurden von Software ausgewertet, die per Wortanalyse die Emotion zuordnete. Im Internet regten sich viele Nutzer über die heimliche Manipulation von Emotionen auf. Ein Experte zweifelte zugleich die Aussagekraft der Studie an, weil das Programm die Stimmung nicht immer korrekt zuordnen könne.

Facebook betonte, bei der Studie seinen keine Daten gesammelt worden, die einzelnen Nutzern zugeordnet werden könnte. Kramer erklärte, es sei die mindest mögliche Zahl von Nutzern für statistisch relevante Ergebnisse beteiligt gewesen. Seit dem Experiment Anfang 2012 sei auch die Aufsicht über solche Studien verbessert worden.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

2 Kommentare

 / 
  • Die Aufregung ist schon etwas skurril: Schließlich wurde der (intransparente) Filter nur ein bisschen anders eingestellt als sonst.

     

    Aber mit dem Beitritt als Privatuser bei FB erwirbt man ja eh eine offizielle Auszeichnung in Naivität...

  • Ich wünsche allen Gesichtsbuchanhängern und -anhängerinnen noch schöne, unterhaltsame Jahre am Haken. Zappelt mal schön. Freiwillig bei der "Stasi" mitmachen. Darauf muss man auch erstmal kommen.

    Leider werden auch wir Abstinenten eines Tages dransein. Aber vielleicht gibts ja doch noch ein paar freie, unabhängige Jahre.