Forschung zu sozialen Netzwerken: Ein Lügendetektor für Twitter
Forscher wollen mit der Software Pheme Falschmeldungen filtern. Das soll Journalisten helfen. Aber auch die Medizin könnte davon profitieren.
BERLIN taz | Soziale Netzwerke sind gespickt mit Halbwahrheiten, Gerüchten - und mit Fakten. Letztere in Echtzeit herauszufiltern, ist bislang unmöglich. Das möchte das europäische Forschungsprojekt Pheme ändern. Seit Januar arbeiten internationale Wissenschaflter an einem Programm, das falsche Tweets in sozialen Netzwerken automatisch aussortieren soll.
„Primär geht es darum, ein Werkzeug zur Verfügung zu stellen, um fragliche und manipulative Inhalte zu identifizieren und damit schnellere und bessere Entscheidungen zu treffen“, sagt Arno Scharl, Professor für Neue Medien Technologie in Wien.
Damit könnte Pheme speziell Daten-Journalisten dabei helfen, mit enormen Datenmengen umzugehen. Bei unübersichtlichen Großereignissen wie zuletzt den Unruhen in der Ukraine sammeln sich in den sozialen Netzerken Unmengen an Informationen. Der Wahrheitsgehalt dieser Nachrichten ist dabei für den Einzelnen meist nur schwer festzustellen. Mit einem algorithmischen Filter könnte Pheme das erleichtern, so die Forscher.
Um das zu erreichen, wollen Scharl und seine Kollegen die Eigendynamik von Nachrichten in den sozialen Netzwerken verstehen. Wie schnell breitet sich ein Thema aus, wie lange dauert es, bis die ersten kritischen Kommentare publiziert werden, wie hoch ist der Anteil der Pro/Contra Argumente. Verbreitungsmuster könnten dann erste Aufschlüsse über den Charakter von Informationen geben. „Aus vergangenen Beobachtungen kann das System dann lernen, jene Quellen und Themen zu identifizieren, die vielfach für Falschmeldungen verantwortlich zeichnen“, so Scharl.
Gerüchte auf Twitter halten sich hartnäckig
Britische Forscher analysierten die Entwicklung von Falschmeldungen auf Twitter während der Straßenunruhen in London vor drei Jahren. Das Ergebnis: Gerüchte, wie das London Eye stünde in Flammen, wurden schnell und unhinterfragt weitergeleitet. Trotz früher Gegendarstellungen war die Falschmeldung erst nach längerer Zeit enttarnt. Twitter-Gerüchte halten sich hartnäckig.
Mit Pheme wollen die Wissenschaftler jetzt programmierbare Merkmale entwickeln, um den Wahrheitsgehalt einer Nachricht schneller zu bestimmen. Die EU fördert das Projekt mit knapp drei Millionen Euro. Ein erster Prototyp der Software soll bereits bis Ende nächsten Jahres fertig sein.
Pheme soll beim Filtern künftig so vorgehen: Zunächst wird ein Tweet selbst auf Aussage, Stil und sprachliche Eigenschaften hin untersucht. Der Inhalt des Textes wird dann mit entsprechenden Informationen von vertrauenswürdigen Online-Datenbanken verglichen. In einem letzten Schritt untersucht Pheme die Verbreitung der Nachricht selbst. Wer schreibt worüber, und von wem wird der Tweet weiterverschickt. So sollen chronische Falschmelder oder falsche Twitter-Accounts möglichst rasch entlarvt werden.
„Wenn das Projekt aus der Menge der Tweets einen Wahrheitsgehalt ableiten will, dann wird womöglich aus einer oft getweeteten Lüge plötzlich die Wahrheit“, sagt Martin Virtel, Datenjournalist bei Open Data City und Dozent für Multimedia-Journalismus. Denn auch Pheme arbeitet am Ende nur mit einem Algorithmus. Dessen Vermögen, Wahrhaftigkeit aus Tweets abzuleiten, ist für Virtel begrenzt: „Wahrheit hat mit dem sozialen Kontext zu tun und mit etwas, das nicht in einem Text steht. Das ist meistens das Dilemma von künstlicher Intelligenz.“
Mehr Erkenntnis? Mehr Daten!
Mediendozent Virtel begrüßt das wachsende Interesse an sozialen Netzwerken. Für ihn stehen Wissenschaftler und Journalisten hier am Anfang ihrer Arbeit: „Eine der größten Herausforderungen ist, informationstechnisch zu verstehen, was da passiert.“ Die Auswertung von Daten durch Filter-Programme führe nicht zu mehr Erkenntnis, sondern vor allem zu neuen Daten. „Wir erfahren nicht mehr über die Welt, wir haben mehr Daten über die Welt“, so Virtel. Das sei ein großer Unterschied. Abseits von ökonomischen Verwertungsinteressen ist es für den Journalisten daher wichtig, die Bedeutung von und die Geschichten hinter den Datenmengen zu erfahren.
Eine weitere Zielgruppe der Pheme-Forscher sind neben Journalisten auch Mediziner. Denn mithilfe der Software sollen nicht nur aktuelle Nachrichtenlagen gefiltert werden. Auch langfristige Prozesse, beispielsweise die Ausbreitung bestimmter Krankheiten und deren Dokumentation in den sozialen Netzwerken, sollen mit dem Programm besser nachzuvollziehen sein. Im Idealfall könnte Pheme so bei der Bekämpfung von Epidemien helfen.
Die Wissenschaftler stehen mit diesen Ideen noch am Beginn ihrer Arbeit. Thierry Declerck vom Deutschen Forschungszentrum für Künstliche Intelligenz sagt: „Wir wollen uns zunächst darauf konzentrieren, wie ungesichertes Wissen und kontrovers diskutierte Ereignisse oder Tatbestände in den sozialen Medien automatisch zu erkennen sind.“ Erst dieses Wissen erlaubt es später, weitere Ideen umzusetzen. Aber auch das geht am Ende nicht vollautomatisch.
Schließlich soll Pheme keine Polizei-Software für das Internet werden. „Am Schluss“, so Declerck, „wird immer ein Mensch eine Entscheidung für seine konkrete Anwendung treffen müssen.“ Für Daten-Journalisten bedeutet das: Pheme könnte schon bald ihre Recherche erleichtern, aber es wird sie ihnen nicht ersparen.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
Nan Goldin in Neuer Nationalgalerie
Claudia Roth entsetzt über Proteste
Politikwissenschaftlerin über Ukraine
„Land gegen Frieden funktioniert nicht“
Krieg in der Ukraine
Geschenk mit Eskalation
Krieg in der Ukraine
Kein Frieden mit Putin
Scholz und Pistorius
Journalismus oder Pferdewette?
taz-Recherche zu Gewalt gegen Frauen
Weil sie weiblich sind