Sprachforscher über Desinformation: „Keine Zensur, keine Diskriminierung“
Eine neue Software des Fraunhofer Instituts soll in Sozialen Medien selbstlernend Falschnachrichten finden. Unter anderem sollen Sprachfehler darauf hinweisen.
taz: Warum deuten orthografische Fehler auf Fake News hin?
Ulrich Schade: Natürlich können nur mehrere Indizien in ihrer Kombination auf die Klassifikation „Fake News“ hinweisen. Wenn Sie zum Beispiel eine Hotelbewertung für ein türkisches Hotel sehen und jemand mit einem deutschen Standardnamen gibt vor, in diesem Hotel gewesen zu sein: Wenn in dieser Bewertung dann zum Beispiel ein „süper“ steht mit einem „ü“ anstelle des „u“, dann kann dies ein Indiz dafür sein, dass die Bewertung ein türkischer Muttersprachler geschrieben hat, die Bewertung ein „Fake“ ist und sie eventuell von dem Hotel selbst stammt.
Wie schließen Sie einfache Schreibfehler oder eine Diskriminierung von Menschen aus, die Deutsch weniger gut beherrschen?
Es wird nicht definitiv gesagt, das sind jetzt „Fake News“, sondern nur, dass es Hinweise darauf gibt. Der Nutzer muss letztlich die Bewertung selbst vornehmen.
Als Indiz für Fake News haben Sie die Formulierung „die aktuelle Bundeskanzlerin Angela Merkel“ genannt. Warum ist das sinnvoll?
Normalerweise würde man so eine umständliche Beschreibung in einer deutschen Zeitung nicht lesen. Hier in Deutschland weiß jeder, wer mit „Bundeskanzlerin“ gemeint ist. Wenn sie das aus einer auswärtigen Position wie Russland oder den USA schreiben, sieht das anders aus. Daher ist der Zusatz „aktuell“ ein weiterer, minimaler Hinweis, dem man nachgehen sollte.
Dahinter steht die Annahme, dass übersetzte Beiträge tendenziell Fake News sind.
Nein. Dahinter steht, dass wir zu dritt gezielt nach Beiträgen geschaut haben, die demokratiefeindlich sind. Wir haben entsprechende „Fake News“ aus der sogenannten „Deutschen Tageszeitung“ genommen. Das war eine Internetseite, die zum Teil wie die Seite einer seriösen Zeitung aufgemacht war. Sie wurde aber offenbar von russischen Muttersprachlern erstellt. Das ist eine der Quellen, die wir für das Korpus benutzt haben. Dadurch ergaben sich diese Merkmale.
Ulrich Schade, 60 Jahre, ist Linguist und Mathematiker am Fraunhofer-Institut für Kommunikation, Informationsverarbeitung und Ergonomie (FKIE). Als Forschungsgruppenleiter hat er zusammen mit einem Wissenschaftler-Team das selbstlernende Fake News-Programm entwickelt. Davor erforschte er Computerlinguistik an der Uni Bielefeld.
Wie beugen Sie vor, dass durch das Training ein „bias“, also menschliche Vorurteile, in die Entscheidung der Software einfließen?
Sie haben in gewisser Weise Recht, dass da ein Bias mit drin ist. Sie müssen zunächst Korpora zusammenstellen. Dafür benötigen Sie ein Korpus mit Material, das sie als „Fake News“ bezeichnen würden, und ebenfalls ein Korpus mit objektiv guten Meldungen, wie zum Beispiel von dpa. Das Tool lernt so, danach zu entscheiden, ob eine neue Nachricht eher die Merkmale einer „guten“ Nachricht oder die von „Fake News“ hat.
Wo sehen Sie Anwendungsmöglichkeiten?
„Fake News“ finden zwar alle interessant, aber wir sehen die Anwendung eher in der Erkennung von Hate Speech. Ein Provider könnte Seiten vom Netz nehmen, wenn jemand, um ein drastisches Beispiel zu wählen, andere etwa als „Nigger“ bezeichnet. Solche Nutzer könnte man anschreiben und sie auffordern, sich bitte an die Regeln zu halten. Allerdings ist die Bewertung von Hate Speech schwieriger, nicht bei Beleidigungen, da sind sich alle einig. Aber wenn es um etwas geht, das im Englischen „offensive speech“ genannt wird, ist das schwieriger. Wir wollen ja keine Zensur und auch keine Diskriminierung.
Wird ihre Anwendung bereits angewandt?
Wir sagen prinzipiell nichts über Kunden, sofern diese das nicht ausdrücklich wünschen.
Ihr Programm ist aber nicht einzigartig?
Sie können davon ausgehen, dass große Unternehmen wie Facebook ihre eigenen Tools haben, und wenigstens ein anderes Fraunhofer-Institut hat auch ein ähnliches Programm entwickelt.
Sie sagen, die Einordnung von Hate Speech sei schwierig. Ist eine technologische Lösung trotzdem für die Herausforderung Fake News geeignet?
Es gibt keine andere Wahl. Sie können sich ja nicht permanent den gesamten Twitter-Stream ansehen. Daher ist es sinnvoll, dass eine Maschine vorsortiert. Aber abschließend muss immer noch ein Mensch rüberschauen, damit nichts falsch läuft.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
Pelicot-Prozess und Rape Culture
Der Vergewaltiger sind wir
Trendvokabel 2024
Gelebte Demutkratie
Mord an UnitedHealthcare-CEO
Gewalt erzeugt Gewalt
++ Nachrichten zum Umsturz in Syrien ++
Baerbock warnt „Assads Folterknechte“
100 Jahre Verkehrsampeln
Wider das gängelnde Rot
Bundestagswahlkampf der Berliner Grünen
Vorwürfe gegen Parlamentarier