Desinformation auf Messengerdienst: Wer kontrolliert Telegram?
Hier dürfen alle alles schreiben. Mit diesem Versprechen wurde der Messengerdienst Telegram zur wohl wichtigsten Plattform für Hetze. Die einzudämmen, ist nicht so leicht.
E s war der 26. März, gegen 1.30 Uhr morgens, als der Frachter „Dali“, beladen mit Tausenden Containern, die Francis-Scott-Key-Brücke in Baltimore rammte. Einer der wichtigsten Häfen der USA ist nun unbefahrbar, der Wiederaufbau wird Jahre dauern. Zum Zeitpunkt des Unglücks tobte in den USA der politische Streit um ein von den Republikanern blockiertes Ukraine-Hilfspaket für 60 Milliarden Dollar.
Wer wissen wollte, wer hinter dem Unglück steckte, der bekam die heißesten News beim Messengerdienst Telegram. Nur Stunden nach dem Vorfall kursierte auf vielen Social-Media-Plattformen die Falschmeldung, dass – „BREAKING“ – der Kapitän der „Dali“ ein Ukrainer war. Selbst auf Musks Plattform X gab es allerdings schnell Warnhinweise, dass der fragliche 52-jährige ukrainische Kapitän die „Dali“ nur bis 2016 steuerte. Auf Telegram aber übernahm scheinbar der ukrainische Widerstand die Verantwortung: Unter einem Bild der eingestürzten Brücke, mit stolzem Bizeps-Emoji, hieß es: „Wir werden euch noch beibringen, wie man die Demokratie verteidigt.“ Die Gruppe mit einem Banner der ukrainischen Armee im Profil bejubelte den angeblichen gelungenen Sabotageakt.
Solche Posts waren Wasser auf die Mühlen der Gegner der Ukraine-Hilfen. Die Falschmeldung konnte sich auf Telegram ungehindert verbreiten und von dort immer wieder auf andere Plattformen gelangen. Denn Telegram, das auf eine Milliarde Nutzer:innen weltweit zusteuert, kennt keine Regeln. Kein Portal dieser Größe verzichtet so konsequent auf die Moderation von Inhalten und Faktenchecks. Mit nur 50 Beschäftigten, darunter 30 Programmierern, betreibt der Gründer und Alleininhaber Pawel Durow, ein russischer Software-Entwickler, die Plattform aus Dubai.
Die Freiheit, in den Gruppen mit bis zu 200.000 Nutzern und in Kanälen von unbegrenzter Größe alles zu verbreiten, hat Durow zum Markenkern erhoben. Telegram kämpfe für die Redefreiheit, heißt es in der Selbstdarstellung. Es habe so eine „prominente Rolle“ in prodemokratischen Bewegungen etwa in Iran, Russland, Belarus, Myanmar und Hongkong gespielt.
Dieser Text stammt aus der wochentaz. Unserer Wochenzeitung von links! In der wochentaz geht es jede Woche um die Welt, wie sie ist – und wie sie sein könnte. Eine linke Wochenzeitung mit Stimme, Haltung und dem besonderen taz-Blick auf die Welt. Jeden Samstag neu am Kiosk und natürlich im Abo.
Die zwei Gesichter von Telegram
Das ist nicht falsch. An Orten, an denen freie Meinungsäußerungen kaum möglich sind, bietet Telegram einen offenen Raum. Doch gleichzeitig ist es heute die global womöglich wichtigste Plattform für Fake News, Verschwörungsideologie und Online-Hetze.
Unter den heute zehn größten Telegram-Channels in Deutschland etwa sind mindestens acht rechtsextrem, offene Kreml-Propaganda oder verschwörungsideologisch. Ihre jeweils sechsstellige Reichweite lässt dabei jene großer Tageszeitungen locker hinter sich. Die Plattform entwickle sich „zunehmend zu einem Medium der Radikalisierung“, schrieb das Bundeskriminalamt (BKA) schon 2022 und beklagte unter anderem die Zunahme von Mordaufrufen.
„Die auf der Plattform geteilten prorussischen Desinformationen schaffen es weit über die Chatverläufe hinaus, tief in die politischen Diskurse und Einstellungen Einfluss zu nehmen“, heißt es in einer Analyse des Berliner CeMAS-Instituts. Rechtsextreme „Alternativmedien“ erreichen über Telegram ein sechsstelliges Publikum und schaffen es so, selbst größere Redaktionen zu finanzieren, so CeMAS.
Weltweit verbreiten sich zweifelhafte Inhalte über die Plattform: Hamas, der IS, organisierte Kriminelle, Neonazis, sie alle nutzen die Freiheit von Telegram. Hier gibt es Bombenbauanleitungen, Todeslisten, Drogen, Waffen.
In autoritären Gesellschaften ist Telegram ein Werkzeug des Kampfes für Rechte und Demokratie. Wo die Gesellschaften liberal verfasst sind, schafft sie hingegen einen Raum für Lügen und Hass. Wer sich dem zu lange aussetzt, wendet sich von der Demokratie ab.
Ein EU-Gesetz soll helfen
Seit dem 17. Februar ist nun in der EU ein Regelwerk in Kraft, das die Plattformen regulieren soll: das Gesetz über digitale Dienste. Der Digital Service Act (DSA) werde eine „sicherere und transparentere Online-Welt gestalten“, sagte Digital-Kommissarin Margrethe Vestager. Wer in Brüssel und Berlin heute herumfragt, wie die Politik gegen Hass und Desinformation auf Telegram und den anderen Plattformen vorzugehen gedenkt, bekommt fast immer die gleiche Antwort: mit dem DSA.
2020 hatte Vestager dessen ersten Entwurf vorgelegt. Sie stand vor der Schwierigkeit, jeden Eindruck staatlicher Zensur vermeiden zu müssen und gleichzeitig ein wirksames Instrument gegen Desinformation und Hetze zu schaffen. Vestager präsentierte eine kluge Lösung. Der DSA listet „systemische Risiken“ auf – Bereiche in denen ein unkontrollierter Informationsfluss der Gesellschaft schaden kann: Grundrechte, Privatsphäre, Kinderrechte, Diskriminierung, öffentliche Gesundheit, Wahlen, öffentliche Sicherheit und der „zivile Diskurs“.
Die großen Onlineplattformen müssen gegenüber der Kommission darlegen, was sie gegen diese Risiken tun. Eine eigens aufgebaute Abteilung der EU-Kommission unter Leitung des Deutschen Prabhat Agarwal prüft, ob die Anstrengungen ausreichend sind. Sind sie es nicht, drohen Bußgelder von bis zu 6 Prozent des jährlichen Konzernumsatzes.
Diese Verpflichtung greift aber erst ab einer Nutzerzahl von 45 Millionen in der EU. Telegram behauptete im Februar 2024, nur 41 Millionen Nutzer zu haben. Fachleute bezweifeln dies, der EU reicht die Selbstauskunft aber vorerst. „Wir beobachten die Marktentwicklung“, sagt ein Sprecher der Kommission auf Anfrage der taz. Telegram jedenfalls kann so bisher dem „Risikomanagement“ entgehen.
Bislang nur Verluste
Das muss nicht so bleiben. Telegram ist kostenlos, Werbung gibt es kaum. Der Eigner Pawel Durow rechnet damit, bis 2025 weiter Verluste zu machen. Bisher sponsert er den Betrieb aus seinem Privatvermögen. Mitte März aber dachte Durow laut darüber nach, Telegram an die Börse zu bringen. Auf einen Wert von 30 Milliarden Euro schätzen Analysten den Unternehmenswert. Die US-Börsenaufsicht dürfte sich indes kaum mit so vagen Auskünften abspeisen lassen wie heute die EU. Gut möglich, dass Telegram einräumen wird, die 45-Millionen-Schwelle überschritten zu haben, und „Risikomanagement“ betreiben muss.
Noch aber ist es nicht so weit. Das Unternehmen ist bekannt dafür, sich staatlicher Kontrolle zu entziehen. In Dubai „lässt die Regierung uns in Ruhe“, sagte Durow kürzlich. Das Emirat sei „neutral“. Während der jahrelangen Beratungen zum DSA schickte Telegram als einzige Plattform keine Lobbyisten nach Brüssel – eine absolute Ausnahme für Unternehmen dieser Größe, die sonst praktisch alles tun, um Gesetzgebungsverfahren in ihrem Sinne zu beeinflussen.
Jahrelang war Telegram für Regierungen schlichtweg nicht erreichbar. Nur sieben Administratoren sollen für die mehr als 80.000 verschlüsselten Server zuständig sein, die weltweit verteilt sind. Einzelne Regierungen können schon rein technisch kaum darauf zugreifen. Vergeblich versuchte etwa das deutsche BKA lange, Nutzerdaten wegen Verdachtsfällen von Kinderpornografie und Terrorismus zu bekommen. Erst 2022 verkündete Bundesinnenministerin Nancy Faeser (SPD) stolz, es sei gelungen, „Kontakt zur Konzernspitze von Telegram herzustellen“.
In einer Videkonferenz habe es das „erste konstruktive Gespräch zur weiteren Zusammenarbeit“ gegeben, man habe „vereinbart, den Austausch fortzusetzen“, so Faeser. Die Strafverfolgungsbehörden traten Telegram als Bittsteller entgegen. Allerdings nicht ohne Erfolg: Das Unternehmen rühmt sich zwar bis heute „0 Byte Nutzerdaten an Dritte einschließlich aller Regierungen“ weitergegeben zu haben. Nach Recherchen des Spiegels rückte Durow an das BKA aber sehr wohl vereinzelt Daten heraus.
Der DSA verpflichtet die Plattformen nun, einen Repräsentanten in der EU zu benennen, an den die Behörden sich wenden können. Telegram beauftragte dafür einen externen Dienstleister, eine neu gegründete Brüsseler Briefkastenfirma namens EDSR. Deren Geschäftsmodell ist es, für Plattformen aus Nicht-EU-Staaten die vom DSA geforderte Repräsentanz darzustellen. Inhaberin ist die kanadische Anwältin Jane Murphy, die das Geschäft pünktlich zum Inkrafttreten des DSA startete.
Image maximaler Staatsferne
Kann sich künftig an sie wenden, wer etwa auf Telegram mit dem Tod bedroht oder wessen Privatadresse veröffentlicht wird? Man sei „bedauerlicherweise nicht in der Lage, irgendetwas über die Klienten oder ihre Geschäftstätigkeit preiszugeben“, schreibt ein Sprecher Murphys auf taz-Anfrage.
Vor einem Interview bittet er um ein Vorab-Gespräch per Videokonferenz, danach um einen vollständigen Fragenkatalog. Schließlich sagt er, Murphy befinde sich „in einer sehr arbeitsreichen Zeit“ und werde „in naher Zukunft nicht in der Lage sein, einen sinnvollen Beitrag zu einem Artikel zu leisten“. Viel gesprächiger ist Telegram selbst auch nicht, und das ist zweifellos der Sinn des Ganzen: Telegram weiterhin so weit abzuschotten, wie das Gesetz es zulässt.
Denn Durow pflegt mit Hingabe das Image maximaler Staatsferne. Auch wenn Telegram heute als globales Vehikel russischer Propaganda gilt, weist Durow jede Verbindung zum Kreml strikt zurück. Tatsächlich musste er 2014 Russland verlassen, nachdem es Ärger mit seiner ersten Plattform, dem russischen Facebook-Pendant VKontakte (VK) gab. Durow hatte sich geweigert, Daten an den russischen Geheimdienst FSB weiterzugeben und Inhalte zu löschen.
Er musste seinen VK-Anteil kremlfreundlichen Oligarchen verkaufen. 2018 verweigerte Durow der Regierung auch Telegram-Nutzerdaten, woraufhin der Messenger in Russland verboten wurde. Doch Durow vermochte den Bann technisch zu umgehen. Seither gilt er als aufrechter Kämpfer für die freie Meinungsäußerung.
Durow kommt heute zugute, dass den Plattformen, die demokratiezersetzender Propaganda Raum geben, im Westen mit Sanftmut begegnet wird. Statt auf Härte setzt die EU auf Kooperation. Das kann funktionieren, solange die Konzerne halbwegs mitziehen. Aber die Tech-Milliardäre haben die Wahl, kooperativ zu sein, wenn es ihnen passt – wie derzeit Mark Zuckerberg mit Meta – oder eben nicht, wie eben Durow.
Dabei könnte etwa die EU-Kommission Apple und Google anweisen, die Telegram-App in der EU aus dem App-Store zu verbannen. Die Plattform ließe sich in der EU technisch blockieren, ein Zugang wäre dann nur noch aufwändig per VPN-Tunnel möglich. Doch die Fake News würden sich andere Plattformen suchen – und der Westen stünde als Zensor da.
Hybride Bedrohungen
Dabei ist Telegram heute auch ein Instrument in Kriegen geworden. Die Plattform sei „fester Bestandteil der Kommunikations- und Informationskriegsführung der Hamas“, schreibt der israelische Analyst Tal Hagin. Ähnlich beim Ukrainekrieg. Am 19. Februar hörte Russland ein Gespräch deutscher Militärs zu möglichen Lieferungen von Taurus-Marschflugkörpern an die Ukraine ab.
Zehn Tage später veröffentlichte Margarita Simonjan, die Chefredakteurin des russischen Staatsmedienkonglomerats Rossija Sewodnja, als Erste den Mitschnitt – nicht etwa in eigenen Sendern wie Russia Today, sondern auf ihrem Telegram-Kanal. Für „hybride Bedrohungen“ – etwa echte Informationen, die mit falschen gemischt und als Waffe eingesetzt werden – ist Telegram, wie der Taurus-Leak erneut zeigte, heute eine der ersten Adressen.
Die EU hat einen Chefdiplomaten, der für „Foreign Information Manipulation and Interference“, für hybride Bedrohungen also, zuständig ist. Es ist der Deutsche Lutz Güllner. Nach dem Taurus-Leak reist er nach Berlin, um zu erklären, was die EU Russlands Info-Attacken entgegensetzt. An einem sonnigen Dienstag im März sitzt er in den Räumen der EU-Kommission in Berlin und spricht über den „schleichenden Prozess der Destabilisierung“, mit dem der Westen es zu tun habe.
Die Kommission beobachte den „gezielten, langfristigen Aufbau von Netzwerken zur Manipulation von Informationen“, so Güllner. Desinformation sei alt, neu seien die technischen Möglichkeiten zur „Ampflizierung“: Geheimdienst-Operationen auf Plattformen bis hin zu Netzwerken von Usern mit falschen Identitäten. Russland sei einer der aktivsten Akteure. „Hier gibt es die größte Evidenz der Beteiligung staatlicher Stellen und ihrer Dunstkreise.“
Desinformation müsse dabei nicht faktisch falsch sein. Entscheidend sei die manipulative Absicht – etwa bei den Bauernprotesten. „Die sind nicht per se orchestriert von Moskau und niemand wird behaupten, dass da nicht auch tatsächliche Sorgen dahinterstehen, ob man das nun teilt oder nicht.“ Doch Desinformations-Netzwerke „springen ganz opportunistisch auf solche Konflikte auf und verstärken sie“.
Tatsächlich hatten während der Bauernproteste etwa die Putin-begeisterten rechtsextremen Medien Auf1 – ein österreichischer TV-Sender – und das Compact-Magazin sich als Sprachrohr der Proteste inszeniert. Auf1 hatte dabei vor allem auf seinem Telegram-Kanal – 270.000 Abonnenten – von „tatsächlichen Geheimplänen“ der „globalistischen Eliten“ geraunt, die „groß angelegten Bevölkerungsaustausch“ anstrebten. Compact hatte während der Proteste auf Telegram – 60.000 Abonnenten – unter anderem behauptet, Moskau habe „die Nase gestrichen voll von der deutschen Kriegstreiberei“, weshalb die „Legitimation für die deutsche Wiedervereinigung“ infrage gestellt sei. Das ist zweifellos manipulativ. Doch wer „nur auf die Inhalte schaut, kommt auf die schiefe Ebene, verheddert sich in Fragen, was gesagt werden darf“, sagt Güllner. „Wer sollte denn entscheiden, was irgendwo runtergenommen wird?“
Schweden ist schon weiter
Andrea Liebman, Agentur für Psychologische Verteidigung Schweden
Besser sei, auf die Mittel zu schauen: Etwa ob Bots verwendet oder Identitäten vorgetäuscht werden. „Das ist ein klarer Indikator für Manipulation, das sind illegitime Mittel.“ Denn schnell ist sonst der Vorwurf im Raum, die Redefreiheit zu beschränken. Er würde die Logik gern umkehren, meint Güllner dazu. „Indem wir Manipulation zurückdrängen, schützen wir die freie Meinungsäußerung der echten, genuinen, authentischen Stimmen.“
Denn der Westen sei „nicht schutzlos“, sagt Güllner. „Wir können selber transparent sein, aufklären, die Muster zeigen.“ Zivilgesellschaft, Medienkompetenz, Fakt-Checking Organisationen und Forschung müssten gestärkt werden. Letztlich müssten die Regierungen auch regulieren – und sanktionieren. Den DSA nennt Güllner „einen sehr wichtigen Schritt nach vorne, aber nicht ausreichend“. Er müsse „flankiert werden durch andere Maßnahmen.“ Immerhin nehme die Verordnung die Tech-Unternehmen nun in die Pflicht. Das Konzept, „das Risiko zum Thema machen, nicht den Inhalt,“ hält Güllner für einen guten Weg.
Das sieht man auch in Schweden so. Es ist neben Frankreich das einzige EU-Land, das dafür eine nationale Behörde aufgebaut hat: die zum Verteidigungsministerium gehörende Agentur für Psychologische Verteidigung nämlich. Sie residiert in Stockholm in einem unauffälligen gelben Gebäude nördlich der Innenstadt. Gitter und Türen sind dicker als bei Ämtern üblich, der Eingang ist schwerer gesichert, als die zivile Erscheinung erwarten lässt.
Das Interieur ist nobel, auf Sideboards stehen Nato-Wimpel. Gäste werden zuvorkommend behandelt, aber keine Sekunde aus den Augen gelassen. „Der Informationskrieg ist eine ernste Sache,“ sagt Andrea Liebman. Sie leitet die Analyse-Abteilung. In Wollpulli und Jeans sitzt sie am Tisch, drei Handys vor sich. Fast hätte sie es nicht in die Stadt geschafft, zu dicht war an diesem Freitag im April noch das Schneetreiben.
Das Recht auf Unwahrheit
Seit der Annexion der Krim sei klar gewesen, dass Schweden ins Visier hybrider Angriffe aus Russland geraten könnte, sagt Liebman So begann das Land schon 2014, sich gegen „maligne Desinformation“ systematisch zu wehren. Liebman benutzt die gleiche Vokabel, die im Englischen für bösartige Tumore verwendet wird. Und je stärker das Land in die Nato strebte, desto stärker wurden die Attacken.
„Menschen haben das Recht, Unwahrheiten zu sagen“, sagt sie. „Das rühren wir nicht an.“ Relevant werde es erst, wenn „ausländische Akteure unter falscher Flagge versuchen, die schwedische Bevölkerung, schwedische Entscheidungen oder schwedische Interessen zu beeinflussen“. Liebman setzt dagegen vor allem auf eigene Kommunikation. 2022 etwa attackierten islamistische Gruppen Schweden mit massenhaften Falschmeldungen über den angeblichen Entzug von Kindern aus islamischen Familien.
Die Kinder würden zur „Zwangschristianisierung“ in staatliche Pflegeheime gesteckt, in denen Pädophile arbeiteten. Das Risiko für Terroranschläge stieg. „Wir haben den Ministerpräsidenten gebrieft, der hat in einer Pressekonferenz zu den Falschbehauptungen Stellung bezogen“, sagt sie. Behörden kommunizierten auf Arabisch – mit Erfolg. „Der Schlüssel war, zu diesem Zeitpunkt selbst eine breite Öffentlichkeit anzusprechen.“
Gegenüber den Plattformen setzt Liebman auf Kooperation. „Es sind gigantische private Unternehmen, die eine unglaubliche Macht haben“, sagt sie. Nicht nur finanzielle Macht, sondern auch eine „unglaubliche Menge“ an Wissen über die Nutzer. „Sie wissen mehr über die Bevölkerung als das eigene Land.“ Die Agentur stehe in „ständigem Dialog mit den Plattformen“, sagt Liebman. Für Telegram gilt das allerdings nicht.
„Aber wir sagen ihnen nicht, was sie tun sollen. Wir schlagen niemals vor, Informationen zu blockieren.“ Die Redefreiheit sei ein zu hohes Gut. Die Plattformen hätten schließlich schon vor Jahren begonnen, Mechanismen gegen Desinformationen einzuführen. Das sei mittlerweile Teil ihrer PR. „Die Plattformen wollen verstehen, welche enorme Wirkung sie auf unsere demokratischen Gesellschaften haben, sie wollen sich selbst regulieren“, glaubt Liebman. Der DSA verstärke dies.
Aber was, wenn nicht – so wie Telegram? Das sei „sicher eine Herausforderung“, räumt Liebman ein. „Da wir wissen, dass Telegram nicht ansprechbar ist, beobachten wir eher, welche Schwachstellen damit verbunden sind“, sagt sie. Dialogversuche würden „sowieso nicht funktionieren“, da das Unternehmen die Plattform nicht vor Desinformation schütze. Also müsse man die „Schwachstellen aus der Perspektive der Verwundbarkeit betrachten.“ Soll heißen: Gegenstrategien entwickeln, wenn die hybriden Attacken sich auf Telegram verbreiten.
Druck wirkt
Das Dilemma ist groß: Lassen Staaten die Dinge in den sozialen Medien laufen, wenden sich weiter Menschen von der Demokratie ab, kann Russland seinen Einfluss ausbauen. Schreiten die Staaten zu sehr ein, tasten sie die Redefreiheit an. Müssen sie also weiter hinnehmen, wenn auf Telegram der Ukraine die Zerstörung der Baltimore-Brücke oder den Grünen der Geheimplan des „Großen Reset“ in die Schuhe geschoben wird?
Ja und Nein, sagt Mauritius Dorn vom Institute for Strategic Dialogue, einer der wichtigsten Institutionen, die über Regeln für soziale Medien nachdenken. Zwar könne Desinformation als „systemisches Risiko“ im Sinne des DSA eingestuft werden, gegen das die großen Plattformen vorgehen müssen. „Das bezieht sich aber nie auf einzelne Inhalte, sondern auf die Dienstleistungen, die zur Entstehung solcher Risiken beitragen“, so Dorn. Allerdings biete das EU-Recht Möglichkeiten, um gegen rechtswidrige Inhalte wie Verleumdung, Volksverhetzung oder terroristische Gewaltaufrufe auf Telegram vorzugehen.
Dass Telegram für die Staaten so unantastbar sei, wie die Plattform selbst gern glauben mache, sei ein Irrtum, sagt der Gründer des CeMAS-Instituts, Josef Holnburger. „Bei genügend Druck beugt sich Telegram. Auch wenn sie angeben, dass sie nie mit Staaten kooperieren – die Historie zeigt, dass das nicht stimmt.“ Der Nawalny-Spendenbot etwa wurde gelöscht, in Indonesien und Brasilien habe die Plattform auch kooperiert. „Telegram knickt bei zu viel Druck ein, zumindest zeitweise.“ Anscheinend habe auch der Druck der EU hier bereits etwas bewegt. Wie viel und wie lange, bleibe abzuwarten.
Dieser Bericht ist Teil des Rechercheprojekts „Decoding the disinformation playbook of populism in Europe“, das vom International Press Institute in Wien geleitet und in Zusammenarbeit mit Faktograf und taz durchgeführt wird. Das Projekt wird von dem European Media and Information Fund finanziell unterstützt, der von der Calouste-Gulbenkian-Stiftung verwaltet wird.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
Geschasste UN-Sonderberaterin
Sie weigerte sich, Israel „Genozid“ vorzuwerfen
Prognose zu Zielen für Verkehrswende
2030 werden vier Millionen E-Autos fehlen
Fake News liegen im Trend
Lügen mutiert zur Machtstrategie Nummer eins
Mord an UnitedHealthcare-CEO in New York
Mörder-Model Mangione
Partei stellt Wahlprogramm vor
Linke will Lebenshaltungskosten für viele senken
Vertrauensfrage von Scholz
Der AfD ist nicht zu trauen