piwik no script img

Archiv-Artikel

Deutschland wird Weltmeister

betr.: Fußball-Weltmeisterschaft

Und hier noch mal für alle, die es noch nicht wissen: Deutschland wird Weltmeister! Deutschland muss dringend Weltmeister werden. Denn nur das lässt die Menschen in diesem Lande blind bleiben für die praktizierte Raubtier-Politik. Denn nur das lässt Merkel unwidersprochen weitermachen, Deutschland politisch ins Aus zu befördern. Besonders die von dieser Politik Benachteiligten, die immer ärmer gemacht werden, können dann wenigstens sagen: Aber wir sind Weltmeister! BRIGITTE HORNBURG, Pinneberg