Populisten-Hochburg Facebook: Teile und herrsche
Facebook behauptet, die Welt näher zusammenzubringen. Doch immer mehr zeigt sich, wie das Netzwerk Menschen auseinandertreibt – und Populisten stärkt.
A ls Facebook 2012 an die Börse ging, erklärte Gründer Mark Zuckerberg in einem Brief an Investoren die Philosophie seines Unternehmens. Die meisten wachsenden Firmen bremsten zu sehr ab, weil sie mehr Angst vor Fehlern hätten, als davor, Chancen durch zu viel Langsamkeit zu versäumen, schrieb er. Facebook sei da anders. „Wir haben ein Sprichwort: ‚Move fast and break things.‘ Die Idee ist, wenn du nie etwas kaputt machst, bist du wahrscheinlich nicht schnell genug.“ Das Firmenmantra „Move fast and break things“ stand groß auf den Wänden des Unternehmenssitzes 50 Kilometer vor San Francisco.
Empfohlener externer Inhalt
Acht Jahre später lässt sich feststellen: Facebook war schnell und vieles ist kaputtgegangen. Für den Konzern, zu dem inzwischen auch der Messaging-Dienst Whatsapp und das Foto-Netzwerk Instagram gehört, entwickelten sich die Dinge erfreulich. Er verfügt nun mit all seinen Plattformen über mehr als drei Milliarden Nutzer, rund 40 Prozent der Weltbevölkerung. Knapp jeder zweite erwachsene Internetnutzer in Deutschland verwendet Facebook, mehr als zwei Drittel Whatsapp, jeder Vierte Instagram. Diese Marktmacht hat zu einem gigantischen Börsenwert geführt. Mit rund 650 Milliarden Euro Marktkapitalisierung steht Facebook auf Platz fünf der wertvollsten börsennotierten Firmen der USA.
Doch auch auf der Welt hat sich seit dem Börsengang vieles verschoben. Populistische Politiker sind in vielen Ländern an die Regierung oder ins Parlament gelangt. Autoritäre Regierungsformen haben zugenommen. Gesellschaften sind zutiefst gespalten. Verschwörungstheorien haben an Popularität gewonnen. Antisemitismus ist erstarkt. Falschinformationen können sich rasant verbreiten. Der Tonfall im Netz ist verroht und Empörung zur Grundstimmung vieler politischer Debatten geworden. Und es mehren sich die Anzeichen, dass der Facebook-Konzern zu dieser Verschiebung beigetragen hat, weil ihm Schnelligkeit von jeher wichtiger ist als Sicherheit – und Wachstum wichtiger als Verantwortung.
„Man muss davon ausgehen, dass Facebook einen Anteil an der Zunahme an Polarisierung, Populismus und verschwörungstheoretischem Denken hat“, sagt Ulrike Klinger, Professorin für digitale Demokratie an der Europa-Universität in Frankfurt an der Oder. „Wir haben nicht die Daten, um das zu quantifizieren, aber aufgrund der Studien, die es gibt, und was über interne Studien von Facebook bekannt ist, gehe ich davon aus.“ Das Unternehmen ergreife im Gegensatz zu anderen Netzwerken zwar relativ viele Gegenmaßnahmen. „Aber Facebook unterschätzt noch immer sehr, wie disruptiv es auf öffentliche Diskurse wirkt und wie tief das im Geschäftsmodell und der prinzipiellen Funktionsweise dieser Plattform verankert ist.“
Ein Team im Facebook-Konzern kam zu einem ähnlichen Schluss. Bei interner Forschung fand es 2018 heraus: Die Programmierung des Netzwerks treibt Menschen teilweise auseinander. „Unsere Algorithmen nutzen aus, dass das menschliche Gehirn sich von Spaltung angezogen fühlt“, hieß es in einer Präsentation. Werde dem nicht nachgegangen, würde Facebook seine Nutzer „mit immer mehr entzweienden Inhalten“ versorgen, „um ihre Aufmerksamkeit zu gewinnen“ und ihre „Zeit auf der Plattform zu verlängern“.
Mitarbeiter erarbeiteten Vorschläge für Änderungen. Doch Zuckerberg und andere leitende Angestellte blockten oder schwächten die Bemühungen ab – und stellten die Forschung weitgehend zurück. Die Zeitung Wall Street Journal hatte dies im Mai dieses Jahres enthüllt. Facebook verteidigte sich, mehrere Faktoren, die zu Polarisierung beitragen können, bereits angegangen zu sein.
Schon vor dieser Aufdeckung ging es mit Facebooks Ruf seit Jahren bergab, weil die Verfehlungen des Konzerns immer neue globale Dimensionen erreicht hatten. Besonders drei Fälle haben das Vertrauen der Öffentlichkeit erschüttert.
2017 wurde bekannt, dass vor der US-Wahl 2016 eine koordinierte russische Kampagne Millionen Bürger auf der Plattform erreichen konnte – und für den späteren Präsidenten Donald Trump warb. Bald darauf stellte sich heraus, dass das Militär im mehrheitlich buddhistischen Myanmar die Plattform nutzen konnte, um systematisch zu Hass und Gewalt gegen die verfolgte muslimische Rohingya-Minderheit anzustiften. 2018 wurde öffentlich, dass die Politikberatungsfirma Cambridge Analytica an Daten von bis zu 87 Millionen Nutzern gelangen konnte.
Kaum ein Unternehmen übersteht drei solche Skandale innerhalb kurzer Zeit wirtschaftlich unbeschadet. Facebook wuchs weiter.
Doch der Ton gegenüber dem Konzern änderte sich. Ehemalige führende Mitarbeiter begannen, vor Facebook zu warnen, darunter Zuckerbergs Co-Gründer Chris Hughes, Ex-Firmenpräsident Sean Parker, Whatsapp-Co-Gründer Brian Acton und Zuckerbergs früherer externer Berater Roger McNamee. Der Marketing-Professor und Big-Tech-Beobachter Scott Galloway erklärte Zuckerberg zur „gefährlichsten Person der Welt“. Das Magazin New Yorker fragte: „Kann Mark Zuckerberg Facebook reparieren, bevor es die Demokratie kaputt macht?“
Aufstand gegen Zuckerberg
Vor der Präsidentschaftswahl am 3. November sind in den USA solche Fragen wieder häufiger zu hören. Das Netflix-Dokudrama „Das Dilemma mit den sozialen Medien“ thematisiert aktuell, wie Nutzer von Plattformen manipuliert und beeinflusst werden. Schon im Frühjahr hatte Zuckerberg durch seinen Umgang mit einem Post Trumps einen Aufstand gegen sich ausgelöst.
Nach dem gewaltsamen Tod des Schwarzen George Floyd durch einen Polizisten hatte der Präsident Demonstranten auf Facebook mit Gewalt gedroht: „Wenn die Plünderungen beginnen, wird geschossen“. Twitter ergänzte den gleichen Beitrag Trumps mit dem Hinweis, er verstoße gegen die Regeln der Plattform zur Gewaltverherrlichung und schränkte die Verbreitung ein.
Zuckerberg entschied persönlich, den Post unverändert zu lassen – und brachte damit die Kritik an unzureichender Moderation von Inhalten auf Facebook wieder in Gang. Aufgestauter Ärger entlud sich. Bürgerrechtsgruppen riefen zu einem Anzeigenboykott unter dem Motto „Stop Hate For Profit“ auf. Hunderte Unternehmen strichen ihre Werbung, darunter Microsoft, Coca-Cola, Starbucks und Adidas.
Auch im eigenen Haus formierte sich Widerstand. Mitarbeiter streikten virtuell, kritisierten die Entscheidung auf der internen Plattform, unterschrieben Petitionen oder widersprachen öffentlich auf Twitter. Es wurden die größten Proteste der Firmengeschichte. „Facebook ist ein Unternehmen, das eine offene Gesprächskultur pflegt und in dem auch Bedenken und Kritik offen geäußert werden können“, sagt Sprecherin Anne Laumen der taz.
Dieser Text stammt aus der taz am wochenende. Immer ab Samstag am Kiosk, im eKiosk oder gleich im Wochenendabo. Und bei Facebook und Twitter.
Es blieb nicht bei Gesprächen. Einige kündigten. Andere gaben Firmeninterna an Journalisten. Hierzulande wurden keine Proteste von Angestellten bekannt. „Bei Facebook in Deutschland herrscht ein ziemlicher Korpsgeist vor“, sagt einer, der sich seit Langem beruflich mit dem Unternehmen beschäftigt. „Da wird meist nach dem Prinzip verfahren: ‚Mark hat das so gesagt.‘“
„Eine ziemlich verrückte Idee“
Die Eskalation in der US-Zentrale ist auch eine Spätfolge des einschneidenden Jahres 2016. Der Gedanke, zu Trumps Aufstieg beigetragen haben zu können, quält viele der meist progressiv gesinnten Mitarbeiter bis heute. Zuckerbergs damalige Reaktion steuerte dazu bei. „Die Idee, dass Fake News auf Facebook, die ein sehr kleiner Teil des Inhalts sind, die Wahl auf irgendeine Art beeinflusst haben, ist eine ziemlich verrückte Idee“, sagte er zwei Tage nach der Wahl auf einem Podium. „Wähler treffen Entscheidungen auf der Basis ihrer gelebten Erfahrungen.“
Doch es mehrten sich Hinweise, dass sein Beiseiteschieben dieser Bedenken voreilig war. Schon Tage später zeigte eine Auswertung des Online-Mediums Buzzfeed, wie viel Resonanz Falschnachrichten zur Wahl auf Facebook durch Teilen, Reaktionen und Kommentare im Vergleich zu Nachrichten der größten US-Medien erhalten hatten.
Nach und nach wurde klar, wie koordiniert Desinformation auf der Plattform aus dem Ausland zur Beeinflussung der Wahl eingesetzt worden war. Die kremlnahe russische Firma Internet Research Agency hatte über Jahre eine gezielte Kampagne durchgeführt – zunächst um Spaltung zu verstärken, schließlich um Trump zu unterstützen und Kontrahentin Hillary Clinton in Verruf zu bringen. Rund 29 Millionen US-Bürger sahen 2015 bis 2017 auf Facebook Inhalte russischer Fake-Accounts und Gruppen, musste der Konzern nach Dementis 2017 zugeben. Durch Interaktionen verbreiteten sie sich potenziell an weitere Dutzende Millionen US-Nutzer.
Russische Manipulation war eine Seite. Eine andere waren Trumps Anzeigen. 38 Millionen Euro steckte er von Juni bis November 2016 in Werbung auf Facebook, Hillary Clinton gab 24 Millionen aus. Der Konzern bot beiden Wahlkampfbüros eingebettete Mitarbeiter seiner Anzeigenabteilung an. Trumps Team nahm an, Clintons lehnte ab.
Ein Facebook-Angestellter half Trumps Leuten, Banner für Spenden zielgenau einzurichten. Innerhalb von Tagen brachten sie Trump Millionen Dollar für den Wahlkampf ein, erzählte der Mitarbeiter später. Verantwortlich für Anzeigen-Technologie bei Facebook war damals Andrew Bosworth. Ende 2019 schrieb der Vertraute Zuckerbergs seinen Kollegen über Trumps Sieg: „Er wurde gewählt, weil er die beste digitale Anzeigenkampagne durchführte, die ich je von einem Werbenden gesehen habe.“
Brad Parscale, Trumps Ex-Wahlkampf-Digitalchef
Hinter Trumps Anzeigen steckte dessen Wahlkampf-Digitalchef Brad Parscale. „Ich habe früh verstanden, dass Facebook der Weg war, wie Trump gewinnen wird“, sagte er in der Fernsehsendung „60 Minutes“. „Facebook war die Methode. Es war die Autobahn, auf der sein Wagen fuhr.“
Seit Trump im Amt ist, haben er und Zuckerberg sich mindestens zweimal getroffen. Im September 2019 saßen sie bei Cola im Oval Office. Trump postete ein Foto der beiden und schrieb dazu: „Nettes Treffen“. Mitgekommen war Facebooks Policy-Chef Joel Kaplan, Ex-Mitarbeiter Präsident George W. Bushs im Weißen Haus. Schon bald verabredeten sich Trump und Zuckerberg erneut.
Im Oktober 2019 aßen sie abends gemeinsam im Blue Room des Weißen Hauses. Dabei waren auch Facebook-Verwaltungsratmitglied und Trump-Unterstützer Peter Thiel sowie Trumps Berater Jared Kushner, zu dem Zuckerberg Kontakt pflegt. Das Treffen blieb wochenlang geheim. Der Präsident erzählte später, sein Gast aus dem Silicon Valley habe an diesem Abend zu ihm gesagt: „Ich würde Ihnen gerne gratulieren. Sie sind Nummer eins auf Facebook.“
Die Verbindung der beiden ungleichen mächtigsten Männer der USA lässt Medien stutzen. „Haben Mr. Trump und Mr. Zuckerberg eine Art von Übereinkunft erzielt?“, fragte die New York Times. Sicher ist: Für Trump ist es von Vorteil, wenn Facebook seine Beiträge und Anzeigen nicht einschränkt. In Zuckerbergs Interesse ist, dass Trump Facebook nicht reguliert, dass er gegen die chinesische App Tiktok vorgeht, viel für Anzeigen ausgibt und mit polarisierender Politik das Engagement auf seiner Plattform erhöht. Es gebe keinen Deal, sagt Zuckerberg. Die Idee sei „ziemlich lächerlich“.
Rund läuft es für Trump auf Facebook in jedem Fall. Er mag von einem Amtsbonus und seiner globalen Prominenz profitieren, doch die Zahlen sind sehr deutlich. So hat Trumps Profil etwa 30 Millionen Likes, Herausforderer Joe Biden nur rund drei Millionen. Auch bei Interaktionen auf eigene Beiträge hängt Trump Biden noch mehr ab als 2016 Clinton, zeigt eine Analyse. Draußen, außerhalb der Plattform, sieht es anders aus. Biden führt in Umfragen klar. Die Offline-Welt und die Facebook-Welt zeigen ein sehr unterschiedliches Bild.
Facebook ist deshalb selbst Wahlkampfthema. Immer wieder geht es um die Frage, was dort verbreitet werden darf. Nach dem TV-Duell etwa schaltete Trumps Team Anzeigen. Sie zeigten ein manipuliertes Foto Bidens. Ihm war ein Sender ins Ohr retuschiert worden. Er habe vor der Debatte eine Ohrenuntersuchung verweigert, stand dabei. Die Betrugsvorwürfe waren erfunden. Facebook veröffentlichte die Werbung. Millionen sahen sie. Kurz zuvor hatte Bidens Wahlkampf-Managerin Zuckerberg vorgeworfen, sich auf Machthabende auszurichten. Bidens Team fordert strengere Moderation. Trump wirft Facebook Zensur vor. Seit Monaten machen beide Druck auf den Gründer.
Zwei Monate vor der Wahl begann Zuckerberg, Schutzmaßnahmen anzukündigen. Er verbot neue politische Anzeigen für die Woche vor der Wahl und vorerst danach. Behauptungen, Bürger würden sich beim Wählen mit Corona infizieren, sollen gelöscht werden. Posts, die die Rechtmäßigkeit des Resultats abstreiten, einen Hinweis bekommen. Anzeigen, die das tun, sind untersagt. Sollte ein Kandidat vorzeitig den Sieg beanspruchen, will Facebook zum offiziellen Stand verlinken.
Die Regelungen sind ein Fortschritt. Doch sie kamen erst vier Jahre nach 2016, betreffen spezielle Fälle und lassen die meisten Probleme unangetastet. Fehlinformationen in Posts bleiben größtenteils unberücksichtigt. Unwahrheiten in Anzeigen von Politikern sind weiter gestattet. Und selbst direkt vor der Wahl ist politische Werbung möglich: Bereits existierende Anzeigen dürfen bis zur Wahl weiterlaufen.
Twitter schaffte politische Werbung ab – Facebook nicht, macht aber Vorgaben. Politische Anzeigen benötigen einen Disclaimer mit dem Namen des Bezahlenden. Doch deklariert ein Werbender eine politische Anzeige nicht als solche, erscheint sie mitunter trotzdem – ohne Disclaimer.
Das ist auch in Deutschland so. Die taz entdeckte in Facebooks Werbearchiv einen Banner des Absenders „Schutzzone Wolfsburg“ von 2019. Was dieser Name auf den ersten Blick nicht verriet: Es war eine Bürgerwehr-Kampagne der rechtsextremen NPD. Sechs Tage wurde die Anzeige gezeigt – bis Facebook sie wegen des fehlenden Disclaimers schließlich deaktivierte. Gegen seine Werberichtlinien verstieß die NPD-Annonce nicht – obwohl die Polizei gegen die Gruppierung vorgegangen war.
AfD dominiert Facebook
Besonders erfolgreich ist in Deutschland auf Facebook eine andere Partei – die AfD. Unter den im Bundestag vertretenen Parteien lässt sie auf der Plattform alle anderen weit hinter sich. Das zeigen schon die über 500.000 Likes ihres Profils. Die Linke hat etwa 250.000, CSU, Grüne, CDU und SPD liegen dahinter etwa gleichauf mit 190.000 bis 220.000, die FDP hat nur knapp 150.000 „Gefällt mir“.
Die AfD dominiert Facebook, das zeigen Untersuchungen. 2,6 Millionen Interaktionen erreichte die Partei innerhalb von elf Wochen bei der Europawahl 2019 auf ihren Seiten – zehnmal mehr als jede andere Partei, fanden zwei Forscher heraus. Unter den 100 Partei-Postings mit den meisten Interaktionen stammten im Wahlkampf 84 von der AfD, so das Ergebnis einer anderen Studie.
Der Erfolg der AfD auf Facebook liege „ganz klar“ auch daran, dass die Plattform algorithmisch Empörung und Emotionalität belohnt und Nuancierung bestraft, sagt Cornelius Puschmann, Professor für digitale Kommunikation an der Universität Bremen. „Inhalte, die stark auf Emotionalisierung, Empörung und Verärgerung setzen, passen besonders gut zum Prinzip algorithmischer Selektion von Facebook. Die ist sehr kongruent mit der Botschaft von Rechtspopulisten“, sagt er. „Das sind die Inhalte, die auf Facebook viel Resonanz erzeugen und im Sinne der Plattform funktionieren.“ Wissenschaftlerin Ulrike Klinger sagt: „Populistische Parteien sind auf Facebook sehr viel erfolgreicher als nicht-populistische.“
Ein spezielles Problem auf der Plattform ist Antisemitismus. Facebook hat seine Richtlinien in diesem Jahr verschärft. Doch judenfeindliche Inhalte sind noch immer häufig zu finden. Ein Interview von 2018 gibt einen Hinweis, wie es dazu kommen konnte.
Zuckerberg sprach mit Tech-Journalistin Kara Swisher darüber, was Facebook löscht und was nicht. Er wollte seine Haltung mit dem Beispiel Holocaust-Leugnung verdeutlichen. „Ich bin jüdisch und es gibt eine Reihe von Leuten, die leugnen, dass der Holocaust passiert ist“, sagte er. „Ich finde das zutiefst beleidigend. Aber letztlich glaube ich nicht, dass unsere Plattform das entfernen sollte, weil ich denke, dass es Dinge gibt, bei denen unterschiedliche Leute falsch liegen. Ich glaube nicht, dass sie absichtlich falsch liegen.“ Die Interviewerin unterbrach ihn, bei Holocaust-Leugnern könne es durchaus Absicht sein. Zuckerberg fuhr fort, es sei schwierig, Absichten nachzuvollziehen. Viele Menschen würden häufig falsche Dinge sagen.
Holocaust-Leugner strömten weiter auf Facebook. Die taz entdeckte im September vier Gruppen, die den NS-Völkermord leugnen. Eine bestand bereits seit 2014 und hatte knapp 2.000 Mitglieder. Die taz informierte den Konzern über die vier in Deutschland illegalen Gruppen und einen Film auf Facebook, der den Genozid abstreitet. Das Unternehmen sperrte die Gruppen und das Video in Deutschland – allerdings vorerst nicht weltweit.
Ende September fragte die taz nach, ob die Gruppen und das Video in allen Ländern außerhalb Deutschlands noch erreichbar sind und ob sie gegen die Gemeinschaftsstandards verstoßen. Facebook antwortete nicht. Doch im Hintergrund bewegte sich etwas. Es stellte sich heraus, dass der Konzern ohnehin gerade eine Änderung vorbereitete. Am 12. Oktober kündigte Facebook an, weltweit Inhalte zu verbieten, die den Holocaust leugnen oder verharmlosen. „Mein eigenes Denken hat sich weiterentwickelt, als ich Daten gesehen habe, die eine Zunahme antisemitischer Gewalt zeigen“, sagte Zuckerberg.
Der Zentralrat der Juden bezeichnet die Entscheidung als „überfällig“. Sie „könnte ein wichtiger Schritt“ zur Eindämmung antisemitischer Inhalte auf Facebook sein, sagt Präsident Josef Schuster der taz. „Insgesamt braucht es allerdings noch größere Anstrengungen, um Rassismus und Antisemitismus aus diesem sozialen Netzwerk zu verbannen.“ Tatsächlich entdeckte die taz noch in dieser Woche Gruppen zur Holocaust-Leugnung.
Gruppen tarnen sich
1,8 Milliarden Menschen nutzen Gruppen jeden Monat. Extremisten verwenden meist geschlossene. Verstöße sind dort schwieriger zu entdecken. Einige Gruppen tarnen ihre Namen. Eine im September von der taz entdeckte Fangruppe für den britischen Holocaust-Leugner nannte sich „Jews for David Irving“. Verschwörungstheoretiker von QAnon nennen sich mitunter wie Kinderschützer „Save the children“. QAnon-Anhänger glauben entgegen von Fakten, eine Elite demokratischer Politiker handele weltweit mit Kindern – und Trump bekämpfe dies.
Facebook wird vorgeworfen, maßgeblich zur Verbreitung dieser Bewegung beigetragen zu haben. Erst Jahre nach ihrem Anwachsen kündigte der Konzern Anfang Oktober an, alle QAnon-Gruppen zu entfernen. Noch immer lassen sich viele finden. Das Unternehmen teilt zu seinem generellen Umgang mit problematischen Gruppen mit: „Wir haben unsere Regeln in den letzten Jahren verschärft, in Technologie investiert und mehr Mitarbeiter eingestellt, die sich um Sicherheitsthemen kümmern und Inhalte überprüfen“, sagt Sprecherin Anne Laumen.
Thomas Heilmann hat Facebooks Umgang mit Extremismus erlebt. Er kennt den Konzern aus verschiedenen Perspektiven. Er sitzt für die CDU im Bundestag, hat aber nicht gerade eine typische Abgeordnetenbiografie. Nach der Wende baute der Dortmunder Jurist in Dresden eine Werbeagentur und einen Radiosender auf. Er wurde Chef der Agenturgruppe Scholz & Friends und sehr reich, indem er frühzeitig in Internetfirmen wie das Job-Netzwerk Xing investierte.
2008 suchte Facebook Gesellschafter in Europa. Viele winkten ab. Die Weltwirtschaftskrise hatte begonnen. Die Firma war erst vier Jahre alt. Sie machte zig Millionen Euro Verlust pro Jahr. Heilmann schlug zu. Er kaufte Anteile von ausscheidenden Mitarbeitern für „ein paar Hunderttausend Euro“. „Damals haben alle gesagt: Das ist ja völliger Irrsinn, da einzusteigen“, erzählt er im Garten des Reichstagspräsidentenpalais am Bundestag. Er selbst habe damals gedacht: „Das Geld kann auch verloren sein.“ Es kam anders. Ende 2010 verkaufte er seine Anteile. Ihr Wert war nach oben geschossen. Um wie viel genau wisse er aus dem Kopf nicht, sagt Heilmann. Er hat jedenfalls sehr viel Geld mit Facebook verdient.
Doch seine Begeisterung für den Konzern ist verflogen. „Ich finde Facebook unethisch“, sagt er inzwischen und nennt dafür vier Gründe. Den ersten erlebte er, als er 2012 Berliner Justizsenator wurde und damals feststellte, dass „sie bei der Strafverfolgung nicht unterstützen“, etwa bei Holocaust-Leugnung. Sein zweiter Kritikpunkt: die Verstärkung von Polarisierung durch Facebook. Dass der Konzern sich jahrelang „dafür überhaupt nicht verantwortlich fühlte, finde ich einen Skandal“, sagt er. Sein dritter Einwand: Facebooks Monopol. Der vierte: der Umgang des Unternehmens mit Nutzerdaten.
Thomas Heilmann, CDU-Politiker
Heilmann will den Konzern deshalb hartem Wettbewerb aussetzen. Er erwartet, dass sich dadurch Missstände bessern. Er möchte auf EU-Ebene einem „Konnektivitätszwang“ den Weg ebnen. Jede Plattform soll verpflichtet werden, seinen Nutzern Nachrichten anderer Plattformen zuzustellen – und das Versenden in andere Netzwerke zu ermöglichen. Vorbild soll der Mobilfunk sein.
Er verlangt zudem eine Diskussion über geschlossene Gruppen. „Wenn Leute darin überwiegend politischen Content verbreiten, könnte man ja sagen: Die Gruppe muss öffentlich gestellt werden.“ Das wäre aber eine „weitgehende Regulierung“. Die Politik täte sich mit der Regulierung des Konzerns so schwer, weil sie die destruktive Wirkung nicht gut genug verstünde. An Sympathien liege es nicht. „Facebook hat im Bundestag keine Fans mehr – außer bei der AfD.“
„Gefahr für die Demokratie“
In Datenschutzbehörden saßen die Fans noch nie. Johannes Caspar ist seit 2009 Hamburger Datenschutzbeauftragter. Kurz nachdem er anfing, eröffnete Facebook seine deutsche Zentrale in der Hansestadt. Caspar wurde damit Ansprechpartner für Beschwerden aus Deutschland über das Unternehmen. Seitdem geht es zwischen dem habilitierten Juristen und Facebooks Anwälten hin und her. Kürzlich erließ er ein Bußgeld über 51.000 Euro, weil der Konzern den Wechsel eines Datenschutzbeauftragten nicht mitgeteilt hatte.
Das Problem ist aus seiner Sicht aber größer. „Facebook kann über Profilbildung als Instrument genutzt werden, um politische Meinungen zu steuern“, sagt er. „Die Möglichkeit zu Hate Speech und falschen Informationen vergiftet das Miteinander in unserer Gesellschaft. Das ist eine Gefahr für die Demokratie. Diese Gefahr wächst zusehends.“
Professorin Ulrike Klinger würde das gerne verneinen. „Aber wir wissen es nicht. Es ist wichtig, dass wir herausfinden, ob bestimmte Diskursdynamiken Facebooks eine Gefahr für die Demokratie sind.“ Das zu erforschen, sei derzeit jedoch nicht möglich. Twitter sei gut untersucht. Bei Facebook kämen Forscher aber kaum an Daten. „Facebook ist eine Blackbox“, sagt sie.
Die Eigendynamik dieser Blackbox hat zu einer Überforderung aller geführt. Facebook überfordert die Politik. Es überfordert die Nutzer. Es überfordert den Gründer. Mark Zuckerberg maximiert die Größe und die Anzeigenerlöse seiner Maschine. Er minimiert seine Verantwortung für ihre Inhalte, für die Auswirkungen ihrer Grundprogrammierung und für die Folgen ihres Geschäftsmodells. Er konnte nicht in die enorme Aufgabe hineinwachsen, die seine Position erfordert. Er erklärte es zu seiner Mission, die Welt näher zusammenzubringen. Doch immer mehr weist darauf hin, dass er Menschen auseinandertreibt. Seine Erfindung ist ihm entglitten.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
Pelicot-Prozess und Rape Culture
Der Vergewaltiger sind wir
100 Jahre Verkehrsampeln
Wider das gängelnde Rot
++ Nachrichten zum Umsturz in Syrien ++
Baerbock warnt „Assads Folterknechte“
Trendvokabel 2024
Gelebte Demutkratie
Rechtsextreme Demo in Friedrichshain
Antifa, da geht noch was
Mord an UnitedHealthcare-CEO
Gewalt erzeugt Gewalt