Erinnerung und Vergessen im Netz: Ausgrabungen im digitalen Raum
Unmengen an Daten werden produziert, gespeichert – und vergessen. Wird das alles archiviert? Ein Blick auf künftige Archäologie.
Wer sich im Internet als Hobbyhistoriker betätigen will, der kann mit einem Mausklick das Internet Archive konsultieren. Die Non-Profit-Organisation hat auf ihren Servern 396 Milliarden Webseiten archiviert. Man findet dort zum Beispiel die Online-Ausgabe der New York Times vom 11. September 2001 oder einen Snapshot von Spiegel Online aus dem Jahr 1997, das an das Web 1.0 und die Anfangszeiten der Homepage-Bastler erinnert. Das Netzgedächtnis, das in einer ehemaligen Kirche in San Francisco lagert, ist mehr als nur ein Privatarchiv, es ist auch ein Stück Kultur- und Computergeschichte, das die Entwicklungen der Technologie auf eindrückliche Weise dokumentiert – wenn auch nur bruchstückhaft.
Doch jedes Archiv, jede Bibliothek (wenn es nicht gerade die totale Bibliothek von Babel mit unendlich vielen Büchern und Zeichen ist, wie sie der argentinische Schriftsteller Jorge Luis Borges imaginierte) ist selektiv: Sie kann schon allein aufgrund des begrenzten Raums nur eine limitierte Anzahl von Büchern und Schriften archivieren, und bei einer digitalen Bibliothek ist es aufgrund der begrenzten Speicherkapazitäten der Rechner nicht anders.
Die Frage ist, ob die Archivierung beziehungsweise Konservierung von Sinneinheiten in Zeiten digitaler Bilder- und Informationsflut überhaupt sinnvoll erscheint. Pro Minute werden allein auf Facebook eine halbe Million Kommentare gepostet, auf YouTube 500 Stunden Videomaterial hochgeladen. Wer soll das alles aufbewahren? Und warum? Die International Data Corporation (IDC) prognostiziert, dass das Datenvolumen bis 2025 auf 175 Zettabyte anschwellen wird. Gewiss, Daten sind nicht gleich Informationen. Doch schon heute ist es schwierig, die Informationen im Netz zu strukturieren.
Der Webanalyst JJ Rosen geht davon aus, dass der Google-Index lediglich 4 Prozent der Informationen aus dem Netz repräsentiert. Laut einer Studie der Fachzeitschrift Nature hat Google rund 16 Prozent der Web-Oberfläche indexiert. Die tieferen Schichten des World Wide Web, das sogenannte Deep Web, hat der Suchmaschinenriese mit seinen Fangnetzen, den sogenannten Webcrawlern, noch nicht durchdrungen.
Kurze Halbwertszeit
Das Deep Web ist ein riesiger Ozean aus Informationen: Datenbanken, Statistiken, Archive, Geheimdienstdokumente, Facebook-Posts – all das kann über Google nicht gefunden werden. Es ist ein wenig so, als würde man mit einem Boot auf offenem Meer in den ersten zwei bis drei Metern unter der Wasseroberfläche fischen. Doch bis in die Tiefen des Meeres dringt man nicht vor.
Vint Cerf, „Chief Internet Evangelist“ bei Google und einer der „Väter“ des Internets, warnte vor einigen Jahren vor einem „digitalen Dark Age“: Künftige Generationen könnten unter einer Art digitalen Amnesie leiden, weil alte Formate nicht mehr lesbar seien. „Was über die Zeit passieren kann, ist, dass, selbst wenn wir große Archive mit digitalen Inhalten anlegen, wir möglicherweise nicht wissen, was es ist.“ Der Grund: Die relativ kurze Halbwertszeit digitaler Speichertechnologien.
Blu-ray hat eine durchschnittliche Lebensdauer von 50 bis 100 Jahren (abhängig von Wärme, Licht, Feuchtigkeit und Kratzer), bei USB-Sticks liegt sie bei 30 Jahren (wobei die Schreibzyklen begrenzt sind), bei Servern zwischen zwei bis zehn Jahren. Bedenkt man, dass Inschriften auf Steinen (etwa der keilschriftlich überlieferte Codex Hammurapi, eine Sammlung von Rechtssprüchen aus dem antiken Mesopotamien) Jahrtausende überdauert haben, nimmt sich das als relativ kurze Periode aus.
Angenommen, man schreibt das Jahr 2100 und googelt nach einem Begriff (sofern die Suchmaschine bis dahin überhaupt noch existiert): Würde man eine Seite finden, die anno 2019 indexiert wurde? Man kann diese Überlegungen zu folgendem Gedankenexperiment verdichten: Angenommen, es gäbe Ende des Jahrhunderts die Profession des Internetarchäologen, der mit digitalen Werkzeugen die untersten Schichten des World Wide Web freilegt.
Was würde er sehen? Kopien von Selfies? Hasskommentare? Digitalen Müll? Gelänge es ihm, den Code freizuschaufeln, jenen Baustoff elektronischer Dörfer, der den Alltag von Millionen Menschen strukturiert? Was würden Internetarchäologen über den Google- oder Facebook-Algorithmus herausfinden? Und wäre es nicht auch eine Pflicht der Entwickler, diese Black-Box-Systeme zu archivieren und der Nachwelt zu überliefern?
Die Entwicklerplattform Github will ihren Open-Source-Code mithilfe eines Lasers auf einer Quarzglasscheibe eingravieren und in einem Endlager in der norwegischen Arktis archivieren. Im Packeis sollen die Daten 10.000 Jahre überdauern. Es geht dabei ja auch um die Erinnerungskultur, um die Frage, was eine Gesellschaft als konservierbar erachtet, was Eingang in das Zivilisationsarchiv findet – eine Entscheidung, die man nicht Algorithmen überantworten kann.
Das Recht auf Erinnern, das als Gegenstück zum Recht auf Vergessen bisweilen zu kurz kommt, ist ja ein konstitutives Element der Öffentlichkeit. Allein, wie will man sicherstellen, dass die Kopien ein Abbild vergangener Lebenswelten zeichnen, wo schon gut erhaltene Steinplatten nicht mehr sind als Näherungswerte an vergangene Realität mit hoher Fehleranfälligkeit? Ist der Gedanke, Informationen zu archivieren, nicht ein sehr analoger? Können digitale Informationen doch jederzeit überschrieben werden. Und woher rührt die Speicherwut der digitalen Gesellschaft, alles aufzeichnen zu wollen?
Das Internet vergisst
Nach Michel Foucault war das Archiv „das Gesetz dessen, was gesagt werden kann, das System, das das Erscheinen der Aussagen als einzelner Ereignisse beherrscht“. Mit der Dekonstruktion wollte der Poststrukturalist nicht nur die bürgerliche Institution der Bibliothek sprengen, sondern auch das Wechselspiel zwischen der Erfassung von Aussagen und der Aussagbarkeit aufzeigen. Für Foucault ist das Archiv eben kein statischer Speicher, sondern ein dynamisches Aussagesystem, dem a priori bestimmte Machtcodes eingeschrieben sind.
Überträgt man diesen Gedanken auf die digitale Welt, würde das bedeuten, dass mit der Indexierung von Informationen bei Google – das dem Archivierungsprozess sehr nahe kommt – Aussagen über die generelle Aussagbarkeit von Informationen getroffen werden. Sowohl in dem Sinn, was unsere Daten über uns aussagen, als auch in dem Sinn, welche Aussagen eine Suche über die Wirklichkeit im Netz trifft.
Die Diagnose, dass das Problem des Internets nicht in der mangelnden Fähigkeit des Erinnerns, sondern in der „schwindenden Möglichkeit des Vergessens“ liege (Roberto Simanowski), wird zuweilen als Störung oder Defekt eines speicherwütigen Mediums betrachtet. Doch das Internet hat durchaus die Fähigkeit zum Vergessen. Im März 2019 vermeldete das soziale Netzwerk MySpace einen riesigen Datenverlust: Im Rahmen einer Servermigration seien Millionen Songs, Fotos und Videos, die vor 2015 auf der Seite hochgeladen worden waren, vernichtet worden. 12 Jahre, einfach so verschwunden.
MySpace war zwischen 2005 und 2008 ein populäres soziales Netzwerk. Doch dann kam Facebook – und damit begann der Abstieg. MySpace gilt heute als tot, es gibt kaum noch aktive Nutzer. Doch der Datenverlust macht deutlich, dass das Vergessen nicht gerichtlich angeordnet werden muss, sondern auch durch technisches oder menschliches Versagen geschehen kann.
Wissen ist in der Geschichte immer wieder vernichtet, verworfen, verborgen oder aufgegeben worden, sei es durch Brände, Bücherverbrennung oder schlichtes Aussortieren. Der britische Historiker Peter Burke beschreibt in seinem Buch „Die Explosion des Wissens“, wie im 18. Jahrhundert erstmals der Gedanke aufkam, Bücher nicht deshalb zu vernichten, weil sie ketzerisch oder subversiv waren, sondern weil sie schlicht nutzlos erschienen. Bibliotheken sortierten immer wieder Bestände aus, um Platz für neues Wissen zu schaffen.
Trump-Tweets müssen aufbewahrt werden
Das gilt auch für digitale Bestände. Die Online-Enzyklopädie Wikipedia löscht regelmäßig Artikel – das Portal „Deletionpedia“, das es sich zur Aufgabe machte, gelöschte Artikel aufzubewahren, wurde 2009 eingestellt, was ja auch ein Indiz für die Vergeblichkeit totaler Speicherung ist. Auch die Library of Congress, die seit 2010 jeden Tweet archivierte und bis 2013 auf eine stattliche Sammlung von 170 Milliarden Kurznachrichten kam, hat dieses babylonische Unternehmen 2017 aufgegeben – das Datenvolumen war schlicht zu groß.
Einzig die Tweets von Donald Trump müssen nach Vorgabe des Presidential Records Act of 1978 von Amts wegen aufbewahrt werden – auch die, die er gelöscht hat. Der Rechtsakt wurde erlassen, um zu verhindern, dass die Tonbandmitschnitte von Gesprächen mit Ex-Präsident Richard Nixon vernichtet werden. Die Demokratie erhält sich ein langes Gedächtnis.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
Historiker Traverso über den 7. Oktober
„Ich bin von Deutschland sehr enttäuscht“
Deutsche Konjunkturflaute
Schwarze Nullkommanull
Interner Zwist bei Springer
Musk spaltet die „Welt“
Elon Musk greift Wikipedia an
Zu viel der Fakten
Schäden durch Böller
Versicherer rechnen mit 1.000 Pkw-Bränden zum Jahreswechsel
Grünen-Abgeordneter über seinen Rückzug
„Jede Lockerheit ist verloren, und das ist ein Problem“