: Rettet das Internet!
Im Cyberspace, sagt man, muss die Freiheit wohl grenzenlos sein. Doch Vorsicht: Diese Freiheit ist in Gefahr. Mit Hochdruck wird an Identifizierungs- und Kontrolltechniken des Computernetzes gearbeitet. Das Unregulierte soll reguliert werdenvon LAWRENCE LESSIG
Der Cyberspace ist zunächst eine Architektur. Er ist eine Plattform, die konstruiert wird. Er wird durch einen bestimmten Code konstituiert – durch Software und Hardware, die den Cyberspace zu dem machen, was er ist. In diesem Code sind bestimmte Werte verankert; er ermöglicht bestimmte Praktiken; er macht die Vorgaben, unter denen das Leben im Cyberspace abläuft, genauso wie dies die Naturgesetze für das Leben in der Wirklichkeit tun.
Die meisten nehmen aber diese Architektur – den Code, über den der Cyberspace definiert ist – als gegeben an. Sie behandeln diesen Code, als ob er definitiv wäre, als ob er eine bestimmte, unveränderliche Natur hätte. Als ob Gott uns den Cyberspace geschenkt hätte und wir nur verstehen müssten, wie er funktioniert. Diese vorgebliche Natur wird in Slogans beschrieben: Der Cyberspace, sagt man, könne nicht reguliert, das Verhalten dort könne nicht kontrolliert werden. Regierungen seien hilflos gegenüber der Natur dieses Raums.
Aber es geht darum zu sehen, dass dieser Auffassung von der Natur des Cyberspace oder vom Cyberspace als Naturgegebenheit gar kein natürliches Objekt entspricht. Wenn irgendetwas ein soziales Konstrukt ist, dann der Cyberspace. Die gängige Auffassung des Cyberspace spiegelt in Wahrheit nur eine spezifische Konstruktion wider, genauer: die Bauweise des Cyberspace zu der Zeit, als er in den Blickpunkt der Öffentlichkeit geriet. Diese ursprüngliche Konstruktion verunmöglichte Kontrolle, insbesondere Kontrolle durch den Staat, und schuf so eine gewisse Freiheit im Cyberspace. Sie verunmöglichte ebenso Kontrolle durch andere Akteure oder Konkurrenten und förderte dadurch Wettbewerb und Innovation im Cyberspace. Dafür waren bestimmte Charakteristika dieses Raums verantwortlich, Charakteristika seiner Konstruktion.
Das ursprüngliche Netz schützte beispielsweise die freie Rede. Kraft seiner Architektur konnte jeder einfach sagen, was er wollte, ohne dass seine Aussagen von anderen kontrolliert werden konnten. China konnte Kritik an China nicht zensieren; Nachrichten über den Terror in Bosnien konnten ungehindert die Staatsgrenzen passieren. Das ursprüngliche Netz schützte auch die Privatsphäre. Man konnte durch das Internet surfen, ohne dass irgendjemand wusste, wer man war. Man konnte daher sein, wer immer man sein wollte, oder auch überhaupt niemand. Das ursprüngliche Netz schützte den freien Informationsfluss. Man konnte kostenlos perfekte Kopien von Texten, Bildern und Musik machen und sie überall im Netz weiterverbreiten.
Und schließlich schützte das ursprüngliche Netz Individuen vor lokaler Reglementierung. Kein Staat konnte das Leben im Netz irgendwelchen Regeln unterwerfen. Weil lokale und auswärtige Aktivitäten ununterscheidbar waren, lag das Verhalten im Internet außerhalb der Reichweite staatlicher Kontrolle.
Jede dieser Freiheiten basierte auf einem bestimmten Charakteristikum des ursprünglichen Netzes und war an eine bestimmte Konstruktion gekoppelt. Wer jemand war, woher er kam, welche Inhalte er verschickte – nachdem alle diese Informationen nicht leicht zu gewinnen waren, war es unmöglich, das Verhalten im Cyberspace zu regulieren. Was aber, wenn die Konstruktion des ursprünglichen Netzes verändert würde? Was, wenn es einfacher würde, jemanden zu identifizieren? Was, wenn Inhalte leichter überprüfbar würden? Was geschähe dann mit der ursprünglichen Freiheit des Netzes?
Die freie Rede wäre in Gefahr, weil Andersdenkende aufgespürt werden könnten. Die Privatsphäre wäre nicht mehr geschützt, weil Identitäten offen liegen würden. Inhalte könnten nicht mehr ungehindert verbreitet werden, weil Kontrolle möglich wäre. Das Verhalten wäre reglementierter, weil Staaten den Zugang über den Zwang zur Anpassung an ein bestimmtes Verhalten regulieren könnten.
Das alles ist freilich keine Vision, sondern bereits Wirklichkeit. Denn was machbar ist, wird gemacht. In den vergangenen fünf Jahren wurden alle Voraussetzungen für die ursprüngliche Freiheit des Cyberspace systematisch untergraben. Es wurden Technologien auf die ursprüngliche Architektur des Web aufgesetzt, die der Identifikation von Personen und Inhalten dienen.
Diese Technologien sind derzeit im wesentlichen in privater Hand. Die Wirtschaft setzt sie ein, um Informationen über ihre Kunden zu gewinnen. Natürlich würden dieselben Identifikationstechnologien auch staatlicher Regulierung und Kontrolle zupass kommen.
Wir alle haben von diesen Technologien schon in verschiedenen Zusammenhängen gehört. Auf der einfachsten Ebene handelt es sich um „Cookies“, die es Websitebetreibern erlauben, jemandes Fährte aufzunehmen; auf einer etwas komplexeren Ebene sind es digitale Zertifizierungstechniken, die persönliche Daten kombinieren, um es einer Person im Netz zu ermöglichen, ihre Identität gegenüber anderen auszuweisen. Die kurz vor der Marktreife stehenden biometrischen Technologien erlauben eine Identifikation von Personen mittels der Erfassung unverwechselbarer Körpermerkmale. Wenn Identifikation möglich ist, ist auch Regulierung möglich. Damit wird der ursprüngliche Charakter des Netzes, seine Freiheit, preisgegeben.
Zentral für den ursprünglichen Bauplan des Internet ist aber ein anderes architektonisches Prinzip mit anderen Auswirkungen auf Innovationen. Erstmals 1981 von den Netzwerkarchitekten Jerome H. Saltzer, David P. Reed und David Clark beschrieben, regt dieses Prinzip – „end-to-end“-Prinzip oder kurz „e2e“ genannt – Programmierer an, Intelligenz an den jeweiligen Enden zu platzieren und das Netzwerk selbst dumm zu halten. Zunächst unter dem Aspekt der Effizienz beschrieben, wurde schnell klar, dass dieses Prinzip eine wichtige Implikation hat: wettbewerbsfördernde Neutralität. End-to-end bedeutet, dass das Netzwerk selbst nicht in der Lage ist, irgendwelche Unterscheidungen zu machen. Es ist nicht fähig zu entscheiden, welche Anwendungen laufen sollten oder welche Inhalte zuzulassen sind. Ein solches Netzwerk ist dumm; es verarbeitet die Datenpakete blind. Es kann genauso wenig unterscheiden, welche Pakete „Konkurrenten“ sind, wie das Postamt erkennen kann, in welchen Briefen es kritisiert wird.
Diese Architektur fördert Innovationen. Programmierer können davon ausgehen, dass jede neue Anwendung und jeder neue Inhalt in diesem Netzwerk laufen werden. Sie müssen nicht mit allen möglichen Betreibern verhandeln, bevor sie ihre Programme in deren Netzwerken einsetzen. Selbst wenn eine neue Anwendung die bis dahin dominierende Netzwerkanwendung konkurrenziert, kann sie in diesem Netzwerk laufen. Der Prüfstein des Erfolges einer Innovation ist hier nicht, ob sie in die Geschäftspolitik des Netzwerkbetreibers passt, sondern ob der Markt sie verlangt. E2e ist damit ein Prinzip, das Innovation auf der Ebene der Architektur hervorbringt. Dieses Prinzip, dieser Wert war in das ursprüngliche Netz eingebaut, was in der Folge außergewöhnliche Innovativität und Kreativität garantierte.
E2e ist nicht das einzige Prinzip der ursprünglichen Architektur des Internet. Es ist nicht die einzige Art und Weise, wie Innovationen begünstigt wurden – andere Strukturen im ursprünglichen Modell leisten Vergleichbares. Ein Großteil des ursprünglichen Internets war nach dem Open-Source-Prinzip konstruiert; Open-Source-Software ist Software, deren Quellcode jedermann zur Verfügung steht und die nach Wunsch verwendet und weiterentwickelt werden kann. Das bedeutet zweierlei: dass die bestehenden Ressourcen von anderen für Innovationen genutzt werden können; und dass das System – weil es offen, also nicht unter der Kontrolle irgendeiner Firma, ist – neue Verwendungsweisen nicht diskriminieren kann. Genau wie bei e2e bleibt die Plattform eines Open-Source-Systems neutral und lädt so zu Innovationen ein.
Dieses Prinzip der Neutralität verändert sich derzeit, besser gesagt: Wir verändern es. Mit dem Umstieg von Telefonverbindungen auf Breitbandtechnologien wird das Netz so umgebaut, dass das e2e-Prinzip verletzt wird. Es wird in einer Weise umgebaut, die den Netzbetreibern Macht über die zulässigen Verwendungsweisen des Netzes gibt. Es wird so konstruiert, dass es die Eigentümer der Verbindungswege – gleich, ob Kabel oder Funk – ermächtigt zu entscheiden, welche Inhalte über das Netz verbreitet werden. Es wird so umgebaut, dass es strategische Entscheidungen der Netzwerkbetreiber ermöglicht. Die ursprüngliche Neutralität wird damit untergraben.
In den Vereinigten Staaten ist diese Umstellung im Zuge des Ausbaus der Breitbandtechnologien bereits in vollem Gange. Die großen Player sind AT & T, das so viele Kabelmonopole aufkauft wie es nur kann, und AOL, das eben Time-Warner geschluckt hat. Beide Firmen waren einmal Befürworter einer offenen und neutralen Internetplattform. Aber kaum waren sie selbst Eigentümer von Kabelnetzen, war jeder von ihnen an einer Kontrolle der Inhalte interessiert, die über ihre Leitungen liefen.
Nehmen wir zum Beispiel die Videoübertragung. Die Kabelmonopolisten übertragen Videoinhalte derzeit auf Fernsehgeräte. Das Internet ermöglicht die Übertragung solcher Inhalte auf Computer. Aber die Kabelbetreiber in den USA haben diese Übertragung eingeschränkt (während sie für die Übertragung auf Fernsehgeräte Gebühren verlangen). Und auf die Frage, ob Computer-Videoübertragung über das Kabelnetz überhaupt jemals zugelassen würde, antwortete der Leiter der AT & T-Internet-Services: „Wir haben nicht 56 Milliarden für ein Kabelnetzwerk ausgegeben, damit uns jetzt das Blut aus den Adern gesaugt wird.“
Es geht um das Prinzip – das Prinzip, das wir aufgeben. Wenn wir den Netzbetreibern erlauben, das Netzwerk unter Umgehung des e2e-Prinzips auszubauen, erlauben wir ihnen auch, die Innovationsanreize, die das ursprüngliche Netz bot, abzubauen. Die Entscheidung für einen bestimmten Code ist auch eine Entscheidung über die Innovationen, die der Code zu fördern oder zu hemmen imstande ist.
Alle diese Veränderungen geschehen, weil sich die Architektur des Netzes verändert, weil sie verändert wird und wir dies zulassen. Die ursprüngliche Architektur wird weiterentwickelt, um sich ihrer Prinzipien zu entledigen und den Cyberspace immer mehr an die wirkliche Welt anzugleichen – um ihn reguliert und konzentriert, kontrolliert und farblos zu machen.
Sowohl im Hinblick auf das Prinzip der Freiheit als auch auf das der Innovation ist der Ursprung dieser Veränderung in der Wirtschaft zu suchen. Ihr widerstrebt das Unregulierte, sie strebt nach einem gesicherten Monopol – nach Macht. Und dieses Streben hat Folgewirkungen.
Statt uns allein auf die Machtkonstellation zwischen den Staaten zu konzentrieren, sollten wir uns zuallererst mit der Machtverschiebung auseinander setzen, die die Entstehung der Cyberspace genannten Architektur mit sich gebracht hat: wie weit dieser Raum eine neue Quelle der Macht darstellt, deren Wesen von seiner Konstruktion abhängt. Und als nächsten Schritt sollten wir uns überlegen, wie sich der spezifische Charakter der ursprünglichen Macht dieses Raums heute verändert. Wie wir zulassen, dass er sich verändert, weil die Wirtschaft den Code verändert.
Auf der Bühne, die die Architektur des Cyberspace bietet, werden Machtkämpfe ausgetragen: Es geht darum, ob Staaten Macht haben, und wenn ja, wie viel; ob Mitbewerber Macht haben über andere Mitbewerber, und wenn ja, wie viel. Eine Analyse internationaler Beziehungen, die diese Bühne ignorierte, wäre genauso unvollständig wie eine, die China ignoriert.
Aber wenn wir den Stellenwert des Cyberspace ernst nehmen – seine Rolle bei der Regulierung all dieser Beziehungen, sein Potenzial, neue Formen der Regulierung einzuführen – dann werden wir erkennen, wie er sich verändert. Dann wird uns klar, dass wir zulassen, dass er sich verändert; dass wir dastehen und zusehen, wie dieser neue Raum und seine Ökologie umgemodelt, ausgehöhlt, zerstört werden – durch die Veränderung einer Architektur, die einen Freiraum definierte, ein Gemeingut, das die größte Revolution der Kreativität hervorgebracht hat, die wir je gesehen haben.
Gekürzter Vorabdruck aus: Transit 19, „Triumph des Marktes?“, Verlag Neue KritikDer Autor lehrt Rechtswissenschaften an der Stanford Law Scool und ist Mitglied des Berkman Center for Internet & Society an der Harvard Law Scool. Im Microsoft-Antitrust-Verfahren war er Berater von Richter Thomas Penfield Jackson.
Hinweis:Der Cyperspace soll wie die wirkliche Welt werden: kontrolliert und farblos
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen