Auf der Suche nach dem Neuen im Alten
Artikel drucken

Der Streit um die Netzneutralität und die Grundprinzipien des Internet

Das Argument, Nr. 294 (zum Vergrößern klicken)[Die folgende Rezension ist in der aktuellen Argument-Ausgabe 294 erschienen (Inhaltsverzeichnis). Auf Wunsch der Redaktion wurde sie gegenüber der ursprünglich eingereichten Fassung stark überarbeitet, weil meine Originalfassung als „zu technisch“ empfunden wurde – was aus meiner Sicht dem Text nicht unbedingt gut getan hat.]

van Schewick, Barbara, Internet Architecture and Innovation, MIT Press, Cambridge 2010 (574 S., geb., 34 €)

Eine Ursache für die erstaunliche Innovationskraft des Internets, diesem immer noch wachsenden Netzwerk (Mitte 2011 vernetzt es ca. 850 Mio Rechner), ist Verf. zufolge ein in den 1980er Jahren entstandenes Design-Prinzip seiner Architektur, das Ende-zu-Ende- Prinzip (kurz E2E-Prinzip). Es fordert die funktionale Trennung zwischen der Ebene der „end hosts“, den Rechnern der „Endnutzer“, welche Anwendungsprogramme nutzen, um sich übers Netz wechselseitig mit Informationen zu beliefern, und der Ebene jener Rechner, die das Netz bilden – „the core“ (59) –, dessen Programme möglichst generell, d.h. anwendungsunabhängig gestaltet werden. Analog fungieren Elektrizitätsnetzwerke (50): die Geräte in Haushalten und Industrie gleichen den „end hosts“, zum „Kern“ zählen die Kraftwerke, Überlandleitungen und Umspannungswerke. Wie im Fall der Elektrizitätsnetze kristallisieren sich auch beim Internet um „core“ und „end hosts“ getrennte Industriebranchen heraus. Netzbetreiber (z.B. die Deutsche Telekom AG) und Zugangsanbieter bilden den „core“; die „end hosts“ stehen bei Firmen mit Millardenumsätzen wie Ebay, Amazon, Google, aber auch bei der Masse derer, die ‚googeln‘, E-Mails versenden, per Internet telefonieren usw. Dass es für Netzbetreiber zunehmend profitabel wird, mit dem E2E-Prinzip zu brechen und mit ihrer technischen Infrastruktur ins Feld der „end hosts“ einzugreifen, treibt die bisherige Internet-Architektur in die Krise. Verf. strebt staatliche Regulierung der Netzbetreiber an; denen, die dafür kämpfen, gilt ihr Buch, das eine enorme Menge von Fachliteratur aufnimmt – zum Teil im Modus bloßen „name droppings“. Sie ist Juristin und Informatikerin, die 2005 an der TU Berlin promoviert hat, und derzeit Direktorin des Center for Internet and Society und Professorin an der Stanford University.

Ihre Grundthesen finden sich kompakt in ihrem Beitrag „Innovationsmotor Internet: Der Einfluss der Netzarchitektur auf Innovation“ (in: Drossou/Krempl/Polterman (Hg.), Die wunderbare Wissensvermehrung, München 2006, 48–63). Mit dem Bruch des E2E-Prinzips sei das Internet „an einem Scheideweg angelangt“, was „wie ein Streit unter Netzwerkingenieuren aussieht, hat weitreichende Auswirkungen auf künftige Innovationen“ (49). Auf dem Spiel steht nicht zuletzt die Netzneutralität, also die Frage, ob Zugangsanbieter alle Datenpakete gleichberechtigt übertragen müssen oder ob sie nach Herkunft und Art der Pakete differenzieren dürfen. Letzteres würde es z.B. ermöglichen, Datei-Tauschbörsen auszubremsen oder ganz zu blockieren, oder Videos nur dann mit voller Geschwindigkeit zu übertragen, wenn YouTube dafür extra bezahlt.

Die Auslegung des „jahrzehntelang anerkannten und respektierten“ (ebd.) E2E-Prinzips ist umstritten, weil auch diejenigen, die es unterlaufen, sich auf es berufen. Hier sorgt das Buch für mehr Klarheit, indem es die Genese des Prinzips minutiös rekonstruiert und die Hauptetappen seiner Entwicklung dokumentiert. Die erste, „enge“ (narrow) Fassung wurde 1981 von drei maßgeblichen Architekten des Internets (J.Saltzer, D.Reed, D.Clark) veröffentlicht. Sie fordert, dass eine Funktionalität in der niedrigsten Programmschicht des Internetprotokolls implementiert wird, in der sie vollständig umgesetzt werden kann. In der 1984 revidierten Fassung wird der Ansatz radikalisiert: Es dürfen einer niedrigen Programmschicht nur solche Funktionen hinzugefügt werden, die alle Verwender dieser Schicht benötigen (2010, 58f). Diese zweite, „weite“ (broad) Fassung des E2E-Prinzips setzt sich allgemein durch. Es verbietet, Funktionen, die etwa nur zum Websurfen (HTTP) gebraucht werden, auf einer niedrigeren Schicht wie TCP umzusetzen.

Bewirkt wird damit, dass die unteren Schichten und damit die allgemeine Architektur des Internets quasi „neutral“ gegenüber möglichen Anwendungen sind. Auf kein besonderes Anwendungsszenario zugeschnitten, ermöglichen sie alle. Da Änderungen der elementaren Schichten nicht nötig sind, können neue Anwendungen wie Skype oder BitTorrent in der Entstehungsphase mit geringem finanziellen Aufwand experimentell variiert und im Erfolgsfall massenhaft etabliert werden: Es reicht, die neue Anwendung zu installieren, ohne erst mit Zugangsanbietern oder anderen Parteien verhandeln zu müssen. Diesen Aspekt der „evolvability“ (69f) des Internet führt Verf. in einer Reihe von Fallbeispielen vor.

Die Zahl potenzieller Entwickler wächst mit dem Internet: „In einer auf der weiten Version des E2E-Prinzips basierenden Netzwerk-Architektur […] ist die Menge der potenziellen Innovatoren“ sehr groß und vielfältig, denn „jeder, der programmieren kann […] und Zugang zu einem mit dem Internet verbundenen Computer hat, kann neue Anwendungen entwickeln“ (7). Teilweise ermüdend detailliert zeigt Verf. auf, dass jede Verletzung des E2E-Prinzips den Kreis potenzieller Innovatoren verkleinert. Zwar können Zugangsanbieter mit ihren Eingriffen zugunsten einzelner Anwendungen bessere Leistungen und höhere Gewinne erzielen, die sie zu Innovationen anreizen, insgesamt aber sinkt das Innovationspotenzial, während die Kosten für Endkunden steigen – was die Gewinne der Unternehmen schmälert, die auf Dienste der Zugangsanbieter angewiesen sind.

Im abschließenden Kapitel legt Verf. dar, dass Abweichungen vom Prinzip der Netzneutralität Zugangsanbietern ökonomische Vorteile bringen, die dem „öffentlichen Interesse“ (der Masse der nichtkommerziellen Internetnutzer) schaden. Das egoistische Verhalten der Zugangsanbieter führt hier keineswegs zu gesellschaftlich optimalen Ergebnissen (wie es die neoklassische Orthodoxie erwarten würde), weshalb Verf. ein „Marktversagen in Bezug auf die Entwicklung der [Internet-]Architektur“ (375) feststellt und staatliche Regulierung fordert. Nicht in den Blick kommt dabei, dass Markt und Staat nicht die einzigen gesellschaftlichen Organisationsformen sind. Das Internet hat eine Vielzahl an Projekten hervorgebracht – Freie Software, Wikipedia, Freie Kultur, Freie Hardware –, in denen Menschen gleichberechtigt und freiwillig zu Zielen beitragen, die ihnen wichtig sind. Die „commonsbasierte Peer-Produktion“ (Y.Benkler, The Wealth of Networks, New Haven 2006) eröffnet eine weitere Perspektive: „Netze in Nutzerhand“ statt staatlicher Regulation oder privater Profitmaximierung.

Kategorien: Medientipp

Tags: , , , ,

4. November 2011, 08:29 Uhr   0 Kommentare

Es gibt noch keine Kommentare...

Schreibe einen Kommentar