Internet 2010 Teil 2
Das Internet Protokoll "next generation": mehr Leistung für alle oder das Ende des heutigen Netzes?
Wird das Internet - noch bevor es bzw. seine Nutzer je eine echte Chance hatten, die an das Netz der Netze gerichteten Erwartungen, all die ihm bescheinigten demokratischen Potentiale, all die Hoffnungen auf eine neue Gesellschaft, ja auf einen neuen Menschen, auch nur im Ansatz zu verwirklichen - zu einem Luxusgut, dessen Vorteile nur gut gepolsterte Unternehmen, Hacker oder finanzkräftige Privatpersonen genießen können?
Die "nächsten Generationen" des Domain Name Services, des Internet Protokolls sowie des Internet insgesamt werden zu gravierenden Veränderungen im Netzalltag führen und weiterhin Raum für zahlreiche Mythen rund um die Vernetzung lassen. Kommt mit der neuen Verteilung von Domain-Namen auch das große Abkassieren durch Pay-per-View?
Überschattet wird die gesamte Debatte um die zukünftigen Domain-Namen durch Diskussionen über noch fundamentalere Neuentwicklungen der Internetökonomie. Denn was nützt ein Domain Name Service mit auch noch so vielen Optionen, wenn die ihm zugrundeliegenden Basisprotokolle nicht mehr der technischen Entwicklung entsprechen und ihre Ressourcen erschöpft sind?
Gut 25 Jahre ist es nämlich bereits her, daß Vinton G. Cerf und Robert E. Kahn im Auftrag der Advanced Research Projects Agency (ARPA) das Internetprotokoll (IP) zum Laufen brachten. Und obwohl das Internet bzw. seine militärischen und akademischen Vorgänger seitdem einen nie erwarteten Boom und exponentielle Wachstumsraten erfahren hat, tut dieses Protokoll zum Austausch von Daten über alle Computersysteme hinweg bis heute als IPv4 (Version 4) mit noch fast allen damals implementierten Grundzügen seine Dienste. Die Frage ist nur, wie lange noch, denn seit der "guten, alten Zeit" hat sich das Universum der angedockten Internetrechner stark gewandelt: Es geht nicht mehr um die Vernetzung einzelner Mainframes oder Workstations, an die einige Terminals angeschlossen sind, sondern um die Eingliederung einer stetig wachsenden Zahl von Home Computern oder Büro-PCs in ein weltweites Netzwerk, das zudem nicht mehr allein Texte, sondern seit der Entwicklung des World Wide Web und seiner fortschreitenden Kommerzialisierung auch verstärkt "multimediale Gesamtkunstwerke", Real Audio oder andere Echtzeit-Anwendungen mit ganz anderen Bandbreitenansprüchen transportieren soll.
Mit Multimedia kann das IP in seiner heutigen Form jedoch nur wenig anfangen: es transportiert alle Daten - egal ob dahinter eine einfache E-Mail oder ein megabitschweres Videoformat steckt - durch die ihm eigene Arbeitsweise des "Zerhackens" in kleine Pakete, die dann, mit "Adreßaufklebern" versehen, auf ihre (ungewisse) Reise zum Empfänger geschickt werden (packet-switching). Das bedeutet, daß diese Datenpakete oft unterschiedlich lange unterwegs sind und zum Teil verloren gehen oder von "Paket-Schnüfflern" auch abgefangen werden können.
Was noch gravierender ist: IPv4 kann nur 32 Bit lange Adressen verarbeiten, was theoretisch zwar 4 Billionen Endgeräte im Netz erreichbar macht. Allerdings fällt diese Zahl in der Praxis deutlich kleiner aus, da die Adressen in Klassen (A-, B- oder C-Class-Netze) recht pauschal verteilt sind, auch wenn innerhalb dieser Kategorien nicht alle möglichen Adressierungen genutzt werden. Experten der Internet Engineering Task Force (IETF), die mit der Entwickung technischer Internet-Standards betraut ist, gingen so bereits 1993 - also noch vor dem eigentlichen Internet-Hype - davon aus, daß 2005 das Netz jenseits aller internen Verstopfungen schlichtweg aufgrund eines Nummernmangels "dicht" sei. Mit virtuellen Domains, die eigentlich keine eigenen IP-Nummern, sondern nur reine Webadressen auf einer weiteren Hierarchiestufe beanspruchen, könnte man zwar die allgemeine Verknappung der Grundressourcen des Netzes etwas hinauszögern, eine langfristige Lösung wäre damit aber nicht erreicht.
Das neue Internetprotokoll: Science Fiction, Mythos oder Fakt?
Seit mehreren Jahren wird deshalb an der Entwicklung eines besseren, schnelleren und flexibleren Protokolls gearbeitet, das als IPv6 oder in bester Star Track-Manier als Internet Protocol next generation (Ipng) in den Köpfen der IETF-Angehörigen wie auch der technisch interessierten Netzforen herumgeistert. Mehrere Lösungsvorschläge - von der vollständigen Wandlung der Übertragungsmechanismen bis zu einem leichten Facelifting - wurden im Rahmen der IETF heiß diskutiert, war man doch mit dem guten Vorsatz angetreten, keine Standards zu verabschieden, die nur einem Teil der Netzgemeinde bzw. rein kommerziellen Bestrebungen dienen würden. Bereits im grundlegenden Request for Comments (RFC) Nummer 1752 wurden dann im Januar 1995 die Grundzüge eines Kompromisses vorgestellt, die allerdings wohl noch auf unbestimmte Zeit auf ihre Implementierung warten müssen - und zudem die Vorsätze nur zum Teil zu berücksichtigen scheinen.
Welche Features wird das IPng für den Netzverkehr nach dem aktuellen Diskussionsstand zur Verfügung stellen? Bereits weithin bekannt ist die geplante Erweiterung der Adressen auf die Länge von 128 Bit. Das dürfte vorerst ausreichen, könnte man mit diesem Adreßvolumen doch theoretisch jeden Quadratmeter der Erde mit rund 665.570 Trillionen IP-Nummern zupflastern. Auch wenn die Nummern wieder zu einzelnen Klassen zusammengeschlossen werden, dürfte trotzdem noch jedes einzelne mit einem Mikrochip ausgerüstete Gerät ins Netz integriert werden können und somit endgültig die Grundlagen für das vielbeschworene "Ubiquitous" bzw. Wereable Computing gelegt worden sein. Neu ist auch die Differenzierung der Adressen nach Multicast-, Anycast- oder Unicast-Optionen, durch die ein effizienteres Routing von Datenpaketen durch Versendung an viele Empfänger gleichzeitig, an den zuerst antwortenden - da gerade nicht ausgelasteten - Server in einem Netzwerk oder an nur einen übergeordneten Internetprovider möglich werden soll.
Eine weitere grundlegende Änderung betrifft den Inhalt und die Programmierung des "Kopfes" der Datenpakete. "Der auffälligste Unterschied der neuen Header ist die Einführung verketteter Strukturen. Der eigentliche oder erste IP-Header enthält nur die Basisinformationen, alle weiteren Einzelheiten werden in zusätzlichen Headern kodiert, die mit dem ersten verknüpft sind", erklärt Hans Peter Dittler vom Braintec Netzwerk Consulting. Soll heißen: die neue Kommandozentrale eines IP-Paketes der nächsten Generation ist nicht viel "fetter" als beim Ipv4, enthält aber zusätzliche Informationen, die bei Bedarf von den es weiterleitenden Internetrechnern gelesen werden. Und in diesen Köpfen mit Köpfchen soll sich einiges unterbringen lassen: grundlegende Verschlüsselungsmechanismen - über die man sich allerdings noch nicht geeinigt hat -, Prüfsummen für die Authentisierung der Pakete im sogenannten Authentification Header, die die Integrität der Datenquelle und die sichere Versendung zum angegebenen Zielort gewährleisten sollen, und außerdem Prioritätskennzeichnungen, die z.B. für Echtzeit-Applikationen eine gewisse Bandbreitenkapazität garantieren, während sie Usenet-Botschaften oder E-Mails je nach freien Netzkapazitäten gemächlicher auf die Reise schicken.
Natürlich haben in einem solchen Header auch noch Informationen Platz, die für die genaue Abrechnung einzelner Datenpakete sorgen können. Womit wir auch schon bei einer grundlegenden Frage wären, die mit der Einführung der schönen, neuen Protokollfunktionen unübersehbar verbunden ist, nämlich: Wer wird für all die schönen, neuen Servicefunktionen bezahlen?
Wer soll das bezahlen?
Lange kein Geheimnis mehr ist, daß vor allem die Telefon- und Kabelgesellschaften dem "Mißbrauch" ihrer Leitungen für den allgemeinen Internetverkehr kein Verständnis mehr entgegenbringen und die Internet Acces Provider und damit letztlich den "End-Surfer" zur Kasse bitten wollen. Momentan nutzt der Internet-User im Normalfall noch die relativ günstigen Ortsverbindungen über das gewöhnliche Telefonnetz zu seinem Provider, und erst dann setzen die digitalen Pakete ihren weltweiten Datenverkehr in internationalen Internet-Backbones und Glasfaserkabeln fort, um in der Regel am Ziel ihrer Reise wieder über die eigentlich nicht für diesen Zweck ausgelegten und meist noch analogen Endleitungen beim Computer des Empfängers zu enden.
Für diese eher unfreiwillige Beförderungsleistung möchten die Telefongesellschaften jetzt endlich Geld sehen: "There's no longer a free lunch", gibt beispielsweise Ed Young von Bell Atlantic unmißverständlich zu verstehen. Seiner Meinung nach muß der "Wohlfahrtsbeitrag" der Telefonnetzgesellschaften zum Betrieb des Internet baldmöglichst gestoppt und durch einzelminütliche Abrechnungsmodi ersetzt werden, die zu einer Verdoppelung der Telefonkosten der Internet Provider führen könnten (vgl. WIRED 6/97, S. 53). Auch in Deutschland ist die Telekom übrigens auf ähnliche neue Einnahmequellen aus. Dabei sind die Manager zunächst auf den Gedanken gekommen, die bisher noch unrentablen, nicht einmal über einen digitalen Rückkanal verfügenden Kabelnetze effektiver zu vermarkten und in die Gewinnzone zu bringen. Folglich sollen die monatlichen Gebühren für den Endnutzer von 20 auf 100 Mark sowie die Preise für TV-Sender für die Einspeisung ihrer Programme verdreißigtfacht (!) werden. Das Bild eines öffentlichen Versorgungsbetriebes könnte die Telekom damit abstreifen, wenn auch die öffentliche Diskussion zu derartigen Überlegungen noch nicht einmal begonnen hat (vgl. Die Welt vom 25.6.1997).
In den Staaten stellt sich momentan noch die Federal Communications Commission gegen die neuen Kostenplanungen der dortigen "Telcoms". Dennoch scheint langfristig der Trend zum Pay-per-Use-Modell für jedes Einloggen in das Net - und zwar zusätzlich zu den bereits zu zahlenden Telefongebühren - kaum aufhaltbar zu sein (Vgl Interview mit Raisch und Rockwell). Das IPng würde dazu zumindest die genauen Abrechnungsmodi zur Verfügung stellen - bis hin zur Möglichkeit, jedem einzelnen Nutzer exakt die von ihm benutzten Bandbreiten und Prioritätssendungen in Rechnung zu stellen. Schlechte Zeiten also für Fans von Real Audio oder CU-SeeMe, zumal, wenn sie auf die bestmögliche Übersendung ihrer Files Wert legen. Schlechte Zeiten auch für den ursprünglichen Geist des Netzes, der das Teilen von Ressourcen aller Art zum Grundprinzip erhob und erst damit den unerhörten Aufstieg des Netzwerkes möglich machte.
Letztlich würde mit den Pay-per-Use-Modellen der Anfang vom Ende der Ethik der Kooperation im Internet eingeläutet werden und die fortschreitende Kommerzialisierung des Netzes auf der Basisebene der Infrastruktur seine gravierendsten Blüten zeigen. Robert Raisch, wissenschaftlicher Leiter der Internet Company, fürchtet gar, daß das momentane ökonomische Modell des Netzes, das die "Mitfinanzierung" kleinerer Internetprovider durch die großen der Zunft zur Regel gemacht hat, nicht mehr aufrechtzuerhalten sei, und damit zahlreiche unabhängige Access- wie Content-Provider zu einem schleichenden Tod verurteilt würden. Sogar eigentlich wenig Bandbreite schluckende Mailinglisten könnten davon betroffen sein, da die steigenden Kosten von ihren jetzigen "Sponsoren" kaum noch ohne weiteres weggesteckt werden dürften. Einen deutlichen Vorgeschmack auf diese sich abzeichnenden, gravierenden kulturellen Veränderungen hat jüngst einer der größten Internetprovider, UUNet, gegeben, indem er schlichtweg die "peering agreements", die generalisierten Datenaustauschvereinbarungen mit anderen nationalen Netzwerken und kleineren Internetprovidern aufgekündigt hat. Ein harter Schlag gegen den kooperativen Geist des Net und für die davon unmittelbar betroffenen Zweit-Liga-Provider wie etwa das Whole Earth Network (vgl. WIRED 8/97, S. 40).
Was für die einen den Untergang des Netzes und der ihm eigenen Kultur an den Horizont malt, ist für andere eine grundlegende Bedingung für den weiteren Betrieb des Internet: Kenner der Informationsökonomie wie der Berkeley-Professor Hal Varian sehen das Internet nach dem Auslaufen der "Subventionsphase" am Erwachsenwerden. Denn auch der momentane Zustand des exponentiellen Wachstums und der unbekümmerten Verschwendung von Bandbreiten sei ein unhaltbarer Zustand, der an die Selbstzerstörung der mittelalterlichen Allmende, also an die rücksichtslose Abweidung der Dorfwiesen und die Vernachlässigung des Gemeinwohls zugunsten rein selbstbezogener Interessen erinnere. Mautstellen müßten daher dringend in Betrieb gehen, und die Konsolidierung der Nutzerpreise sei im Rahmen der Optimierung der wirtschaftlichen Funktion des Netzes unvermeidlich (vgl. Die ZEIT vom 27.12.1996).
Auch in der Frage neuer Abrechnungsarten und der generellen Neuaufteilung der Grundgebühren für die Internetnutzung, die auf Grundlage des neuen Internetprotokolls erstellt werden könnten, laufen so die Meinungen stark auseinander. Für Optimisten wie Pessimisten läßt die unbestimmte Zeit der Einführung des IPng allerdings noch genügend (Streit-) Raum für neue Entwicklungen, Hoffnungen auf mehr und billigere Bandbreiten oder technischen Fortschritt, denn Netzwerk-Experten wie Hans Peter Dittler gehen davon aus, daß das IPv4 noch mindestens fünf bis zehn Jahre am Laufen bleibt, wenn vielleicht auch in einer Übergangsphase parallel zum Protokoll der "nächsten Generation". Es könnte allerdings alles auch ganz schnell gehen, wenn sich die Betreiberfirmen der einzelnen Netze mit den Telefon- und Kabelgesellschaften einig sind in der Umstellung auf das neue Protokoll, das im sogenannten 6Bone, einem Testbett in momentan 27 Lndern, seine Funktionalität bereits unter Beweis stellen kann. Denn das Internet ist, wie Mark Weiser von Xerox PARC, in einem Posting zur Mailingliste Flesh Factor festgestellt hat, "an agreement... about how computers will talk. IP/TCP/HTTP/HTML is the name of the universal language." Und eine solche Vereinbarung kann eben auch sehr schnell umgekehrt oder neu ausgerichtet werden.
Internet 2: Schlechtes Remake oder Kassenknüller?
Von der Zwei-Klassen-Teilung in der "Informationsgesellschaft" ist bereits überall die Rede, und tatsächlich braucht man schon heute eine immer leistungsfähigere und ständig zu erneuernde Computerausrüstung, um überhaupt Zugang zum Web und seinen technisch immer aufgeladeneren Serviceangeboten zu erhalten. Wenn zusätzlich noch die grundlegenden Nutzungsgebühren für das Netz steigen, wird dadurch erneut ausgesiebt werden zwischen einer Netzelite und den Chipsessern vorm Fernseher. Zäune würden dann nicht nur im Netz, sondern schon verstärkt bereits davor errichtet werden.
Ausweitung der Schnittstellen und die Erfindung immer ausgefeilterer Interfaces werden aber kaum die erhofften Wunschströme fließen lassen, eine elektronische "Agora" frei disputierender Bürger erzeugen und den Beginn eines beispiellosen Demokratisierungsprozesses einläuten. Die meisten Fenster und Tore des Cyberspace werden für den Netzsurfer verschlossen bleiben. Ohne Besitz der entsprechenden digitalen Schlüssel werden sie nicht zu öffnen, ohne das nötige Kleingeld nicht zu durchqueren sein. Wie seinerseits Kafkas Gesetzeshüter versperren heute Cocom-Listen und technisches Know-how, Vernetzungsgrad und Mautgebühren den Zugang zum Virtuellen.
Rudolf Maresch
Zu dieser Entwicklung trägt die National Science Foundation selbst in pionierhafter Weise bei. Sie hat ihr "Kind" Internet seinem eigenen, hart umkämpften Schicksal überlassen, ist allerdings gleichzeitig erneut schwanger geworden - mit dem Netz der nächsten Generation: "Internet 2" ist der Name der neuen Ausgeburt; ein Baby zwar noch, das allerdings die rührende Pflege von Eltern und Verwandten nicht missen muß. 12,3 Millionen Dollar will die US-Regierung in das neue Hochgeschwindigkeitsnetz, das auch unter dem bezeichnenden Titel "very high-speed Backbone Network Service" oder einfach unter dem Akronym vBNS durch die Medien geistert und nur amerikanischen Universitäten und Forschungseinrichtungen offenstehen soll, langfristig investieren (vgl. Chronicle of Higher Education vom 30.5.1997).
Since Uncle Sam logged off on April 30, 1995 and the National Science Foudation shifted its funding for the experimental vBNS and turned the Internet over to private business, the move towards making the Internet turn a profit has become irreversible.
Dennis O'Flaherty
Auch die Sponsoren aus der Computerwirtschaft lassen sich nicht lumpen: IBM hat 3,5 Millionen Dollar an Fördergeldern versprochen, Cisco will eine Million Dollar "investieren". Dadurch sollen die neuen Netze für die mittlerweile über 100 angeschlossenen Einrichtungen auf bis zu 2,5 Gigabit aufgerüstet werden, damit, so Bill Clinton in der Rede nach seiner Wiederwahl, "unsere führenden Universitäten und Institute mit Geschwindigkeiten kommunizieren können, die 1000 mal schneller sind als heute, um neue medizinische Verfahren, neue Energiequellen und neue Wege in der Zusammenarbeit zu entwickeln."
Es geht also um den Ausbau der amerikanischen Vormachtstellung in allen entscheidenden informationsökonomischen Bereichen, um das Festhalten am Ziel der Errichtung des Goreschen "Information Superhighways". Eine Initiative, die erneut vielen Spekulationen um die Zukunft der Netzwerkkommunikation und der vernetzten Gesellschaft Nahrung geben wird und allein schon daher - zumindest rhetorisch - bereits ihr Ziel erreicht haben dürfte. Ähnliche Visionen hat kaum eine andere Nation zu bieten, auch wenn überall das Schlagwort Informationsgesellschaft politisch besetzt worden ist.
In Deutschland etwa geht es in der Praxis dann doch eher gemächlich zu: Auf 150 Megabit-DatenÜbertragungsraten pro Sekunde soll das Wissenschaftsnetz des Deutschen Forschungsnetz-Vereins (DFN) langfristig nach Plänen von Minister Jürgen Rüttgers (CDU) ausgebaut werden. Und auch das ist noch Zukunftsmusik, da die immens hohen Kosten für derartige "Hochgeschwindigkeitsnetze" das Budget einer Hochschule bei weitem übersteigen und momentan eher Anschlüsse zwischen 16 und 32 Megabit die Regel sind.
Aus Wurzeln werden Bäume
Die "nächsten Generationen" des Domain Name Services, des Internet Protokolls sowie des Internet insgesamt werden zu gravierenden Veränderungen im Netzalltag führen und weiterhin Raum für zahlreiche Mythen rund um die Vernetzung lassen. Wenn die erklärten Zielsetzungen einer verschärften profitbringenden Nutzung der Basisökonomien und Infrastrukturen des Netzes allerdings in die Tat umgesetzt werden, könnte die Zukunft des Internet auch sein vorzeitiges Ende bedeuten - oder zumindest zur Schließung der Übergänge zwischen einzelnen Subnetzen führen. Aus Graswurzeln wäre dann zwar ein Baum gewachsen, seine Früchte aber wären noch vor der eigentlichen Reife bereits geplündert worden. Bleibt nur die Hoffnung auf einen neuen Gärtner oder besser gleich das eigene Studium der ökologischen Grundstrukturen des Baums und seiner Wurzeln, um im Bedarfsfall über Bewässerungs- oder Beschneidungsmaßnahmen und Neuanpflanzungen mitbestimmen zu können.