Treffen unter Gleichen oder die Zukunft des Internet, Teil III

Nachlese: Dokumentierte Vorträge, interessante Aussteller, zukünftige Entwicklungen

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Auf der O'Reilly Peer-to-Peer-Konferenz im Februar konnte man nicht alles live erleben: Viele Vorträge fanden parallel statt, und einige Firmen stellten schriftliche Materialien zur Verfügung. Doch die Relevanz der Thematik ist es wert, einmal genauer nachzuschauen, was noch passierte. Der letzte Teil der Serie ist eine Nachlese mit dem Versuch einer Zukunftsperspektive.

Auf den Konferenz-Seiten von O'Reilly gibt es einige Vorträge zum Herunterladen. Die folgenden Zusammenfassungen stellen Interpretationen dieser Dokumente mit einigen zusätzlichen Informationen dar.

Die Verpackung digitaler Inhalte, von Mark Walker (Intel)

Das Tauschen von Musik, Bildern, Videos und Texten war in der Vor-P2P-Zeit ein oftmals mühseliges Unterfangen. Für Privatuser ohne Standleitung bot sich häufig nur die Nutzung von E-Mail oder WWW-Diensten an (siehe Schöner Tauschen IV). Die modernen P2P-Netze eröffnen neue, bislang ungenutzte Kommunikationskanäle.

Eine große Familie kann z.B. Fotos und Geschichten komfortabler austauschen, als das bisher möglich war. Dabei treten allerdings Probleme immer deutlicher zutage, die bislang eher stiefmütterlich behandelt wurden. Was ist eigentlich "foto17.jpg" für eine Datei? Zu welcher Serie gehört dieses Bild? Wer hat es aufgenommen?

Viele Fragen, die man über Dateien stellen kann, werden durch die Dateien selbst nicht beantwortet (s. auch Teil II, Metadaten: JXTA, Slashdot, Open-Source-Cola und Metadaten). Es sind Standards notwendig, die beschreiben, was die Daten enthalten ("foto17.jpg zeigt Tante Elfriede"), wie man sie findet, und in welcher Relation sie zueinander stehen ("foto*.jpg ist die Fotoserie aus dem letzten Urlaub"). Als "nice to have" bezeichnet Mark Walker von Intel die Möglichkeit, Daten darüber hinaus mit dateiunabhängigen Anmerkungen zu versehen und einzelne Dateien in einer Sammlung hervorzuheben. Für geschützte Inhalte sollten Daten mit Urheberinformationen versehen werden können.

Will man einen Gesamtstandard für die "Verpackung" von Daten schaffen, sollte man existierende Standards berücksichtigen. Das W3 (verantwortlich für die Entwicklung von Web-Standards) arbeitet an einem Standard für digitale Signaturen in XML-Dokumenten und am Resource Description Format für Metadaten, und auch die Motion Pictures Expert Group arbeitet an einem Standard zur Beschreibung von Multimedia-Daten, MPEG-7. Eine neue Arbeitsgruppe namens MPEG-21 will sich durch die Standards wühlen und einen Meta-Standard schaffen.

Und dieser Standard-Standard-Gruppe hat Intel mit DIDL (Digital Item Declaration Language) nun einen Vorschlag gemacht, wie man Daten nach den oben genannten Anforderungen zusammenfassen kann. DIDL ist ein XML-Schema, das es erlaubt, die Struktur einer Sammlung von Daten abzubilden. So kann man z.B. ein Fotoalbum als "Container" definieren und die darin jeweils enthaltenen Daten beschreiben, mit Anmerkungen und mit weiteren Tags versehen.

Angesichts der Standard-Flut stellt sich jedoch die Frage, welche Praxisrelevanz ein einzelner Standard hat. Da es sich hierbei um Definitionssprachen handelt, die vor allem im "Web der nächsten Generation" verwendet werden sollen, hängt die Akzeptanz letztlich auch sehr stark von den Browser-Herstellern ab, also von Microsoft. Und wie DIDL, RDF und .NET sich miteinander vertragen, bleibt noch abzuwarten. Denkbar ist auch, dass eine beliebte neue P2P-Anwendung schlicht ihre eigenen Standards definiert und diese sich dann aufgrund breiter Anwendung durchsetzen.

"Sicherheitsfragen bei Peer-to-Peer-Systemen" von Nelson Minar (Popular Power)

Popular Power ist eine der vielen Firmen, die sich im Feld des Distributed Computing versuchen, also der Nutzung verteilter Rechenleistung. Neben dem bekannten SETI@Home (siehe Treffen unter Gleichen, Teil I: Napster, SETI, Freenet, Gnutella, espra und Groove) gibt es noch viele weitere Projekte, die auch Privat-User dazu auffordern, einem sinnvollen Projekt Rechenkraft beizusteuern (eine hervorragende Zusammenstellung dieser Projekte findet sich bei Rechenkraft.de). Bei von Firmen durchgeführten Berechnungen müssen die zugrundeliegenden Daten aber meist innerhalb der Firma verbleiben, so dass eine massive Nutzung von externen Ressourcen nicht möglich ist. Firmen wie Popular Power, United Devices und Entropia sponsern die gemeinnützigen Projekte vor allem zur Image-Pflege. Bei Popular Power ist es die Bekämpfung des Influenza-Virus, der die User sich anschließen sollen.

Die Sicherheitsfragen sind in Netzen zum verteilten Rechnen besonders bedeutsam, betreffen aber grundsätzlich alle P2P-Netze. Sicherheitssensitive Daten dürfen weder in die falschen Hände geraten noch unberechtigt manipuliert werden. Eine Infektion durch sich schnell verbreitende Viren à la ILOVEYOU muss verhindert werden. Und nicht zuletzt kann eine sichere Authentifizierung notwendig sein, um zu verhindern, dass Dritte die eigene Identität für sich beanspruchen.

Bei einem traditionellen Client/Server-System gibt es einfache Sicherheitsmaßnahmen, die einigermaßen gut funktionieren. Voraussetzung ist ein Server mit einem sicheren Betriebssystem, geschützt durch eine Firewall. Alle Kommunikation mit diesem Server muss verschlüsselt und authentifiziert sein. Um Einbrüche zu erkennen, kann man die Server-Logs auswerten oder Fallen ("Falldrähte" und "Honigtöpfe") aufstellen. Ansonsten hilft laut Minar nur noch Beten, dass man keine Bugs hat.

In P2P-Netzen ist Sicherheit weitaus schwieriger zu garantieren. Jeder Rechner in einem dezentralen Netz ist per Definition nicht vertrauenswürdig. Rechner kennen einander nicht, und bei Broadcasting-Verfahren à la Gnutella können sich Viren und Trojaner mit exponentieller Geschwindigkeit verbreiten. Hinzu kommen Probleme mit unterschiedlichen Versionen -- während sich bei einem Client/Server-Modell zumindest der Server bei Bedarf schnell aufrüsten lässt, kann es in einem P2P-Netz sein, dass man es mit ein paar Dutzend unterschiedlichen Versionen zu tun hat, die gleichzeitig Client und Server sind. Das Gnutella-Netz beweist dies: Noch heute verwenden viele den veralteten Ursprungs-Client, der sich an keinen der neueren Standards hält.

Aufgrund der Dezentralisierung des Systems ist auch eine Überwachung schwerlich möglich. Was den Nutzer freut, ist des Admins Leid: Die Komplexität eines P2P-Netzes kann einer Analyse des menschlichen Gehirns unter dem Mikroskop ähneln - nur dass man unter Umständen gar kein Mikroskop hat! Immerhin kann man auf einige Tools zurückgreifen, um die Sicherheit innerhalb des Netzes zu gewährleisten: Verschlüsselung und Authentifizierung, Firewalls, Vertrauens- und Reputationssysteme, "Sandkästen" mit eingeschränktem Handlungsspielraum für die User.

Bei Vertrauens- und Reputationssystemen geht es darum, einzelne Nutzer mit pseudonymen Identitäten zu versehen (wobei ein Nutzer durchaus, wie bei Groove.net, mehrere Identitäten haben kann). Diese Identitäten können nun im Netz eine Reputation aufbauen, die auf Bewertungen durch andere zurückgeht. Ein einfaches Beispiel für ein solches Reputationssystem ist eBay, wo sowohl Käufer als auch Verkäufer sich gegenseitig bewerten können. Auf dieser Basis lässt sich dann eine Vertrauensbeziehung entwickeln: Wenn man wirklich weiß, dass man es mit dem vertrauenswürdigen User RadioactiveMan zu tun hat, ist man auch eher bereit, den illegalen Plutoniumhandel oder den preisgünstigen Verkauf der Schwiegermutter durchzuführen.

Sandkastenspiele

Im Netz von Popular Power gibt es zwar einen zentralen Server, es muss aber auch sichere Client-zu-Client-Kommunikation stattfinden. Bei Anwendungen im Bereich des Distributed Computing schlägt Nelson Minar ein Sandkasten-Modell vor, wobei seine Firma hierzu die Java Virtual Machine einsetzt. Der darin ausgeführte Code hat sehr präzise festgelegte Berechtigungen, so dass er schwerlich von Dritten missbraucht werden kann. Allerdings stellt sich bei Java-Anwendungen auf Client-Seite wegen der großen Downloads und der langsamen Ausführung immer die Frage nach der Nutzerakzeptanz.

Was den "Diebstahl geistigen Eigentums" angeht - in diesem Fall z.B. das Abhören von Forschungsergebnissen -, verwendet PP eine Strategie, die vor allem auf Verschleierung beruht. Sowohl der Code als auch die Daten und Ergebnisse werden vermischt, verschlüsselt und zerhackt. Ein Angreifer muss sich so immer die Frage stellen, ob der Zeitaufwand, der zum Crack nötig ist, das Ergebnis rechtfertigt.

Wegen der schwerwiegenden Sicherheitsprobleme in P2P-Netzen weist Nelson Minar darauf hin, dass Entwickler eine "moralische Verantwortung" haben, sich um diese Probleme zu kümmern. Tatsächlich könnte ein Sicherheitsloch in einem Large-Scale-P2P-Netz mit ähnlicher Verbreitung wie dem Web katastrophale Folgen haben.

"Instant Messaging als Applikationsplattform" von Michael Bauer (Jabber)

Jabber ist ein Instant Messenger im Stil von ICQ oder AIM: Man sieht, wann Freunde online sind und kann ihnen Nachrichten und Dateien schicken. Das Programm bietet Gateways zu anderen Diensten, um die Benutzerbasis zu maximieren. Im Gegensatz zu seinen Konkurrenten wird Jabber sowohl auf der Client- als auch auf der Server-Seite open source entwickelt, weshalb es sich vor allem in der Linux-Community großer Beliebtheit erfreut. Doch auch Clients für Windows und MacOS sind verfügbar. Insgesamt gibt es über 30 Clients, die sich alle an den Jabber-Standard halten: ein Real-World-Beispiel für die Mächtigkeit von Open Source.

Wie schon in Teil 1 erläutert, sind Instant Messaging Services sehr beliebt. Sie kombinieren die Möglichkeiten von Email, Chat und FTP mit einer jederzeitigen Verfügbarkeitsinformation. Michael Bauer erklärt die Beliebtheit von IMs mit dem "Law of the Pack", einer Gesetzmäßigkeit, die von Lotus-Forscher Dr. David P. Reed beschrieben wurde: Von allen Netzdiensten wüchsen diejenigen, die Communities und Tauschbörsen entwickeln, mit Abstand am schnellsten (exponentiell) - vor transaktionsbasierten Diensten wie Email und Handy (quadratisches Wachstum), die wiederum schneller wachsen als Broadcasting-Dienste wie TV und Radio (lineares Wachstum).

Um die Gateways zu anderen Diensten zu realisieren, verwendet Jabber Server-zu-Server-Kommunikation. Dies ermöglicht es auch, Communities mit unterschiedlichen Interessen miteinander zu verlinken. Nutzer können so auch mit Usern kommunizieren, die z.B. einen Server verwenden, der speziell für mobile Endgeräte gedacht ist. Die eigentlichen Datentransfers laufen in jedem Fall von Nutzer zu Nutzer.

Es ist zwar richtig, dass Jabber durch ein offenes Protokoll neben Instant Messaging auch weitere Anwendungen z.B. im E-Commerce-Bereich abwickeln kann (Greg Broiles vom Projekt "Turtledove" will sowohl eBay als auch Napster durch Jabber ersetzen). Jedoch fehlen dem System ausgefeilte Mechanismen zur Bildung von Communities. Wenn die User nicht zueinander finden, nützt auch die schönste Plattform nichts. So ist Jabber im Vergleich zu ICQ & Co. noch keine ernstzunehmende Größe, die User sehen keinen Grund, den Messenger zu wechseln. Doch das Potential der Anwendungen ist riesig.

"P2P und das Web" von Edd Dumbill, XML.com

Der O'Reilly-Mitarbeiter Dumbill fasst die Probleme des WWW zusammen: Das frühe Web war für die damaligen Anwender einfach zu benutzen, sowohl als Leser als auch als Autor. Es gab keine Browser-Inkompatibilitäten, und der Quellcode war nicht durch WYSIWYG-Editoren zugemüllt. Doch mit dem Wachstum des Web wurde Kollaboration schwerfällig und unökonomisch, und die Freiheit vieler gemeinsamer Foren wurde missbraucht. Das Veröffentlichen eigener Informationen wurde schwieriger, und die Suchfunktionen waren unzureichend. Heute gibt es bei zuwenig Metadaten über die Autoren und die Inhalte selbst.

Doch das Web ist ein offener, internationaler Cross-Plattform-Standard und hat deshalb nach Dumbills Meinung eine Existenzberechtigung. Ziel von P2P-Applikationen muss es demnach sein, ein aus heutiger Anwendersicht einfaches Web zu schaffen. Dazu gehört z.B. die Veröffentlichung per Drag and Drop und die Eliminierung von Konfigurationsfragen - jeder wird zum Server. Es wird zunehmend möglich, beliebige Anwendungen, vom Telefon bis zum Freenet-Client, im Browser ablaufen zu lassen. Allerdings beschränkt die Browsertechnik schon die Möglichkeiten der Software-Architekten - dies sei ein großes Hindernis, da neue Features nur langsam implementiert werden.

Technologien wie Xforms und WebDAV koppeln deshalb Web-Technologie mit P2P. XML wird die allgemeine Sprache sein, die hierfür zur Anwendung kommt. Daneben müssten dezentrale Hosting-Services geschaffen werden, um die Macht des ISP in die Hände der Autoren zu geben.

"Das Zwei-Wege-Web" von Rohit Khare, KnowNow Inc.

Die Firma KnowNow, ein kleines Startup-Unternehmen aus Menlo Park, möchte das Web auf eigene Faust revolutionieren. CEO Rohit Khare vergleicht das WWW mit anderen Diensten, aus der Sicht eines Zynikers: Napster sei zu offen, Gnutella zu gesprächig (was sich wohl auf das Datenvolumen bezieht), Groove.net zu abgeschlossen, der Web-Browser "hässlich und voller Bugs". Das Web einzusetzen mache aber wegen der Verbreitung der Standards weiterhin Sinn. Und die Tatsache, dass sich das Web für Multimilliarden-Dollar-Unternehmen einsatzbereit gezeigt habe, beweise seine ausreichende Sicherheit.

Dabei unterschlägt er die verheerende Wirkung, die Email-Viren anrichten können - mit Hilfe von Web-Technologie. Er unterschlägt klaffende Sicherheitslöcher in den großen Browsern - und dass Millionen von Usern noch mit ungeflickten Versionen der Browser surfen, weil ihnen 17 MB für einen Buffer-Overrun-Fix vielleicht doch ein bisschen zu viel sind. Er unterschlägt die massive Erstellung von User-Profilen durch Werbefirmen wie Doubleclick, die Unmengen an unterschiedlichen, zueinander inkompatiblen E-Commerce-Lösungen, den massenhaften Einsatz unsicherer Authentifizierungs-Verfahren, wobei ein Großteil der Passwörter im Klartext übertragen wird. Man muss Khare zugute halten, dass der Diebstahl von einer Million Kreditkarten durch die russische Mafia zum Zeitpunkt seines Vortrags noch nicht bekannt war. Wann ist ein GAU ein GAU? Ist das Web erst kaputt, wenn AOL/Time Warner/CNN es zugibt?

Khare möchte die erprobten Verfahren des WWW auch in den Netzen der nächsten Generation anwenden. Im Falle des Transportprotokolls HTTP macht das vielleicht noch einen gewissen Sinn, bei HTML und beim Browser jedoch sollte man Kosten und Nutzen sorgfältig gegeneinander abwägen. Es gibt Gründe, warum gerade die simpelsten P2P-Anwendungen wie ICQ und Napster die größten Benutzerzahlen haben - ohne signifikante Web-Integration.

Korrekt weist Khare darauf hin, dass die "Absenden"- und "Zurücksetzen"-Buttons im Browser nicht unbedingt der effizienteste Weg sind, Daten auszutauschen. Er vergleicht das Web in seiner jetzigen Form mit einem Telefon, das niemals klingelt: Man kann zwar anrufen, aber nicht zurückgerufen werden. Echte P2P-Applikationen sind so nicht möglich. Lösungen sieht er jedoch nicht in Applets oder Flash-Filmen, diese integrierten nicht hinreichend stark mit Web-Technologie. Komplette Programminstallationen aber schreckten zu viele User ab.

Die Lösung jedoch wird nur sehr diffus definiert. Aus Presseberichten über KnowNow lässt sich erschließen, dass die Firma ein System entwickeln will, das innerhalb des Web-Browsers die Verbindung zum Server auch nach dem Laden einer Seite aufrechterhält und mittels JavaScripts Informationen austauscht. Doch eine solche Lösung, wenn sie überhaupt funktioniert, ist eine offensichtliche Krücke. JavaScript (hat nichts mit Java zu tun) ist eine vermurkste Scriptsprache mit unzähligen Sicherheitsmängeln und einem sehr eingeschränkten Anwendungsspektrum. Ob ein System auf dieser Basis jemals breite Nutzerakzeptanz finden kann, ist ungewiss.

"Ein Überlebensmodell für die Musikwirtschaft" von Andreas Becker (Unternehmensberatung Diebold)

Die bekannte deutsche Unternehmensberatung Diebold hat sich Gedanken über die Zukunft der Content-Industrie gemacht (für das dazugehörige Buch sind 190 Euro fällig). Die großen fünf Labels kontrollieren laut Diebold über 70% des Musikmarktes, mit Umsätzen von 38,5 Milliarden Dollar im Jahr 1999. Alle fünf - Warner, Universal, EMI, Sony und BMG - haben sich bereits Gedanken über ihre Internetstrategien gemacht. Doch abgesehen von Bertelsmanns Strategie (Napster) muten die bisherigen Vorstöße eher peinlich an. Hier und da gibt es ein paar Titel zum Downloaden, meist zu lächerlich hohen Preisen und unter strengsten Auflagen, was das Kopieren angeht. Diese Lücke füllen die P2P-Applikationen à la Napster, die in dieser Serie ja bereits vorgestellt wurden.

Diebold zitiert eine Umfrage des Musikmagazins Spin (N=480), nach der viele Nutzer vollständige Alben mit Napster herunterladen (im Durchschnitt 1,7 Alben pro Woche) - aber auch im Durchschnitt insgesamt 7,2 CDs kaufen, von denen sie nur durch Napster erfahren haben. Eine weitere Umfrage der Firma Yankelovich (N=17000) hat ergeben, dass 57% der Online-Anwender der Meinung sind, der Download von Musik beeinträchtige ihr Kaufverhalten nicht, und 31% glauben gar, mehr CDs zu kaufen. Tatsächliche Daten sind indes schwer zu bekommen.

Die Unternehmensberatung sieht vier Herausforderungen für die Musikindustrie:

  1. mit gezielten PR-Kampagnen à la Copy Kills Music ein "Unrechtsbewusstsein" zu schaffen
  2. "Piraterie" mit dezidierten Ressourcen zu bekämpfen
  3. ihren Content für die Online-Welt zu lizenzieren
  4. zusammenzuarbeiten, um ein gemeinsames Online-Angebot zu entwickeln.

Doch dabei kommt die Konkurrenz nicht nur von den Napster-Clones, sondern auch von digitalen Labels à la mp3.com. Die Musikindustrie müsse deshalb die unterschiedlichen Zielgruppen gesondert behandeln. Die angenommene Mehrheit von Freeloadern, die alles umsonst wollen, sollten Werbebanner serviert bekommen. Darüber hinaus könnte man ihre Profile für eine Menge Cash weiterverkaufen. Die echten "Fans" könnten in irgendeiner Form zur Kasse gebeten werden.

In der Praxis sollen die Anwender Fragebögen ausfüllen und die Download-Erlaubnis abhängig von der Zahl und Qualität der Antworten bekommen. Wieviel wohl Details über die sexuellen Vorlieben wert sind? Und was zahlen die Versicherungsunternehmen für die Krankengeschichte? Dafür gibt's dann halt Gratis-Mucke.

Langfristig sieht Diebold für die Musikindustrie aber nur die "Apokalypse". In 10 Jahren schon könnte alle Musik der Welt auf einen einzelnen Datenträger passen. "Für 10$ auf dem Hong-Kong-Schwarzmarkt." Diebold zitiert eine Forrester-Studie, die das Risiko des Internet für unterschiedliche Content-Bereiche bewertet. Interessanterweise werden Bücher noch vor Spielen und Filmen als das nächste digitale Gut eingeschätzt, das "napsterisiert" wird. Dabei ist jedoch nicht zu vergessen, dass die Digitalisierung von Büchern ein höchst zeitaufwendiger Prozess ist, woran sich in naher Zukunft auch nicht allzuviel ändern wird. Das einzige Risiko für die Verleger sind E-Books, und vor denen hütet man sich bekanntlich in der Branche.

Carracho II - Napster mit Kohle

Auf der Konferenz lernte ich auch die Firma Carracho aus München kennen. Carracho ist eine Art Hotline-Clone für den Macintosh. Zur Erinnerung: Hotline ist ein auf dem Client/Server-Prinzip basie rendes Tauschnetz, wobei der Normal-User hier nicht wie bei Napster selbst Dateien anbietet (Die Klassiker: Usenet, IRC, FTP, WWW, E-Mail, Hotline). Weil das Programm nach Ansicht vieler User mit jeder neuen Version schlechter wurde und es auch noch firmeninterne Streitereien gab, stiegen Tausende User auf die deutsche Alternative um.

Da wurde auch der Burda-Verlag hellhörig, der einen Nachfolger von Carracho bauen will, um mit Bertelsmanns Napster zu konkurrieren. Der Burda-Digital Business-Scout Imdat Solak erklärte mir das Prinzip: Nicht nur sei es in Carracho II, Codename Spice Weasel (für Futurama-Fans), möglich, beliebige Dateien zum Tausch anzubieten (eine Neuerung, die nicht allzuviel technischen Aufwand erfordert), es würden auch für viele Dateitypen spezifische Suchmasken bereitgestellt. Das hat Vorteile: Bei einem Bild die Farbzahl oder bei einem Word-Dokument den Autoren angeben zu können, macht die Suche deutlich weniger schwammig.

Doch der eigentliche Clou ist das Bezahlsystem, das zunächst nur per Kreditkarte funktionieren soll. Geschützte Dateien sind zentral registriert, und für jeden Download wird eine Gebühr fällig (der Server schaltet sich dazu einfach zwischen die Peers, der eigentliche Transfer läuft aber wieder direkt ab). Auch die User selbst sollen dabei profitieren können, indem sie an den Distributionskosten beteiligt werden.

Burda will gezielt auf Partner zugehen, um Content zu lizenzieren. Es gäbe einen riesigen Markt von Content-Anbietern, die nur auf eine Chance warteten, Geld mit ihren Inhalten zu verdienen. Das ist sicherlich richtig, allerdings ist die unsichere Zahlung per Kreditkarte dafür wohl nicht unbedingt das beste Zahlungsmittel, in Europa außerdem alles andere als weit verbreitet. Doch der administrative Aufwand sei sonst zu hoch, andere Systeme könne man immer noch implementieren. Eine Version von Carracho II ohne Zahlungsmöglichkeit soll Ende März erscheinen.

ToadNode - der All-in-One-Client?

Was SnoopStar dank Bertelsmann nicht gelang, will ToadNode versuchen. Ursprünglich nur ein Gnutella-Client soll das Programm eine offene Plug-In-Architektur für beliebige andere Protokolle bekommen. Damit soll es möglich sein, mit ToadNode auf OpenNap-Server und interessante andere File-Sharing-Plattformen zuzugreifen - und zwar mit Sharing-Möglichkeit. Die erste Multi-Netz-Version soll in Kürze erscheinen.

Die P2P-API von Proksim

Eine beeindruckende Demo führte die Firma Proksim aus Kanada an ihrem Stand vor. Proksim entwickelt eine generelle Peer-to-Peer API, die sich für beliebige Anwendungen eignen soll. Damit soll es nicht nur möglich sein, sinnvolle P2P-Netztopologien zu realisieren, auch Anwendungen im Bereich Distributed Computing ließen sich durch die verteilte Ausführung von Code-Objekten umsetzen. In der Demo lief sowohl eine Daten-Synchronisierungsanwendung (dezentrale Aktiendatenbank) als auch eine Animation, die auf mehreren Rechnern gleichzeitig berechnet wurde.

Dabei handelte es sich bei den beteiligten Plattformen um einen PC, einen Notebook, einen PDA und ein Handy. Eine derartige Interoperabilität haben bisher nur wenige P2P-Anwendungen erreicht. Kein Wunder: Proksim arbeitet bereits seit mehreren Jahren an der API. Einen eigenen Vortrag auf der Konferenz gestand man der Firma nicht zu, weil man Infrastruktur für nicht so bedeutsam halte. Womöglich spielte für den Open-Source-Freund O'Reilly auch die Tatsache, dass der Proksim-Code geschützt und patentiert ist, eine Rolle.

Blick in die Zukunft

Derzeit konkurrieren ein paar Dutzend Firmen und freie Entwickler um die Entwicklung von Standards für die P2P-Infrastruktur. Ob diese Standards offen oder geschlossen sein werden, hängt letztlich davon ab, welche Anwendung sich durchsetzen wird.

Der Jabber-Ansatz, Gruppen von Nutzern gleicher Interessen zusammenzuführen, scheint richtig. Eine Killer-Applikation in diesem Bereich kann definierende Macht auf den ganzen P2P-Sektor ausüben, so wie es Netscape in den Anfangstagen des Web tat. Entwicklerfirmen dürfen jedoch nicht zu große Angst vor "dem Napster-Problem" haben. Dieses Problem - 50 Millionen registrierte User - müssen sie erst einmal bekommen. Klar ist jedoch, dass Applikationen wie Napster kaum sinnvoll in einem zentralen Framework ablaufen können. Die Notwendigkeit dezentraler Systeme kristallisiert sich immer mehr heraus. Und falls die Content-Industrie sich entscheidet, mit Copyright-Verletzern das zu tun, was man in den USA mit Drogenbenutzern tut ("Three MP3s and you're out!"), müssen diese Systeme - im Gegensatz zu Gnutella - auch echte Anonymität bieten, um erfolgreich zu sein.

Es ist wichtig zu erkennen, dass sich das Potential der P2P-Netze nicht allein auf File Sharing erstreckt, obwohl dies, wenn man den Begriff generell als "Information Sharing" betrachtet, sicherlich einer der bedeutendsten Bereiche überhaupt ist. Alternativ dazu bieten die neuen Netze aber auch die Möglichkeit, Handelsprozesse, insbesondere solche unter Konsumenten, massiv zu vereinfachen. Und neben Chat und Diskussionsforen sind unzählige P2P-Communities denkbar: interaktive Enzyklopädien, verteilte Weblogs ... man muss sie nur bauen.

Die Nutzer wiederum sollten nicht einfach tatenlos zusehen, während all das geschieht, sondern sich über die laufenden Projekte informieren und davon insbesondere die interessanten, aber finanziell schwachen Ein-Mann-Projekte unterstützen. Eine Spende an die amerikanische Info-Freiheits-Organisation EFF ist zwar sinnvoll, wenn man aber bedenkt, dass diese Organisation 500.000 Dollar Preisgeld für die Entdeckung von Primzahlen reserviert hat, ist das Geld vielleicht bei Freenet oder eDonkey2000 besser aufgehoben.

Treffen unter Gleichen, Teil I: Napster, SETI, Freenet, Gnutella, espra und Groove
Treffen unter Gleichen, Teil II: JXTA, Slashdot, Open-Source-Cola und Metadaten