Das Web ist nicht eng vernetzt

Die "Fliegentheorie" zeigt, dass nur ein kleiner Teil des Web stark miteinander verbunden ist, während es viele Einbahnstraßen und Sackgassen sowie isolierte Inseln gibt

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Das World Wide Web galt nicht nur als Inbegriff einer dezentralen Struktur, sondern auch aufgrund der Hyperlinks als ein im Prinzip egalitäres und die geographische Entfernung aufhebendes Medium, bei dem jede Seite mit jeder anderen direkt oder nur in wenigen Schritten miteinander verbunden ist. Daher habe nicht nur jeder eine Chance, selbst eine Webseite gemäß der Vom-Tellerwäscher-zum-Millionär-Ideologie in die allgemeine Aufmerksamkeit zu bringen, sondern sei beispielsweise auch das Blocken einzelner Webseiten Unsinn, da man stets durch wenige Klicks und einige Umwege von einer beliebigen Website zu einer anderen kommt. Alles falsch, sagt eine neue Studie, die zeigt, dass das Web eher wie eine Stadt mit einem stark frequentierten Zentrum und bestimmten Vierteln ist.

Die Studie Graph structure in the web, durchgeführt von Wissenschaftlern von Compaq, Altavista und IBM, untersuchte, wie die Webseiten untereinander durch Hyperlinks verbunden sind. Das Interesse galt dabei natürlich dem ökonomisch interessanten Zentrum, das am dichtesten vernetzt ist und vermutlich auch die größten Surferströme aufweist. Allerdings mag das Bild von der Stadt mit einem Zentrum doch ein wenig in die Irre führen, denn anders als in einer wirklichen Stadt sind die Websites, die eng miteinander verbunden sind, natürlich keineswegs räumlich benachbart. Insofern bleibt das virtuelle Zentrum geographisch dezentralisiert, auch wenn man annehmen darf, dass die virtuelen Orte, die am meisten besucht werden und im Zentrum liegen, auch an die schnellsten und breitbandigsten "Datenbahnen" angeschlossen sind, aus denen sich wieder die durchaus geographisch verankerte Cybergeographie ableiten ließe.

Die Wissenschaftler haben mit dem Webcrawler von AltaVista im Mai sowie im Oktober mehr als 200 Millionen Webseiten durchforstet und sind den dort gelegten 1,5 Milliarden Links gefolgt. Das sei, so die Wissenschaftler, natürlich noch immer nur ein kleiner Ausschnitt des Web, aber doch weitaus mehr als bislang erfasst wurde. Auf der Grundlage der analysierten Daten entwickelten die Wissenschaftler die "Fliegentheorie" des Web, wobei unter Fliege hier das gemeint ist, was sich Männer gelegentlich als Ersatz für eine Krawatte umbinden. Diese "Fliegentheorie" unterscheidet nicht nur vier unterschiedliche Stadtteile oder Kontinente, sondern widerspricht eben auch der gängigen Theorie, dass man von jeder beliebigen Webseite zu jeder anderen in wenigen Schritten gelangen könne. Eine der prominentesten und jüngsten derartigen Theorien ist die 19-Schritt-Hypothese, die u.a. von Albert-Laszlo Barabas1, einem Physiker von der Notre Dame University, stammt. Barabasi will das Ergebnis der neuen Studie auch gar nicht bestreiten, weil sie auf einer weit größeren Datenbasis beruht, erklärt aber, dass die 19 Clicks Abstand nur ein Durchschnitt gewesen seien.

Fliegentheoretisch sieht es aber so aus, dass schon einmal 10 Prozent des Web gar nicht mit der "Fliege" verbunden sind, also keine Links nach außen aufweisen und von keinen Links verbunden werden. Zumindest ergibt sich das theoretisch. Die Fliege selbst, gesehen von der stark vernetzten Mitte aus, macht 90 Prozent der erfassten Webseiten aus. Im Zentrum, dem Knoten der Fliegen also, befinden sich 30 Prozent der Webseiten. Nur diese haben die Eigenschaft, die man zuvor gerne dem ganzen Web unterschoben hatte, nämlich dass die im Zentrum, dem "Strong Connected Core" (SCC), befindlichen Webseiten untereinander so dicht miteinander verbunden sind, dass man durch das Folgen von Links von einer Seite zu einer beliebigen anderen gelangen kann. Sucht man allerdings den Weg von einer zufällig gewählten Webseite zu einer anderen, ebenso zufällig gewählten, so wird man nach der Studie bei 75 Prozent der Versuche keinen gerichteten Pfad finden. Entgegen der These vom Web als einer "kleinen Welt" habe die Studie ein komplizierteres Bild gezeigt: "Wesentliche Teile des Web können überhaupt nicht von (wichtigen) anderen Teilen des Web erreicht werden, und es gibt eine signifikante Zahl von Paaren, dei zwar verbunden sind, aber nur wenn man Wege benutzt, die über Hunderte von vermittelnden Pfaden gehen." Wenn es allerdings einen Pfad gibt, dann gelangt man durchschnittlich in 16 Schritten von einer Seite zu einer anderen. Wenn es Links in beiden Richtungen gibt, kann die Zahl der erforderlichen Schritte zwischen zwei zufällig ausgewählten Seiten sogar nur noch durchschnittlich sieben betragen.

Neben der untereinander stark vernetzten Mitte gibt es dann noch zwei andere Teile, die den beiden Flügeln der Fliege entsprechen. Etwa 24 Prozent der Seiten haben nur Hyperlinks zu Seiten des SCC, während von dort keine Hyperlinks zurück weisen. Vom Zentrum aus lassen sich also die Seiten praktisch nicht finden. Die Wissenschaftler nennen dies die "IN"-Region. Eine genauso große Region ist durch Hyperlinks ausgehend vom SCC verbunden, aber es gibt keine Hyperlinks zurück. Diese "OUT"-Webseiten sind gewissermaßen Sackstraßen. Sind die Webseiten der IN- und der OUT-Regionen immerhin noch durch Einbahnstraßen mit dem Zentrum verbunden, so sind 22 Prozent des Web gar nicht mit dem Zentrum verbunden. Davon sind 10 Prozent jene "Inseln", die selbst noch aus der "Fliege" heraus fallen, während die restlichen 12 Prozent "Ranken" sind, die mit dem SCC nur indirekt durch Hyperlinks in den Flügeln verbunden sind. Von den isolierten "Inseln" unterscheiden sich diese Ranken auch insofern, als sie untereinander durch Tunnels verbunden sein können.

Die Stadtmetapher kann diese Verhältnisse möglicherweise ein wenig verdeutlichen, auch wenn in der Studie nicht gemessen wurde, ob die Webseiten des stark vernetzten Zentrums tatsächlich auch diejenigen mit dem meisten Verkehr sind: der öffentliche Verkehr ist in Städten normalerweise sternförmig organisiert, d.h. die Streckenführung geht vom Zentrum nach außen und umgekehrt, während nur selten Strecken, beispielsweise als eine Ringbahn, die Außenbezirke untereinander verbinden. Ähnlich wie in Städten ist möglicherweise auch der Verkehr in den Regionen der Fliege: Von den Außenbezirken fährt man normalerweise ins Zentrum und von dort, wenn man sich nicht im Zentrum verlustiert, direkt wieder zurück, während vom Zentrum ausgehend normalerweise auch nur direkt eine Adresse in einem Außenbezirk anführt, wohl aber im Zentrum eher umherschweift, weil hier die Verdichtung an Verschiedenartigem größer ist.

Erstaunlicherweise sind offenbar die vier bzw. fünf Regionen oder Kontinente des Web relativ stabil. Obgleich zwischen den beiden Messungen, also zwischen Mai und Oktober 1999, die Zahl der Webseiten insgesamt natürlich zugenommen hat, ist ihre Verhältnis untereinander konstant geblieben. Die Wissenschaftler vergleichen das Web mit einem "komplizierten Organismus, bei dem die lokale Struktur auf einer mikroskopischen Ebene wie eine wehr regelmäßige biologische Zelle aussieht, aber die globale Struktur eine interessante morphologische Struktur (Körper und Gliedmaßen) zeigt, die sich nicht aus der lokalen Struktur ergibt."

Die Studie wurden von Unternehmen durchgeführt, woraus sich auch die primäre Perspektive auf das Zentrum der dicht vernetzten Seiten ergibt. In diesem Zentrum, in dem die teuersten Grundstücke sich befinden, wollen sich natürlich Unternehmen mit ihren Websites ansiedeln, denn hier können sie am besten gefunden werden, auch wenn die Surfer nur zufälligen Verbindungen nachgehen. Zudem sind die Orte im Zentrum auch besser von den Suchmaschinen erfasst, während die Inseln, die bestenfalls untereinander vernetzt sind, möglicherweise für alle diejenigen, die die URL nicht kennen, unerreichbar bleiben. Interessant wäre natürlich auch, welche Webseiten eher Inseln bilden oder durch Tunnels ohne den Weg übers Zentrum miteinander verbunden sind. Zumindest scheint die Untersuchung sehr einseitig wieder auf die Konstruktion eines Zentrums ausgerichtet zu sein, denn unter einer anderen Perspektive hätte sich möglicherweise auch ein komplizierteres Bild mit mehreren unterschiedlichen Zentren und abgeschlossenen Bezirken ergeben. ergeben.

Das Interesse der Studie lag jedoch vornehmlich darin, eine empirische Grundlage für Strategien zu legen, wie man sein Webangebot ins Zentrum hieven kann. Eine "OUT"-Webseite müsste demnach, wie Compaq-Sprecherin Eileen Quinn meint, versuchen, aus dem Dasein als Sackgasse zu entrinnen, den Status einer Durchgangsstation mit ein- und ausgehenden Links zu erringen und leichter von den Web-Crawlers der Suchmaschinen gefunden zu werden: "Das stark vernetzte Zentrum des Web ist selbstverständlich der Ort, wo man im Gegensatz zu den Außenbezirken sein will." Allerdings könnten die Menschen mit den Möglichkeiten einer Suchmaschinen auch diese Zentrierung des Web umkehren, indem sie eher den Links nachgehen, die auf eine bestimmte, z.B. prominente Website gelegt wurden: "Das Surfen geht im Augenblick wesentlich in einer Richtung", sagte Nam LaMore, Sprecher von IBM. "Wenn ein Browser auch die Möglichkeit anbieten würde, zurück zu surfen, dann hätte man mehr Ressourcen zur Verfügung als jetzt." Möglicherweise könnte man auch schon eine Webseite besser vermarkten, wenn viele Hyperlinks auf sie gelegt wurden.

Doch direkte Erfolgsrezepte, wie man eine Webseite ins Zentrum der Aufmerksamkeit bringen kann, ergeben sich aus der Studie nicht. Ist eigentlich auch logisch, denn das ist ein Thema der Aufmerksamkeitsökonomie, die von den Werbeagenturen schon lange erkundet wurde. Würde es hier ein fixes Erfolgsrezept geben, wäre es schon längst gefunden. Insofern stimmt es wahrscheinlich schon, was die Forscher sagen: "Unsere Untersuchung weist darauf hin, dass die makroskopische Struktur des Web beträchtlich komplizierter ist, als dies frühere Experimente mit weniger Daten als Ausgangsbasis erwarten ließen." Auf jeden Fall sollen weiterhin regelmäßig Daten erhoben und ausgewertet werden, um die Ergebnisse der ersten Studie zu überprüfen.