Vom World Wide Web zum globalen Gehirn

Die Gestaltung eines Nervensystems für den neuen Superorganismus

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Virtuelle Agenten, Automatisierung von assoziativen Verknüpfungen und sich selbst verstärkende Lernprozesse könnten ein intelligentes Web schaffen. Es lernt von seinen Benutzern so, wie diese von ihm lernen. Mit direkten Schnittstellen zwischen Gehirn und Computer könnte, so die Vision Heylighens, ein Gehirn von Gehirnen, ein globales Supergehirn oder eine kollektive Intelligenz entstehen.

Francis Heylighen ist Senior Associate Associate des Belgian National Fund for Scientific Research (NFWO). Er ist Associate Director des transdisziplinären Forschungszentrums Leo Apostel an der Freien Universität Brüsell (VUBund Mitgründer und -herausgeber des Principia Cybernetica Project, das die gemeinsame Entwicklung einer evolutionären und systemischen Philosophie anstrebt.

Die Vorstellung, daß die ganze menschliche Gesellschaft als ein Organismus betrachtet werden kann, ist eine alte Idee, die mindestens bis ins klassische Griechenland zurück reicht. Viele Denker haben die Ähnlichkeit zwischen den von unterschiedlichen Organisationen gespielten Rollen in der Gesellschaft und den Funktionen von Organen, Systemen und Kreisläufen im Körper bemerkt. Industrieanlagen beispielsweise beziehen wie das Verdauungssystem Energie und aus Rohmaterialien. Auf Straßen, Eisenbahngleisen und Schiffahrtsverbindungen werden diese Produkte wie von den Arterien und Venen von einem Teil des Systems zu einem anderen transportiert. Müllkippen und Abwassersysteme sammeln den Abfall wie ein Dickdarm und eine Blase. Militär und Polizei schützen wie das Immunsystem die Gesellschaft vor Eindringlingen und verbrecherischen Elementen.

Derartige anfänglich vage Analogien werden mit dem besseren Verständnis von Organismen genauer. Die Tatsache, daß komplexe Organismen wie unsere eigenen Körper aus individuellen Zellen bestehen, führte zum Begriff eines Superorganismus. Wenn Zellen sich verbinden, um einen vielzelligen Organismus zu bilden, dann könnten Organismen sich auch verbinden, um einen Organismus aus Organismen zu bilden - einen Superorganismus. Biologen stimmen darin überein, daß soziale Insektenkolonien wie Ameisennester oder Bienenstöcke am besten als solche Superorganismen zu begreifen sind. Die Tätigkeiten einer einzelnen Ameise, Biene oder Termite sind bedeutungslos, wenn man sie nicht als Überlebensfunktionen der Kolonie versteht.

Einzelne Menschen scheinen den Zellen eines sozialen Superorganismus ähnlich zu sein, aber sie sind weitaus unabhängiger als Ameisen oder Zellen (Heylighen & Campbell, 1995). Das wird besonders deutlich, wenn wir auf die permanenten Konkurrenzsituationen, Konflikte und Mißverständnisse zwischen Individuen und Gruppen sehen. Es scheint jedoch einen kontinuierlichen Trend zu einer weiteren Integration zu geben. Während technische und soziale Systeme ein immer enger geknüpftes Interaktionsnetz entwickeln, das die herkömmlichen Grenzen zwischen Ländern und Kulturen überschreitet, scheint der soziale Superorganismus sich von einer Metapher in eine wirkliche Gegebenheit zu verwandeln.

Der Superorganismus und sein globales Gehirn - eine Literaturübersicht

Verschiedene Autoren haben behauptet, daß die Integration der Menschheit in ein soziales Metawesen genauso unvermeidbar sei wie die Evolution von vielzelligen Organismen. Der französische Paläontologe und Jesuitenpriester Teilhard de Chardin (1955) hatte wahrscheinlich als erster diese Evolution zu einer übermenschlichen Integration diskutiert. Er prägte den Begriff der Noosphäre (der geistigen Sphäre) für das die Welt umspannende wachsende Netzwerk an Ideen, Informationen und Kommunikationen. Der russische Computerwissenschaftler Valentin Turchin setze zur Analyse dieser Evolution die Prinzipien der Kybernetik (1977) ein. Er führte den Begriff metasystem transition für die evolutionäre Emergenz eines "Metasystems", einer höheren Komplexitätsebene, die die Systeme der tieferliegenden Ebene integriert. Er stellte fest, daß die Menschheit einen solchen metasystemischen Übergang zu einem Superwesen durchläuft, der durch wachsende Verbindungen zwischen den Nervensystemen der einzelnen Menschen verursacht wird. Der amerikanische Biologe Gregory Stock (1991) schrieb eine populärwissenschaftliche Darstellung dieses Prozesses, durch den die Individuen immer stärker durch die Technik verbunden sind. Den daraus entstehenden Superorganismus nannte er Metaman.

Die Integration scheint am schnellsten im Bereich der Kommunikationsmedien voranzuschreiten. In der Gesellschaft als der Metapher für einen Superorganismus spielen die Kommunikationskanäle die Rolle von Nerven, die Signale zwischen den verschiedenen Organen und Muskeln übermitteln. In höher entwickelten Organismen entwickeln die Nerven ein komplexes Netz von wechselseitigen Verknüpfungen: das Gehirn. Hier werden hereinkommende Signalgruppen verbunden und verarbeitet.

Nach der Erfindung der Eins-zu-Eins-Medien im 19. Jahrhundert - Telegraph oder Telefon - und der Eins-zu-Vielen-Medien - Radio oder Fernsehen - ist das letzte Jahrzehnt von der explosiven Ausbreitung von Kommunikationsnetzen geprägt, die viele mit vielen verbinden. Während die herkömmlichen Kommunikationsmedien direkt Sender und Empfänger verbinden, besitzen vernetzte Medien vielfältige Querverbindungen zwischen unterschiedlichen Kanälen. Die Tatsache, daß die verschiedenen "Knoten" des digitalen Netzwerks von Computern kontrolliert werden, ermöglicht überdies eine verbesserte Verarbeitung der gesammelten Daten und verstärkt so die Ähnlichkeit zwischen dem Netzwerk und dem Gehirn. Das hat dazu geführt, das weltweite Computernetz unter der Metapher eines "globalen Gehirns" zu verstehen.

Peter Russell (1983, 1995), ein britischer Physiker, der sich für östliche Religionen zu interessieren begann, hat das Thema des globalen Gehirns aus einer "New Age"-Perspektive aufgegriffen und bewußtseinserweiternde Techniken wie die Meditation hervorgehoben, die den einzelnen dazu verhelfen, synergetischer zu leben ( Peter Russel::Towards a Global Brain). Joel de Rosnay (1986, 1995), ein französischer Futurologe, untersuchte die Emergenz des kybernetischen Superorganismus, den er Cybionte nannte, und seines "planetarischen Gehirns" mit den Mitteln der Chaos-, Selbstorganisations- und Evolutionstheorie. Dabei stellte er die Rolle des Internet und der verschiedenen Multimedia-Technologien in den Vordergrund. Einen ähnlichen Schwerpunkt läßt sich im Werk des deutschen Komplexitätstheoretikers Gottfried Mayer-Krass finden, der die Analogien zwischen dem Internet und komplexen adaptiven Systemen wie dem Gehirn sowie die Möglichkeiten des Netzwerks untersucht, weitreichende komplexe Probleme zu lösen (Gottfried Mayer-Kress::Global Brains and Communication in a Complex Adaptive World

Mehr und mehr Menschen scheinen die Ähnlichkeiten zwischen den dynamischen informationellen Netzstrukturen des Internet (und besonders des World Wide Web) auf der einen Seite und dem menschlichen Gehirn auf der anderen Seite zu bemerken. Unlängst führte der amerikanische Mathematiker Ben Goertzel anläßlich des Vorschlages, das World Wide Web zur Implementation einer global verteilten Kognition zu benutzen, den Begriff des WorldWideBrain ein: eine massiv parallele Intelligenz, die aus einer Gemeinschaft von intelligenten, weltweit verteilten WWW-Agenten und aus den durch diese entstehenden Strukturen und Dynamiken besteht.

Keiner der Theorieansätze, die ich bislang gelesen habe, sagt jedoch genau, wie dieses emergierende intelligente Netzwerk die elementaren Leistungen eines Gehirns ausführen wird: Lernen, Denken, Problemlösung und Entdeckung neuer Begriffe. Mein Mitarbeiter Johan Bollen und ich haben begonnen, uns dieses Problems mittels einer Kombination theoretischer Überlegungen, experimenteller Überprüfungen mit kleinen Netzwerken und Computersimulationen anzunehmen (Heylighen & Bollen, 1996; Bollen & Heylighen, 1996; Heylighen, 1996). In den folgenden Kapiteln stelle ich mit einfachen Worten vor, wie wir uns das Funktionieren eines intelligenten World Wide Web vorstellen. Dieser Ansatz baut auf Turchins Theorie der metasystemischen Übergänge auf, die wir zusammen mit Turchin und Cliff Joslyn als Principia Cybernetica Project weiter entwickeln.

Das World Wide Web als assoziatives Gedächtnis

Das gegenwärtige World Wide Web, die verteilte hypermediale Schnittstelle mit den auf dem Internet verfügbaren Informationen, gleicht in vielen Hinsichten einem menschlichen Gehirn und wird ihm durch weitere Entwicklung immer ähnlicher. Die zentrale Analogie ist die zwischen einem Hypertext und einem assoziativen Gedächtnis. Links zwischen Hyperdokumenten oder Knoten ähneln den assoziativen Verknüpfungen zwischen Begriffen, wie sie im Gehirn gespeichert werden. Doch die Analogie geht noch darüber hinaus und schließt auch Denk- und Lernprozesse ein.

Der Erwerb von Informationen läßt sich in beiden Fällen als ein Prozeß sich ausbreitender Aktivierung verstehen:: Knoten oder Begriffe, die semantisch den Informationen nahe sind, nach denen man sucht, werden "aktiviert". Die Aktivierung breitet sich durch ihre Verbindungen auf benachbarte Knoten aus, und die Knoten mit der höchsten Aktivierung werden zu Kandidaten für die Beantwortung der Suche. Wenn keiner der Vorschläge akzeptabel zu sein scheint, werden die Knoten, die der Antwort am nächsten zu kommen scheinen, wieder aktiviert und als Quellen für einen neuen Ausbreitungsprozeß gebraucht. Dieser Prozeß der Aktivierung, die über Assoziationen von Knoten zu Knoten wandert, wird solange wiederholt, bis eine zufriedenstellende Antwort gefunden wird. Ein solcher Prozeß ist die Grundlage des Denkens. Im gegenwärtigen Web wird die sich ausbreitende Aktivierung nur teilweise implementiert, da ein Benutzer gewöhnlich die Knoten und Links Schritt für Schritt nacheinander und nicht wie im Gehirn parallel auswählt. Daher breitet sich die "Aktivierung" nicht wirklich auf alle benachbarten Knoten aus, sondern folgt einem linearen Pfad.

Eine erste Implementierung einer solchen "parallelen" Aktivierung von Knoten läßt sich in Suchmaschinen wie Lycos finden, die auf WAIS aufbauen. Hier kann man mehrere Suchwörter eingeben und die Maschine wählt jene Dokumente aus, die ein Maximum von diesen Wörtern enthalten. Die Eingabe beispielsweise der Worte "Haustier" und "Krankheit" könnte so zu Dokumenten führen, die etwas mit der Veterinärwissenschaft zu tun haben. Das aber funktioniert nur, wenn das Dokument, nach dem man sucht, auch wirklich die Worte enthält, die man eingegeben hat. Es kann jedoch andere Dokumente über dasselbe Thema geben, in denen andere Worte (z.B. "Tier" und "Erkrankung") stehen. Eine sich ausbreitende Aktivierung könnte auch hier hilfreich sein: Dokumente über Haustiere sind normalerweise mit solchen über Tiere verbunden. Daher würde die Ausbreitung der Aktivierung von "Haustier" zu "Tier" dazu ausreichen, die gewünschten Dokumente zu erhalten. Das würde aber voraussetzen, daß das Netz auf intelligente Weise durch semantisch aufeinander bezogene Dokumente (über "Haustiere" und "Tiere") verknüpft wäre, die auch im Hyperspace nahe beieinander liegen. Um so etwas zu erreichen, benötigen wir einen Lernprozeß.

Lernende Webs

Im menschlichen Gehirn entwickeln sich Wissen und Bedeutung über einen Prozeß des assoziativen Lernens: Begriffe, die regelmäßig zusammen auftreten, werden stärker verbunden (das Hebbsche Gesetz für neuronale Netze). Gegenwärtig findet im Web ein solches Lernen durch die Vermittlung der Benutzer statt. Wenn jemand mit einer Web-Site über ein bestimmtes Thema andere Webdokumente findet, die mit diesem Thema verbunden sind, dann wird er normalerweise Links zu diesen Dokumenten auf seiner Site einrichten. Wenn viele Besitzer einer Site kontinuierlich das Web nach diesbezüglichem Material absuchen und neue Links schaffen, falls sie etwas Interessantes finden, dann wirkt sich das im Netz so aus, daß das Web als eine Ganzheit eine Art Lernprozeß durchläuft.

Dieser Prozeß würde jedoch sehr viel besser sein, wenn er automatisch erfolgen könnte, ohne daß jemand manuell Links einrichten müßte. Man kann einfache Algorithmen implementieren, die das Web aus den von Menschen gewählten Wegen zwischen Dokumenten, die durch Links verbunden sind, (in Echtzeit) lernen lassen. Das Prinzip besteht einfach darin, daß Links, die von vielen Benutzern gewählt werden, "stärker" werden, während jene, die man nicht so oft benutzt, "schwächer" werden. Einfache heuristische Mechanismen können dann mögliche Kandidaten für neue Links vorschlagen und jene mit der größten "Stärke" speichert. Als Beispiel für einen solchen Prozeß kann unser adaptives Hypertext-Experiment dienen, in dem sich ein Netz von zufällig miteinander verknüpften Worten durch Lernen von der Linkauswahl seiner Benutzer selbst in ein semantisches Netzwerk transformiert. Wenn solche Lernalgorithmen über das Web als eine Ganzheit verbreitet werden könnten, dann würde das im Web vorhandene Wissen zu einem gigantischen assoziativen Netzwerk organisiert werden, das sich kontinuierlich dem Muster seines Gebrauchs anpaßt.

Beantwortung schlecht gestellter Fragen

Wir können mit großer Sicherheit annehmen, daß in den kommenden Jahren virtuell das gesamte Wissen der Menschen elektronisch auf Netzwerken verfügbar sein wird. Wenn dieses Wissen dann semantisch organisiert sein wird, wie wir dies oben angedeutet haben, dann sollten Prozesse, die einer sich ausbreitenden Aktivierung gleichen, die Beantwortung jeder Frage ermöglichen, für die irgendwo eine Antwort existiert. Das Prinzip der sich ausbreitenden Aktivierung läßt auch schlecht gestellte Fragen zu. Man kann ein Problem haben, aber nicht der Lage sein, klar zu formulieren, nach was man sucht, sondern nur Ideen anführen, mit dem es etwas zu tun hat.

Stellen Sie sich folgende Situation vor: Ihr Hund schleckt fortwährend Spiegel ab. Sie wissen nicht, ob Sie sich darüber ärgern sollen, ob das nur ein normales Verhalten oder ein Symptom für eine Krankheit ist. Sie versuchen also mehr Informationen darüber zu finden, indem sie "Hund", "Abschlecken" und "Spiegel" für eine Suche im Web eingeben. Wenn das Syndrom des "Spiegelabschleckens" in der Literatur über Hundekrankheiten beschrieben sein würde, dann könnte eine Suche unmittelbar auf die entsprechenden Dokumente stoßen. Dieses Phänomen könnte aber nur ein Indiz für das allgemeinere Phänomen sein, daß manche Tiere gerne Fensteroberflächen berühren.

Eine normale Suche mit den oben angeführten Worten würde niemals auf eine Beschreibung dieses Phänomens stoßen, aber die Ausbreitung der Aktivierung in einem semantisch organisierten Web würde von "Hund" zu "Tier", von "Spiegel" zu "Glas" und von "Abschlecken" zu "Berühren" führen und so Dokumente aktivieren , die diese drei Begriffe enthalten. Dieses Beispiel leicht auf die unterschiedlichsten und seltsamsten Probleme erweitert werden. Egal welches Problem man hat, ob es mit der Einrichtung seines Hauses, mit der Naturgeschichte des Yellowstone-Gebietes, mit der Frage, wie man zu einem bestimmten Ort kommt oder wie man Flecken einer bestimmten chemischen Substanz entfernt, zusammenhängt, so sollte eine sich ausbreitende Aktivierung eine Antwort finden, wenn irgendwo Erkenntnisse über dieses Thema vorliegen.

Bei noch schlechter strukturierten Fragen, wird die Antwort nicht sofort kommen, sondern sich erst nach einer Reihe von Schritten einstellen. Wie beim normalen Denken ergibt die Formulierung eines Teilbereichs des Problems einige Assoziationen, die dann weitere aufrufen können, die es einem ermöglichen, die Frage besser zu stellen, was zu einer deutlicheren Wahrnehmung des Problems und zu einer genaueren Beschreibung führt und so weiter, bis man eine zufriedenstellende Antwort erhält. Das Web wird nicht nur direkte Antworten anbieten, sondern ein allgemeines Feedback wird die Bemühungen steuern, der Antwort näher zu kommen.

Wir haben dieses Prinzip in der Praxis mit dem assoziativen Netzwerk überprüft, mit dem wir das Experiment mit dem lernenden Web durchgeführt haben. Es gibt eine Sendung im Fernsehen ("Pyramid" im französischen Sender A2), in der Spieler durch die Verwendung eines Minimums an Schlüsselworten, die ihnen von ihren Partner gesagt werden, Worte erraten müssen. Wenn man beispielsweise "Schiff" erraten muß, kann der Partner die Stichworte "Fahrzeug" und "Wasser" nennen. Falls das nicht zum richtigen Raten genügen sollte, dann kann der Partner je nach der Antwort ein zusätzliches Stichwort wie beispielsweise "Segeln" geben. Wir implementierten die sich ausbreitende Aktivierung so in unserem Netzwerk, daß es dieses Spiel ausführen konnte. Der Benutzer wählt eine Kombination von Worten aus dem Netzwerk (z.B. "Macht" und "Gesellschaft") aus und der Mechanismus der sich ausbreitenden Aktivierung findet die Worte, die den verbundenen Stichworten am nächsten kommen (z.B. "Regierung"). Innerhalb der Grenzen unserer Daten (das Netzwerk enthält gegenwärtig nur 150 Worte) scheint das Netzwerk das Spiel ebenso gut zu beherrschen wie ein menschlicher Spieler.

Vom Gedanken zum Webagenten

Die vorgestellten Mechanismen ermöglichen es dem Web, als eine Art externes Gehirn zu arbeiten, das eine riesige Menge an Wissen speichert, während es lernt und intelligente Schlußfolgerungen ausführt. Dadurch kann man mit ihm Probleme lösen, für die das Wissen des eigenen Gehirns zu begrenzt ist. Um diese kognitive Leistung effektiv einzusetzen, sollte die Distanz oder die Barriere zwischen dem internen und dem externen möglichst klein sein. Gegenwärtig geben wir noch Fragen ein, indem wir in speziell ausgewählten Suchmaschinen bestimmte Worte eintippen. Das ist ziemlich langsam und umständlich verglichen mit der Flexibilität, mit dem unser Gehirn Gedanken verarbeitet. Es lassen sich einige Mechanismen vorstellen, die diesen Prozeß beschleunigen.

Erstens wurden bereits einige Experimente durchgeführt, bei denen Menschen einen Cursor auf einem Computerbildschirm einfach steuern, indem sie daran "denken". Ihre Hirnwellen, die mit bestimmten Gedanken (wie "hoch", "hinunter", "links" oder "rechts") verbunden sind, werden von Sensoren registriert und von einer neuronalen Netzsoftware interpretiert, die ihre Interpretation in Form eines Befehls zum Computer weiterleitet, der dann ausgeführt wird. Wenn solche direkten Schnittstellen zwischen Gehirn und Computer besser werden, würde es reichen, wenn man nur an seinen Hund denkt, der Spiegel abschleckt, um die Dokumente auf dem Bildschirm auftauchen zu sehen, die dieses Verhalten erklären.

Zweitens würde der Suchprozeß nicht erfordern, daß man eine Reihe von Suchmaschinen an verschiedenen Orten des Webs aussucht. Die neue Technologie der Netzagenten basiert auf der Idee, daß man seine Frage oder sein Problem formuliert und daß die Nachfrage selbst durch das Netz wandert, Informationen an verschiedenen Orten sammelt und einem das Ergebnis zurückschickt, wenn alle entsprechenden Pfade erkundet worden sind. Ein Software-Agent ist eine kleine Botschaft oder ein Skript, die oder das eine Beschreibung desjenigen enthält, was man wissen will, eine Liste provisorischer Ergebnisse und eine Adresse, wo sie/er einen erreicht, um die endgültige Antwort zu übermitteln.

In unserem experimentellen Netzwerk haben wir einen Agenten simuliert, der in ihm mittels Assoziationen nach Information sucht. Der Agent erhält ein Zielwort, das er finden muß, und eine zufällige Ausgangsposition. Von hier aus erkundet er die vorhandenen Links, indem er denjenigen mit der stärksten Assoziation als Ziel wählt. Er wiederholt diesen Prozeß, wenn er eine neue Position erreicht, bis das Ziel gefunden ist. Meistens wird das Ziel sehr schnell auf eine Weise erreicht, die jener gleicht, mit der ein menschlicher Benutzer die Hypertextlinks auswählen würde.

Im künftigen intelligenten Web könnten derartige Agenten die Rolle von "externen Gedanken" spielen. Im eigenen Gehirn würde sich der Gedanke anfänglich herausbilden, dann automatisch durch eine neuronale Schnittstelle mit einem Agenten oder Gedanken im externen Gehirn übermittelt werden, seine weitere Entwicklung durch eine sich ausbreitende Aktivierung durchlaufen und schließlich ins eigene Gehirn in einer angereicherten Form zurückkehren. Wenn die Schnittstelle gut genug ist, sollte es keine klare Grenze mehr zwischen "internen" und "externen" Denkprozessen geben: der eine Denkprozeß würde ganz natürlich und unmittelbar in den anderen übergehen.

Die Integration von Individuen in das Superhirn

Eine Interaktion zwischen dem internen und dem externen Gehirn müßte nicht immer in derselben Richtung erfolgen. Genau wie das externe Gehirn von Ihrem Suchmuster lernen könnte, könnte es dies auch, indem es Ihnen direkt Fragen stellt. Ein intelligentes Web würde kontinuierlich die Kohärenz und Vollständigkeit des in ihm enthaltenen Wissens überprüfen. Wenn es Widersprüche oder Lücken findet, würde es versuchen, die Menschen herauszufinden, die das Problem vermutlich am besten verstehen (in der Regel die Autoren oder aktiven Benutzer eines Dokuments), und deren Aufmerksamkeit auf das Problem zu lenken. Meistens wird eine explizite Formulierung des Problems ausreichen, damit ein Experte schnell die Lücke auffüllen kann, wobei er impliziertes (assoziatives) Wissen benutzt, das noch nicht klar in das Web eingegeben wurde. Es gibt viele Techniken des "Wissenserwerbs" und , um Experten dazu anzuregen, ihr intuitives Wissens in solch einer Form zu formulieren, daß es auf einem Computer implementiert werden kann.

Auf diese Weise würde das Web implizit und explizit von seinen Benutzern lernen, während die Benutzer vom Web lernen. Ganz ähnlich würde das Web zwischen Benutzern, die Informationen austauschen, vermitteln. In gewisser Weise würden die Gehirne der Benutzer selbst zu Knoten im Web werden - direkt mit dem Netz verbundene Wissensspeicher, die von anderen Benutzern oder vom Web selbst abgefragt werden können.

Auch wenn einzelne Menschen es ablehnen würden, auf Anfragen zu antworten, die aus dem Supergehirn kommen, würde niemand die Möglichkeit ausschlagen, das unbegrenzte Wissen und die unbegrenzte Intelligenz des Superhirns zu benutzen, um die eigenen Fragen zu beantworten. Normalerweise aber kann man nicht eine Leistung kontinuierlich in Anspruch nehmen, ohne etwas dafür zurück zu geben. Menschen werden Ihre Anfragen nicht mehr beantworten, wenn Sie niemals deren Fragen beantworten. Ganz ähnlich könnte man sich vorstellen, daß das intelligente Web auf der einfachen Bedingung basiert, daß man es benutzen kann, wenn man dafür wieder Wissen zurückgibt.

Schließlich können die Gehirne der Benutzer so eng mit dem Web verbunden sein, daß es buchstäblich zu einem Gehirn von Gehirnen wird: zu einem Supergehirn. Gedanken würden über das Web von einem Benutzer zum anderen gehen, von dort zurück ins Web und so weiter. Millionen von Gedanken würden so parallel über das Supergehirn wandern und in diesem Prozeß ein immer größer werdendes Wissen schaffen.

Das zerebrale Metasystem

Die Schaffung eines Supergehirns reicht für einen metasystemischen Übergang zu einer Ebene nicht aus, die jenseits der des menschlichen Gehirns liegt. Wir brauchen eine höhere Ebene, die irgendwie die Gedanken auf der tieferen Ebene lenkt und koordiniert. Die nächste Ebene kann man Metarationalität nennen: die Fähigkeit, automatisch neue Begriffe, Regeln und Modelle zu erzeugen und so die eigene Denkweise zu verändern. Das würde das Web nicht nur quantitativ, sondern qualitativ vom menschlichen Denken unterscheiden. Es würde in einem gewissen Sinne die Kreativität des wissenschaftlichen Genies automatisieren, der völlig neue Weltanschauungen entwickelt, und es würde diese kreativen Kräfte jedermann zur Verfügung stellen.

Ein intelligentes Web könnte sein Wissen durch den Prozeß der "Wissensentdeckung" oder des "Datenschürfens" (Fayyad & Uthurusamy, 1995) vergrößern. Dem liegt die Automatisierung jener Mechanismen zugrunde, auf denen die wissenschaftliche Entdeckung basiert: eine Reihe eher abstrakter Begriffe oder Regeln wird erzeugt, von denen die vorhandenen Daten zusammengefaßt werden und die durch Induktion Voraussagen für bislang nicht beobachtete Situationen ermöglichen. Wenn nach einer ausgiebigen Suche sich herausstellen würde, um ein einfaches Beispiel dafür zu geben, daß die meisten dokumentierten Fälle von Hunden, die Spiegel ablecken, an einer bestimmten Nervenerkrankung leiden, könnte ein intelligentes Web daraus schließen, daß das Ablecken von Spiegeln ein Symptom für diese Krankheit ist und daß neue Fälle von Hunden, die Spiegel ablecken, wahrscheinlich von derselben Krankheit befallen sind, auch wenn diese Regel niemals in seinen Wissensspeicher eingegeben wurde und bislang völlig unbekannt war.

Es gibt viele unterschiedliche Techniken, um eine solche Entdeckung allgemeiner Prinzipien zu unterstützen, wozu verschiedene Weisen statistischer Analysen, genetischer Algorithmen, des induktiven Lernens und der Begriffsbildung gehören, die jetzt noch nicht zusammengeführt sind. Die kontrollierte Wissensentwicklung benötigt ein vereinheitlichtes Metamodell: ein Modell, wie neue Modelle erzeugt werden und sich entwickeln können. Ein möglicher Ansatz zur Realisierung eines solchen Metamodells könnte von einer Analyse der Bausteine des Wissens, der Mechanismen, die diese Bausteine zur Erzeugung neuer Wissenssysteme (re)kombinieren und einer Liste von Auswahlkriterien ausgehen, die "gutes" oder "überlebensfähiges" Wissen von solchem Wissen unterscheiden, das nicht "fit" ist.

Schluß

Einige unlängst entwickelten Mechanismen wie Software-Agenten, Wissensentdeckung und assoziatives Lernen werden vermutlich das World Wide Web in ein intelligentes Netz verwandeln, das den Benutzern auf einfache und intuitive Weise Zugang zur Gesamtheit des menschlichen Wissens gewährt. Dieses Netz wird ähnlich wie das menschliche Gehirn arbeiten, indem es von Assoziationen zwischen Dokumenten ausgeht, um die Ausbreitung von "Gedanken" über das Web zu steuern. Ein derartiges Gehirn wird das Nervensystem des sozialen Superorganismus bilden, des integrierten Systems, das von der ganzen menschlichen Gesellschaft gestaltet wird.

Literaturangaben:

Francis Heylighen & <a href="http://pespmc1.vub.ac.be/Campbel.html">Donald T. Campbell: <a href="file://ftp.vub.ac.be/pub/projects/Principia_Cybernetica/WF-issue/Social_MST.txt">Selection of Organization at the Social Level: obstacles and facilitators of Metasystem Transitions, "World Futures: the journal of general evolution", Vol. 45:1-4 (1995), p. 181.

PierreTeilhard de Chardin: "Le Phénomène Humain" (Seuil, Paris, 1955). (translated as : "The Phenomenon of Man" (1959, Harper & Row, New York)).

Valentin Turchin: <a href="http://www.amazon.com/exec/obidos/ISBN=0231039832/principiacyberneA/">The Phenomenon of Science::http://pespmc1.vub.ac.be/TURCHIN.html. A cybernetic approach to human evolution, (Columbia University Press, New York, 1977). Gregory Stock: (. A cybernetic approach to human evolution, (Columbia University Press, New York, 1977). Gregory Stock: )"Metaman: the merging of humans and machines into a global superorganism", (Simon & Schuster, New York, 1993). (see also: <A HREF="http://www.cbs.com/mysteries/metaman.html">Future Tech and Metaman, and <a href="http://tcp.ca/April/Editor.html">Letter from the Editor::http://tcp.ca/July94/MetamanNR.html) () )Peter Russell: <A HREF="http://artfolio.com/pete/GBA.html">"The Global Brain Awakens: Our next evolutionary leap" (Global Brain, 1996) (originally published in 1983 as "The Global Brain").

Jo&euml;l de Rosnay: several books in French, including <A HREF="http://www.quebecscience.qc.ca/derosnay.html">"L'Homme Symbiotique. Regards sur le troisi&egrave;me mill&eacute;naire"::http://www.cybion.fr/joel.htm (Seuil, Paris, 1996), "Le Cerveau Plan&eacute;taire" (Olivier Orban, Paris, 1986), "Le Macroscope" (Seuil, Paris, 1975) ( (Seuil, Paris, 1996), "Le Cerveau Plan&eacute;taire" (Olivier Orban, Paris, 1986), "Le Macroscope" (Seuil, Paris, 1975) )Gottfried Mayer-Kress: <a href="http://www.ccsr.uiuc.edu/People/gmk/Publications/pub-intl.html">several papers, including: Gottfried Mayer-Kress & Cathleen Barczys (1995): "The Global Brain as an Emergent Structure from the Worldwide Computing Network", The Information Society 11 (1).