Informationsbarriere?
Über die Informationssintflut wird allerorten geklagt. Einen Weg zurück gibt es nicht mehr. Träumen die einen von intelligenten Agenten, also schlauen Dienern, die einem die Qual der Wahl abnehmen sollen, machen die anderen dicht oder lassen sich von unsinnigen Informationsmengen überschwemmen. Stanislaw Lem überlegt, ob die gezündete "Megabitbombe" nicht nur auf Grenzen der menschlichen Kapazität, sondern auch auf eine technische Barriere stößt. Die allmähliche Ersetzung der menschlichen Kognition durch intelligente Systeme hat für ihn jedenfalls eine Folge - die mögliche Frühpensionierung der meisten Menschen.
In dem Buch Summa Technologiae, das jetzt bereits gute dreißig Jahre zählt, habe ich die metaphorischen Begriffe Megabitbombe und Informationsbarriere eingeführt. Der Schlüssel zu Erkenntnisressourcen ist, so schrieb ich damals, die Information. Der rasante Anstieg der Anzahl der Wissenschaftler seit der industriellen Revolution hat das bekannte Phänomen verursacht, daß die Informationsmenge, die durch einen der Kanäle der Wissenschaft gesendet werden kann, begrenzt ist. Die Wissenschaft stellt einen Kanal dar, der die Zivilisation mit der nichtmenschlichen und der menschlichen Welt verbindet. Der Anstieg der Anzahl der Wissenschaftler bedeutet eine Erweiterung der Kapazität dieses Kanals. Dieser Prozeß kann jedoch, wie jedes exponentielle Wachstum, nicht über eine beliebig lange Zeit weitergehen. Wenn es an Kandidaten für die Wissenschaft mangelt, wird die Explosion der Megabitbombe gegen die Informationsbarierre stoßen.
Grenzen der Informationsverarbeitung
Hat sich an diesem Bild nach dreißig Jahren etwas geändert? Zuerst möchte ich bemerken, daß mehrmals Versuche unternommen wurden, die absolute Leistungsfähigkeit der "Endgeneration" des Computers entsprechend der in der Physik bekannten absoluten Geschwindigkeit, d. h. der Lichtgeschwindigkeit, wie man heute annimmt, zu berechnen. Die Ergebnisse der Schätzungen wichen jedoch substantiell voneinander ab.
Man hat mit der Annahme von Werten, die für die Physik spezifisch sind, also mittels der Lichtgeschwindigkeit und der Unbestimmtheitsrelation gemäß der Planckschen Konstante, berechnet, daß der leistungsfähigste Computer, der die Daten mit der maximal erreichbaren Geschwindigkeit verarbeitet, ein Würfel mit einer Kantenlänge von drei Zentimeter wäre. Eine bei diesen Annahmen unausgesprochene Prämisse war jedoch eine ausschließlich iterative Weise der Berechnung, die in ihrer einfachsten Form den Turing-Automat charakterisiert, der nur einen der beiden Zustände annehmen kann: Null oder Eins. Man kann jede Berechnung jedes linear prozessierenden Computers mit dem einfachsten Turing-Automaten ausführen, nur benötigt ein Turing-Automat dafür eine Ewigkeit, was ein Cray in einem Sekundenbruchteil durchführt.
Parallelcomputer
Man hat aber schnell erkannt, daß auch parallel prozessierende Computer gebaut werden können, obwohl deren Programmierung und Arbeitsreihe eine Reihe sehr schwierig zu lösende Probleme mit sich bringen. Einen Beweis, daß solche Computer konstruierbar sind, tragen wir in unserem eigenen Schädel: das Gehirn ist nämlich dank seiner Bauweise hauptsächlich, obwohl nicht ausschließlich, das eigentliche Gegenstück eines Parallelcomputers. Es besteht aus zwei großen Hemisphären, in denen auch eine für den Menschen als den Konstrukteur sehr merkwürdige Strategie der Allokation von untergeordneten Arealen herrscht.
Für Neurophysiologen war das ein echtes Chaos, das ausschließlich aus Rätseln bestand. Die Forscher konnten zwar Symptome des Ausfalls von einzelnen Funktionen, z.B. bei der Aphasie, Amnesie, Alexie etc., feststellen, aber sie konnten deren Funktionsweise kausal und funktionell nicht erklären. Im übrigen begreifen wir, wie es sich gehört, immer noch nicht sehr viel von diesen und anderen Erscheinungen in unserem Gehirn. Das Gehirn kann Informationen mit einer Geschwindigkeit von 0,1 bis 1 Bit pro Sekunde aufnehmen, wogegen heutzutage auf uns ein Fluß von neuen Informationen mit einer Geschwindigkeit einströmt, die zwischen drei und zwanzig Bits pro Sekunde liegt.
Informationsschwemme
Die Gesamtheit des menschlichen Wissens verdoppelt sich ungefähr alle fünf Jahre, wobei sich diese Verdoppelungszeit ständig verkleinert. An der Wende vom 19. auf das 20. Jahrhundert betrug diese Rate noch ungefähr 50 Jahre. Jeden Tag werden auf der Welt 7000 Artikel veröffentlicht und über 300 Millionen Zeitschriften sowie 250.000 Bücher gedruckt. Auf der anderen Seite gibt es bereits über 640 Millionen Radio- und Fernsehgeräte. Da diese Angaben schon vier Jahre alt sind, sind sie sicherlich zu niedrig angesetzt, vor allem wegen der gewaltigen Zunahme des Wissens im Bereich des Satellitenfernsehens.
Die Menge der bislang gespeicherten Information soll 10 hoch 14 Bit betragen und wird sich bis zum Jahr 2000 verdoppelt haben. Sicherlich ist die Informationsaufnahmefähigkeit des Gehirns bereits erschöpft. Außerhalb der Wissenschaft kann man die Symptome dieser Informationsasthenie viel leichter als in der Wissenschaft selbst bemerken, zumal wenn wir ihren Bereich auf die exakten Wissenschaften beschränken. Sie sind von einem "Halo" in Gestalt von Pseudo- und Quasiwissenschaften umgeben, die sich überall einer beträchtlichen Popularität erfreuen. In der Regel handelt es sich zwar um wertloses und falsches "Wissen" (Astrologie, Kurpfuscherei, sektiererische Absonderlichkeiten vom Typ "Christian Science" und alle "Psychotroniken", wie Telepathie, Telekinese, "geheime Wissen", Nachrichten über die "fliegenden Untertassen" oder über die "Geheimnisse der Pyramiden" etc.), das aber angenehm einfach ist und durch Versprechungen fasziniert, das menschliche Schicksal, den Sinn des Seins etc. pp. zu klären.
Ich beschränke mich hier jedoch nicht auf den Bereich der exakten Wissenschaften, der übrigens schon lange von trüben Fälschungen überschwemmt wird, die nicht nur schädlich sind, sondern auch den gesellschaftlichen Stellenwert der Wissenschaft in Frage stellen. Betrug geschieht immer öfter in der Wissenschaft, und er wird durch die immer noch geltende Regel publish or perish gefördert. Viele Faktoren wirken also an der Verstärkung der Informationsüberschwemmung zusammen. Dagegen unterliegt die oben erwähnte unwissenschaftliche Sphäre informativen Selbstbegrenzungen, die ein über eine Satellitenschüssel verfügender Zuschauer leicht bemerken kann: in Hinsicht auf den Inhalt unterscheiden sich fast alle Sender weltweit nur sehr wenig voneinander, was einfach bedeutet, daß sich Programme der weit entfernten Staaten, Länder und Sprachgebiete inhaltlich fast gleich sind.
Dem überdrüssigen Publikum geht es nicht um eine bewußte "Abspeckung des Fernsehmenüs" oder um die Schaffung eines Plagiats, es will einfach lieber die Variante der bekannten Sujets sehen, weswegen es immer neue Versionen von irgendwelchen Tarzans oder von den Drei Musketieren, in den USA von Kämpfen mit den Indianern oder dem Sezessionskrieg, in Europa hingegen vom letzten Weltkrieg gibt. Die Informationsallergie im visuellen Bereich ist besonders auffallend. Man fürchtet bei den Sendern die Innovation mehr als das Feuer, als innovativer Schein wird es dagegen aber geschätzt. Ich spiele hier selbstverständlich keinen Kritiker, weil ich nicht bewerten und dadurch die Programme herabsetzen will, was nur oberflächlich wäre, sondern ich versuche die tiefere, rein perzeptorische Ursache dieser Tatsache zu entblößen, die dem Fernsehzuschauer aus Erfahrung bekannt ist. Das Wesen des Fernsehens besteht in einer merkwürdigen Ähnlichkeit von großen Mengen angeblich völlig unterschiedlicher, unabhängig produzierter Programme. In der Regel ist freilich, wenn man den Ton ausschaltet, schwierig zu erkennen, ob wir aus der Türkei, aus Großbritannien, aus den Niederlanden, aus Schweden, Dänemark oder Spanien gesendete Bilder sehen, weil an unsere Antenne von überallher beinahe der gleiche Grießbrei mit Pfeffer kommt.
Das Dilemma der Informationsüberflutung
Vor der Informationsüberschwemmung rettet sich ein durchschnittlicher Mensch sowohl durch eine Reduktion des Bitstromes als auch durch eine Eliminierung dessen, was für die geistige Absorption irgendwie nicht "nötig" sind. Im täglichen Leben führt das zu einem verstärkten Ethnozentrismus der Medien, zu einer "wachsender Dickhäutigkeit" gegenüber den Inhalten, die schockieren oder die Gefühle verletzen können. In der Wissenschaft jedoch ist eine Zurückhaltung solcher Art nicht zulässig. Das ist der Grund für das wachsende Gewicht der Mahlzeiten, die der Wissenschaft von der Informatik mit den Heerscharen von Computern geliefert werden. Wie ein jedes neues Ereignis, auch wenn es nicht mehr ganz so neu ist, stellt die Computerisierung eine unentbehrliche Lebenssphäre her, die aber gleichzeitig auch neue Sorgen mit sich bringt. In den Ländern, in denen die Computerisierung gerade erst begonnen hat (zu denen de facto auch Polen gehört), kennt man diese Sorgen und dieses Dilemma noch nicht.
Das erstbeste Beispiel erklärt, wo der Haken stecken kann. Im SF-Roman Rückkehr von den Sternen (1960) habe ich in die Handlung Kalster als kleine Geräte eingeführt, die den Geldverkehr und -umlauf ersetzen. Sicherlich gibt es in einem Roman keinen Platz, die Infrastruktur dieser "Erfindung" zu beschreiben! Heute aber schreibt man bereits in den Zeitschriften (z.B. in den Vereinigten Staaten) über smart cards, die auf diesem Prinzip beruhen. Es muß kein Geld mehr im Umlauf sein. Auch die Zahlung mit Schecks kann der Vergangenheit angehören, denn jetzt hat jeder ein Konto bei einer Bank und in der Brieftasche eine smart card. Bei der Bezahlung gibt man diese Karte dem Kassierer, der sie in die mit der Bank verbundene Kasse einsteckt. Der Computer überträgt dem Bankcomputer, wieviele Währungseinheiten vom Konto abzuziehen sind. Dasselbe geschieht auch auf dem Weg Zahler (also sein Computer) - die Bank - der Bezahlte (also sein "Kalster").
Das ist alles ganz wunderbar - unter der Bedingung, daß zu unserem Konto niemand mittels eines elektronischen Dietrichs gelangt. Wie man weiß, gibt es schon lange computer crime und Hacker, die sogar zu den am besten geschützten Computern verschiedener Generalstäbe gelangen konnten. Bargeld kann man vergraben oder in einer Schatzkammer verstecken, aber die Bankcomputer sind mit Sicherheit verschiedenen Attacken über Online oder Funk ausgesetzt. Das Phänomen der Viren ist uns bereits so bekannt, daß es sich nicht lohnt, sich mit dieser "dunklen" Seite der Informatik zu beschäftigen.
Durchbrechen der Informationsbarriere
Zum Durchbrechen der "Informationsbarriere" in der Wissenschaft könnten einerseits Computernetze dienen, die so wie die Neuronen im Gehirn miteinander vernetzt wären (und jedes Neuron ist, wie wir wissen, indirekt oder direkt mit einigen Zehntausend anderen verbunden. Deswegen beruht die Aussage, daß, verkürzt ausgedrückt, das Gehirn zwischen 12 und 14 Milliarden Neuronen zählt, eigentlich auf einem Mißverständnis, da es um die Anzahl der Verbindungen und nicht um die der Einheiten geht, die nur nach dem Prinzip Flip-Flop arbeiten.). Andererseits würden dazu Computergiganten beitragen, für die zur Zeit mein Golem XIV aus dem Roman mit dem gleichen Titel stehen kann.
An dieser Stelle sollte ich vielleicht erklären, wie ich auf diesen Golem gekommen bin und worin die Konzeption eines "übergolemschen" Wachstums der terabitischen Macht bestehen kann, deren Wachstum von Perioden des Stillstands unterbrochen wird. Das ist deswegen keine "reine Phantasie", weil ich seit jeher die natürliche Evolution des Lebens auf der Erde als meinen Leitstern oder eher als Leitkonstellation gewählt habe. Das ihr vielleicht eigentümlichste Phänomen ist die Entwicklung einer Folge von Pflanzen- und Tiergattungen, die sich durch eine diskontinuierliche Zunahme der Komplexität auszeichnet. Von den ersten Lebewesen ist uns nur bekannt, daß sie innerhalb von drei Milliarden Jahren (mindestens, nicht höchstens) den genetischen Kode mit seiner verblüffenden kreativen Universalität gebildet hatten. Aus ihm sind zur Photosynthese fähige Algen entstanden, dann Bakterien, Urtierchen, die Weichtiere, dann Fische, Lurche, Reptilien und schließlich Säugetiere, die mit der Entstehung der Hominiden und mit dem Mensch an der Spitze ihre Krönung fanden. Zwischen den Gattungen gähnen allerdings sehr große Abgründe. Obwohl es beispielsweise Übergangsformen zwischen dem Reptil und dem Vogel oder zwischen dem Fisch und dem Lurch gab, ist nichts davon übrig geblieben. Diese Abgrenzungen von Gattungen, diese Zonen der Gattungsstille, habe ich als so wichtig erachtet, daß ich sie in einen Bereich der auf sie folgenden Kulminationen des Verstandes "übertragen" habe. Sie befreien sich aus den primären, durch die Physiologie und Anatomie gegebenen Aufgaben, die das zentrale Nervensystem eines jeden lebenden Wesens (sofern es ein tierisches Wesen ist) erfüllen muß.
Paradoxien der Informationsverarbeitung
Sicherlich ist die Vorstellung, daß der größte konstruierbare Computer ein "Würfel" mit einer Kantenlänge von drei Zentimeter ist, abzulehnen. Ob jedoch der Bau von immer größeren Computer ein besserer Weg sein wird als das Schaffen eines Netzes nach dem Ebenbild der neuronalen Netze des Gehirns, kann nur die Zukunft zeigen. Der Vergleich des Gehirns mit dem Computer der letzten Generation sieht gegenwärtig folgendermaßen aus: das Gehirn ist ganz klar ein Parallel- und Mehrprozessorensystem, zusammengesetzt aus ungefähr 14 Milliarden von Neuronen, die eine dreidimensionale Struktur bilden, in der jedes Neuron bis zu 30000 Verbindungen mit anderen Neuronen besitzt.
Falls eine Verbindung nur eine Operation innerhalb einer Sekunde durchführt, wäre das Gehirn theoretisch imstande, innerhalb dieser Zeit zehn Billionen von Operationen durchzuführen. Das Flip-Flop eines Neurons dauert nur einige Millisekunden lang. Komplexe Aufgaben wie die Erkennung und das Verstehen der Sprache führt das Gehirn innerhalb von ungefähr einer Sekunde durch, weil es einiger Rechenoperationen bedarf. Der Computer dagegen braucht für eine analoge Aufgabe eine Million von elementaren Schritten.
Da ein Neuron einem zweiten Neuron keine komplexen Symbole übermitteln kann, weil es ein "einfaches" Gerät eines Flip-Flop-Typs ist, hängt die Leistungsfähigkeit des Gehirns von einer großen Zahl wechselseitiger neuronaler Verbindungen ab. Dank diesen können wir uns einfach der Sprache oder Sprachen bedienen. Die Aufgabe, zwei mehrstellige Zahlen zu multiplizieren, stellt dagegen bereits ein Problem dar, mit dem nicht jeder fertig wird. Das Phänomen von unerhört geschickten Rechenkünstlern, die außerdem sogar debil sein können, ist für mich ein anderes Rätsel, weil es von der Existenz verschiedener Subareale zeugt, die sogar - oder gerade dann - leistungsfähiger funktionieren können, wenn andere, normalerweise an der Aufgabe beteiligte Areale beschädigt sind! (Das Gehirn verträgt, allgemein gesagt, Beschädigungen viel leichter als der Computer).
Heutige Supercomputer funktionieren, wie ein Experte behauptet, auf dem Entwicklungsniveau eines fünfjähriges Kindes (es geht dabei aber um eine nicht affektive Leistungsfähigkeit). Es erscheint paradox, daß für die Simulierung des Gehirns in Echtzeit Tausende von Computern mit höchster Rechenleistung nötig wären, für das Durchführen von arithmetischen Berechnungen dagegen Milliarden von Menschen.
Eine elementare Operation eines Neurons dauert, wie gesagt, ungefähr 1 Millisekunde lang. Ein Computer kann diese hingegen innerhalb einer Zeit von einer Nanosekunde ausführen. Er arbeitet also sechsmal schneller. Dennoch erkennt ein Mensch, der in ein Café kommt, das Gesicht seines gesuchten Bekannten in Sekundenbruchteilen, und der Computer würde dafür einige Minuten brauchen...
Automatisierung der Kreation
Das wahrscheinlich für unsere, also für die menschliche Zukunft wichtigste Anliegen scheint die Antwort auf die Frage zu sein, ob und wie eine kreative Informationskapazität der Computer im Sinne einer authentischen Kreation entstehen kann. Die Lösung einer beliebig schwierigen mathematischen Aufgabe hat mit dem Schaffen, an das ich denke, nicht viel gemeinsam, weil die Antwort bereits in Gestalt einer Lösung in der mathematischen Struktur der gestellten Aufgabe "insgeheim steckt". Ich erlaube mir, zu dem Buch, das ich am Anfang zitiert habe, zurückzukommen. Ich habe darin geschrieben, daß der Übergang von den nicht erneuerbaren Energiequellen zu neuen - von der Muskelkraft, der Kraft der Tiere, des Windes, des Wassers über die Kohle oder das Rohöl bis hin zu atomaren Energiequellen - einer zuvor stattfindenden Informationsgewinnung bedarf. Erst dann wird dank der trial-and-error-Methode die Informationsmenge einen "kritischen Punkt" überschreiten,und die auf sie beruhende neue Technologie uns neue Bereiche der Energie und der Handlung eröffnen. Wenn die Ressourcen an Brennstoffen (Kohle, Öl, Gas), so schrieb ich, z.B. am Ende des 19. Jahrhunderts schon verbraucht worden wären, wäre es zweifelhaft, ob wir Mitte des 20. Jahrhunderts die atomare Energie in Gang gesetzt hätten, weil ihre Befreiung sehr große Kräfte erforderte, die zuerst in den Labors und dann im Industriemaßstab realisiert wurden. Dennoch ist die Menschheit, wie ich damals schrieb, überhaupt nicht dazu bereit (auch heute nicht), auf die ausschließliche Ausbeutung der Atomenergie überzugehen ...
Die von Fleischman und Pons verkündete Cold Fusion, die kalte Fusion von Deutererium mit Helium, wurde schnell als ein Irrtum abgetan, obwohl in letzter Zeit vor allem die Japaner Experimente in diesem Bereich wieder aufgenommen haben, so daß man "nichts sicheres weiß". Ich sage dies im Kontext der Informatik deswegen, weil wir mit der Festlegung von Startparametern, die selbstverständlich unserem heutigen kosmologischen Wissen entspringen, zwar auf dem Computer das Bild des Weltraumes in 100 Milliarden von Jahren (wie man das bereits gemacht hat) modellieren, d.h. simulieren, aber aus dieser Simulation keine überraschenden Erkenntnisse ziehen können - und zwar deswegen, weil in den Startparametern jede Spur von diesen fehlt. Hier ein Beispiel, das vielleicht manch einen Leser überraschen wird.
Boleslaw Prus ließ den Professor Geist, eine der Figuren seines Romans Die Puppe, behaupten:
"Wir haben drei Würfel mit der gleichen Größe und aus dem gleichen Material, die jedoch unterschiedlichen Gewichts sind. Und warum? Weil es in einem vollem Würfel die meisten Stahlteilchen gibt, in dem leeren weniger, und in diesem aus Draht am wenigsten. Stelle dir vor, daß es mir gelungen ist, statt vollen Teilchen käfigartige Teilchen zu bauen, und dann wirst du das Geheimnis der Erfindung verstehen ..."
Und jetzt ein Zitat aus einem Artikel der wissenschaftlichen Spalte des SPIEGELS (ich zitiere die wissenschaftliche Presse nicht, weil es mir auf Kürze ankommt):
"Die Wissenschaftler erwarten eine 'völlig neue Chemie', die sie sich von den käfigartigen Kohlekugeln, genannt Fullerene, erhoffen. Zum ersten Mal sind sie in den deutschen Labors entstanden, und die Anzahl ihrer möglichen Anwendungen - ist eine Unmenge. ... Die Fullerene, so nach den selbsttragenden Kuppelstrukturen von Richard Fuller in der Architektur benannt, sind leere Kügelchen, die aus sechzig Atomen Kohle gebildet werden, die miteinander so verbunden sind wie die verbundenen Fünfecke, die einen Fußball bilden. Man kann sie als Konstruktionselemente in Raumschiffen einsetzen, weil sie unbeschädigt von einer Stahlplatte abprallen, wenn man mit einer Geschwindigkeit von 27.000 km/h auf sie feuert ..."
Die Japaner synthetisieren bereits zylinderartige Fullerene, die mit Bleiatomen gefüllt sind, und haben daraus einen Draht mit einer Dicke von einigen Atomen gezogen. In der amerikanischen Presse schreibt man über Buckminsterfullerene, in die man Neon- oder Heliumatome einpressen konnte ... . Das ist erst der Anfang. Und was kann man über die Phantasie von Boleslaw Prus sagen? Sie hat sich in einem Zeitraum von einhundert Jahren verwirklicht ...
Es ist eine banale Sache, daß niemand diese Konvergenz bemerkt hat, weil, wie ich meine, Prus selbst nicht sehr an ihre Verwirklichung geglaubt hat (ich bin mir aber in dieser Hinsicht nicht sicher; ich weiß nicht, warum er über seine - über die von Professor Geist gemachte - Entdeckung, einen Roman unter dem Titel "Der Ruhm" schreiben wollte und diese Idee aufgegeben hat). Im Grunde genommen waren die käfigartigen Konstruktionen (z.B. aus Kohleatomen) theoretisch vorstellbar, man wußte nur nicht, wie die Synthese durchzuführen sei - es sind hohe Temperaturen und Druck erforderlich. Aber das sind schon Informationen, die unbedingt mit den Parametern von Atomen bei der Ausgangsannahme gegeben sein müssen ...
Noch immer besitzt der Computer keine schöpferische Fähigkeiten. Ich denke jedoch, daß er, obwohl er die Erfinder und die Wissenschaftler nicht arbeitslos gemacht hat, auf einem anderen Feld - der industriellen Produktion - bereits seine Invasion begonnen hat, die die Gefahr einer Massenarbeitslosigkeit mit sich bringt.
Die Zukunft
Norbert Wiener, der Entdecker der Kybernetik, hat in seinem Buch Human Use of Human Mind vor einem halben Jahrhundert eben diese Arbeitslosigkeit bereits vorausgesagt, die durch die wachsende Automatisierung von immer mehr Produktionsprozessen verursacht wird. Wer hat noch nicht im Fernsehen eine der vielen japanischen Autofabriken gesehen, in denen meistens gelb emaillierte große Roboter wie verrückt wirbeln und in Abwesenheit des Menschen die Elemente von Karosserien, Motoren, Kupplungen zusammensetzen, schweißen, verschrauben. Solche menschenleeren Fabriken entstehen bereits, und dadurch wird die Arbeitslosigkeit, wie manche Ökonomen oder Ingenieure behaupten, zu einem irreversiblen, zunehmenden und gesellschaftlich bedrohlichen Phänomen werden, weil die Arbeit von Roboter-Automaten billiger als die menschliche und oft genauer ist. Diese Roboter, deren Weltarmee bereits die Zahl von Dreihunderttausend überschritten hat, brauchen kein Essen, keinen Lohn, keine Erholung und keinen Urlaub, keine Sozialfürsorge und auch keine Sozialversicherung im Alter ("im Alter" gehen die Roboter als Wracks auf den Schrottplatz).
Uns droht kein Aufstand der Roboter und auch nicht deren Herrschaft, mit der man uns sooft geängstigt hat. Es droht uns einfach ein blutloser Konflikt, weil die Früchte unseres Verstandes und unserer Zivilisation die arbeitenden Menschen einfach überflüssig machen werden. Auch wenn das noch nicht heute geschieht, so ist es doch kein ausreichender Trost, da sich die Kosten der Investitionen in Roboter kontinuierlich verringern werden und ihnen, wie man vermuten kann, das 21. Jahrhundert gehören wird. Es scheint, daß am Anfang des Lebens wirklich das Wort war: das Wort des GENETISCHEN KODES. Und auf dem langen Weg in die Zukunft wird dieses Wort die Information gebären, die gedankenlose und perfekte Arbeiter aus der toten Materie erzeugt ...
Aber was wird dann unser Schicksal sein? Das ist eine Frage, die ich heute nicht beantworten kann.
Aus dem Polnischen übersetzt von Ryszard Krolicki