Dinosauriermaschinen und die Lust am Hacken

Eine kurze Geschichte der Computer.

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Der Mathematiker, Programmierer und SF-Autor Rudy Rucker stellt die wichtigsten Etappen der Geschichte der Computer dar, erläutert, warum der Umgang mit Computern so faszinierend ist, und findet trotzdem eine Fahrt auf einer alten Achterbahn wesentlich eindrucksvoller als eine VR-Simulation

Rudy Rucker in Telepolis über Künstliches Leben

Eine der einfachsten Rechenarten ist das Addieren von Zahlen. Es gibt zwei alte Techniken, die dazu benutzt wurden: den Abakus und das Rechenbrett. Beim vertrauten Abakus entsprechen Reihen von Kugeln unterschiedlichen Zehnerpotenzen, auch wenn der Abakus oft so gebaut wurde, daß jede Reihe von Kugeln in zwei Bereiche aufgeteilt wurde: in einen unteren Bereich mit fünf Kugeln und einen oberen Bereich mit einer oder zwei Kugeln, die für fünf der unteren Kugeln stehen können.

Die Z3 von Konrad Zuse

Ein Rechenbrett ist primitiver. Hier hat man keine Kugeln auf Schnüren, sondern lose Steine, die in Reihen geordnet werden können und aufeinander folgende Zehnerpotenzen darstellen. Wenn man mehr als zehn Zählsteine in einer Reihe anordnet, kann man diese aus der Reihe entfernen und eine "Übertragung" ausführen, indem man einen Zählstein der nächst höheren Reihe hinzufügt. Oft besaßen Rechenbretter aufeinander folgende Reihen, die ähnlich wie bei einem Hauptbuch verschiedene Quantitäten darstellten, und manchmal waren die sich abwechselnden Reihen und Kolumnen in verschiedenen Farben wie bei einem Schachbrett markiert. Daraus entwickelte sich das englische Wort "Exchequer", was in etwa dem deutschen Finanzministerium entspricht.

Wenn man einen Abakus oder ein Rechenbrett benutzt, entsteht das Problem, daß man das Ergebnis zerstört, wenn man eine der Übertragungen vergißt. Eine erste Lösung fand man in einem Odometer, der von Heron von Alexandrien in der römischen Zeit beschrieben wurde. Wie heute war Herons Odometer ein Mittel, um zu messen, wie weit ein Fahrzeug, z. B. eine Kutsche, gerollt ist. Die grundlegende Idee bestand aus einer Reihe von verbundenen Zahnrädern, bei der ein unten angebrachtes Zahnrad sich ganz um sich selbst drehen mußte, bevor sich das eine Stufe weiter oben befindliche Rad um eine Kerbe drehte.

Der große französische Philosoph und Mathematiker Blaise Pascal legte 1644 die Idee des Odometers aus Zahnrädern für den Bau einer von Hand betriebenen mechanischen Addiermaschine zugrunde, die er stolz Pascaline nannte. Anstatt das sich ganz unten befindliche Zahnrad nur wie bei einem Odometer immer eine Kerbe weiter zu drehen, sollten die Benutzer der Pascaline einen Stift benutzen, um jedes der acht Räder so weit zu drehen, daß sie die Ziffern einer Zahl darstellen, die zum Ergebnis addiert werden. In den 50er Jahren, zur Zeit der Taschenrechner, konnte man in Geschäften für Geschenkartikel überall billige Apparate aus Plastik kaufen, die ähnlich wie eine Pascaline funktionierten.

Rechenmaschine von Leibniz

Es gab viele Variationen der Pascaline. Schwieriger war die Herstellung einer Maschine zum Multiplizieren. Der Philosoph Leibniz versuchte, einen solche Mechanismus zu bauen, aber er funktionierte nicht verläßlich. Das Gerät hatte auch den Nachteil, daß der Benutzer nicht einfach Zahlen eingeben, einen Hebel drehen und die Lösung erhalten konnte, sondern er mußte einige Zwischenschritte ausführen.

Die Differenzmaschine von Charles Babbage

Den Höhepunkt der auf Zahnrädern basierenden Rechner wurde mit der Arbeit von Charles Babbage und seinen Nachfolgern in der Mitte des 18. Jahrhunderts erreicht. Es war die Blütezeit der Dampfmaschinen - der Lokomotiven und der Spinnmaschinen. Warum sollte man also nicht eine Maschine bauen, die so Berechnungen ausführt wie ein maschineller Webstuhl? Die ideale Anwendung für sich wiederholende Berechnungen im Großhandel ist die Bildung von mathematischen Tabellen, beispielsweise Tabellen logarithmischer und trigonometrischer Funktionen. In der Wissenschaft des 19. Jahrhunderts wurden solche und andere Tabellen viel verwendet, z.B. astronomische Tabellen, von denen man die errechneten Positionen von Himmelskörpern zu verschiedenen Zeiten ablesen konnte, oder "Lebenstabellen", aus denen sich das erwartete Einkommen von Menschen unterschiedlichen Alters ersehen ließ.

Differenzmaschine

Babbage kam auf die Idee, eine Maschine aus Zahnrädern zu bauen, die mathematische Tabellen errechnen und drucken sollte. Warum sollte man die Rechenmaschine nicht selbst das Ergebnis ausdrucken lassen, anstatt Irrtümer zu ermöglichen, die dadurch entstehen, daß ein geschriebenes Ergebnis in eine Setzmaschine eingegeben wird? Es war eine Idee, die ganz in das Großbritannien der industriellen Revolution paßte.

Babbage nannte seinen ersten Entwurf für eine Rechenmaschine "Differenzmaschine". Weit von einem Computer zur Lösung allgemeiner Aufgaben entfernt ist sie ein sehr spezialisierter Uhrwerkmechanismus, der die sogenannte "Differenzen-Methode" benutzte, um die Werte von polynomischen Funktionen durch wiederholte Additionen zu erzeugen.

Babbage stellte ein kleines Modell seiner Differenzmaschine fertig. Das Modell konnte drei Differenzen und sechs Zahlen verarbeiten. 1822 überzeugte er den Finanzminister, ihm für die Entwicklung einer Differenzmaschine 1500 Pfund zu geben, die bis zu 20 Dezimalstellen und sechsstellige Differenzen berechnen konnte. (Wenn eine endlich lange Dezimalzahl nicht einen einfachen Bruch darstellt, ist ihre letzte Ziffer stets eine Quelle von Ungenauigkeiten, weil die endlos vielen Ziffern nach der letzten Stelle außer Acht gelassen werden. Wenn man diese Zahlen addiert und multipliziert, arbeitet sich der Fehler von der letzten Stelle mit einer Geschwindigkeit von einer Stelle pro Operation nach links voran. Babbage wollte sechs Rechengänge mit jeder seiner Zahlen ausführen, und wünschte, daß 12 Ziffern ganz genau seien. Um also sicherzugehen, hatte er vor, 20 Ziffern zu verwenden. Selbst wenn die letzten sechs Ziffern bei einer sechsstufigen Berechnung fehlerhaft sein würden, würden die ersten vierzehn noch immer richtig und die ersten zwölf tadellos sein.)

Wie es sich herausstellte, war Babbage ein frühes Beispiel für einen im Computerbereich nicht ungewöhnlichen Menschen: ein Techniker von Traumgebilden, also ein leidenschaftlicher Bastler, der niemals etwas fertigstellt. Die Konstruktionszeichner, Handwerker und Arbeiter von Babbage konnten kein einziges wichtiges Teil der Differenzmaschine fertigstellen, weil er stets neue Ideen hatte und die Pläne veränderte. In den zehn Jahre nach seinem ersten Forschungszuschuß gab er weitere 17000 Pfund von der Regierung und eine entsprechende Summe eigener Gelder aus. Schließlich stellte die Regierung die Unterstützung ein und die Angestellten von Babbage verließen ihn. Zu dieser Zeit hatte er die Idee für eine neue und bessere Maschine, die er "Analytische Maschine" nannte: ein noch besseres Traumgebilde, mit dem wir uns gleich beschäftigen werden.

Die Analytische Maschine

Obgleich sich Babbage sehr über die Beschränkungen der Technik zur Herstellung von Zahnrädern beklagte, gab es in Wirklichkeit kein praktisches Hindernis, eine funktionierende Differenzmaschine zu bauen. Angeregt von Babbage stellte der schwedische Publizist und Erfinder Georg Scheutz schließlich zwei funktionierende Differenzmaschine fertig, die fünfzehn Ziffern und vier Reihen von Differenzen bewältigen konnten. Der großherzige Babbage war nicht neidisch, unterstützte Scheutz und half ihm dabei, seine erste Maschine an ein astronomisches Observatorium in Albany, New York, zu verkaufen.

Analytische Maschine

Der amerikanische Astronom Benjamin A. Gould berichtete 1859 von der ersten wirklichen Berechnung, die von der ersten Differenzmaschine ausgeführt wurde und die erste längere Berechnung durch eine Maschine war:

"Die rein algebraischen Probleme bei der Eingabe in die Maschine waren genauso große Probleme hinsichtlich der Zeit, der Überlegung und der Hartnäckigkeit wie das Problem, ihre mechanische Ausführung zu steuern. Doch bald war alles funktionsfähig ... und die wirkliche Anomalie des Mars wurde berechnet und in Abschnitten von einem zehntel Tag während der Kreisbahn stereotypiert (auf Papiermaché ausgedruckt); und es wurde eine hinreichend Zahl der Platten elektrisch ausgedruckt, wodurch ich davon überzeugt wurde, daß alle Schwierigkeiten überwunden worden sind. Seit dieser Zeit wurden die ekzentrische Anomalie des Mars und der Logarithmus seines Radiusvektors berechnet ... woraus eine Reihe von Tabellen entstand, durch die das Ansehen der Maschine ohne weiteres begründet werden kann."

Das klingt wahrhaft nach reiner ehrenwerter Wissenschaft. Die ekzentrische Anomalie des Mars! Wunderbar! Die zweite Differenzmaschine von Scheutz wurde, wie ich anfangs erwähnte, eingesetzt, um etwas Kommerzielleres zu berechnen: die "Englischen Lebenserwartungstabellen" von William Farr, ein Buch, das Daten von 6,5 Millionen Toten verwendete, um jährliche Renten, getrennt nach alleinstehenden und verheirateten Menschen und ihrem jeweiligen Alter, darzustellen.

Der Vorschlag von Babbbage für eine Analytische Maschine, deren Leistung die der Differenzmaschine übertrifft, war bemerkenswert. Die Beschreibung der Analytischen Maschine ist tatsächlich der allererste Entwurf für einen programmierbaren Computer, für eine Maschine also, die prinzipiell jede überhaupt mögliche Berechnung ausführen konnte. Sie sollte über ein "Rechenwerk" (mill) verfügen, das aufeinanderfolgende Additionen wie die Differenzmaschine ausführte und auch einen "Speicher" besaß, der als eine Art Schmierpapier diente: als Kurzzeitgedächtnis für temporäre Variablen, die bei der Berechnung gebraucht werden. Neu an der Idee war, daß die Operationen des Rechenwerks von einem benutzerdefinierten Programm gesteuert werden sollten. Und wie hatte Babbage vor, die Programme in die Analytische Maschine einzugeben? Mittels Lochkarten!

Auch wenn wir Lochkarten mit IBM und Großrechnern verbinden, so wurden sie zuerst bei französischen Webstühlen benutzt. Erfunden wurden sie von Joseph Marie Jacquard im Jahr 1801. Indem man ein Webmuster als eine Serie von Karten codierte, konnte ein "Jacquard-Webstuhl" dasselbe Muster immer wieder weben, ohne daß ein Mensch das Muster lesen und die Fäden auf dem Webstuhl einfädeln mußte. Babbage selbst besaß ein gewebtes Portrait von Jacquard, das von einem Webstuhl unter Verwendung von 24000 Lochkarten hergestellt wurde.

Eine der weitsichtigsten Unterstützerinnen der Analytischen Maschine von Babbage war die junge Ada Byron , die Tochter des berühmten Dichters, die sie auf bemerkenswerte Weise beschrieb.

"Die herausragende Eigenschaft der Analytischen Maschine, die es ermöglichte, einen Mechanismus erfolgreich mit solch großen Fähigkeiten auszustatten, daß diese Maschine zur ausführenden rechten Hand der abstrakten Algebra wird, ist die Einführung des Prinzips, das Jacquard mit Hilfe von Lochkarten für das Weben der kompliziertesten Mustern bei der Herstellung von Brokatstoffen entwickelt hat. ... Wir können völlig zutreffend sagen, daß die Analytische Maschine auf dieselbe Weise algebraische Muster webt, wie der Jacquard-Webstuhl Blumen und Blätter webt."

In Wirklichkeit wurde die Analytische Maschine niemals gebaut, doch die Idee war ein Meilenstein. 1991 veröffentlichten die SF-Autoren William Gibson und Bruce Sterling eine faszinierende Erzählung mit dem Titel "The Difference Machine", in der sie sich vorstellen, wie das viktorianische England gewesen sein könnte, wenn Babbage Erfolg gehabt hätte. (Das Buch geht in Wirklichkeit über Analytische Maschinen und nicht über Differenzmaschinen.) Ebenso wie unsere Computer von Computerhackern gebraucht werden, werden die Analytischen Maschinen von Gibson und Sterling von "Clackers" bedient. Es folgt die Beschreibung eines Besuchs des zentralen statistischen Amts in dem London, wie es dann hätte gewesen sein können.

"Hinter dem Glas zeichnete sich eine riesige Halle von turmhohen Maschinen ab, von so vielen, daß Mallory zuerst dachte, die Wände müssten wie ein Saal für einen Maskenball mit Spiegeln versehen sein. Es war wie ein Blendwerk auf einem Volksfest, das das Auge täuschen sollte - die riesigen gleichförmigen Maschinen, uhrenähnliche Gebilde mit kompliziert verbundenen Messingstangen, die an einem Ende so groß wie Eisenbahnwaggons waren und alle auf ihren fußdick gepolsterten Blöcken standen. Die weiß gestrichene Decke, die sich 10 Meter darüber wölbte, wurde von sich drehenden Flaschenzugseilen belebt, und das weiter unten befindliche Getriebe bezog seine Energie von gewaltig lärmenden Schwungrädern, die an eisernen Säulen befestigt waren. Weißgekleidete Clacker, die vor den Maschinen winzig erschienen, schritten durch die makellos sauberen Gänge. Ihr Haar war von weißen Wickelhauben bedeckt, ihre Münder und Nasen waren hinter weißen Gazequadraten verborgen."

In der Welt des Buches "Die Differenzmaschine" kann man eine Lochkarte eingeben, die mit der Beschreibung eines Menschen codiert ist, und die Maschinen des zentralen statistischen Amts geben eine "Zusammenstellung von punktförmig gedruckten Maschinenportraits" der möglicherweise Verdächtigten aus.

Hermann Hollerith und IBM

In unserer Welt begann niemand vor dem Ende des 18. Jahrhunderts Lochkarten für einen anderen Zweck als zur Steuerung von Jacquard-Webstühlen zu verwenden. Erst Herman Hollerith kam auf die Idee, Lochkarten zur Organisierung der Daten für die amerikanische Volkszählung einzusetzen. Er entwarf Maschinen für die tabellarische Darstellung von Daten auf Lochkarten und eine Reihe verschiedenartiger Mittel, um die Daten zu verarbeiten. 1890 erhielt er den Vertrag für die Volkszählung und wurden seine Maschinen in dem Gebäude für die Volkszählung in Washington, D. C., aufgebaut. Angestellte übertrugen die geschriebenen Zählungsdaten auf Lochkarten und gaben diese in die Tabulatoren ein. Diese arbeiteten so, daß sie Nadeln auf die Karten fallen ließen. Wo eine Nadel durchgehen konnte, traf sie auf eine kleines Schälchen mit Quecksilber, wodurch ein Stromkreis geschlossen und ein Zahnrad eines uhrenähnlichen Zählmechanismus in Bewegung gesetzt wurde, der dem der Pascaline ähnlich war.

Die Arbeit war ziemlich monoton, und einer der Angestellten erinnerte sich später:

"Die Mechaniker kamen oft ..., um die empfindlichen Maschinen wieder funktionsfähig zu machen. Die Störung wurde normalerweise dadurch verursacht, daß jemand das Quecksilber aus einer der kleinen Schälchen mit einer Pipette ausgesaugt und in einen Spucknapf gespritzt hatte, um eine zusätzliche Ruhepause zu erhalten."

Holleriths Firma kam später unter die Führung von Thomas J. Watson, eines scharf kalkulierenden Geschäftsmannes, der mit Registrierkassen handelte und ein paar Jahre später den Firmennamen der Computing-Tabulating-Recording Company zu International Business Machines, abgekürzt IBM, veränderte.

Auch wenn die Lochartenleser funktionierten, erforderte der Bau von Maschinen wie der Analytischen Maschine noch eine Technik für das, was Babbage als den "Speicher" bezeichnete, also ein leicht zugängliches Kurzzeitgedächtnis, das die Maschine als Schmierpapier auf die Weise verwenden kann, wie wir Zwischenergebnisse niederschreiben, wenn wir mit der Hand eine Multiplikation oder eine lange Division ausführen. Heute sind wir natürlich mit der Idee vertraut, Daten auf integrierten Chips - unserem RAM - abzuspeichern und uns darum nicht kümmern zu müssen. Doch wie schufen die ersten Computerbauer einen schnell zugänglichen Speicher?

Die Erfindung des Speichers

Die erste Lösung bestand aus einer elektromechanischen Konstruktion, die man ein Relay nannte. Ein einfaches Relay für zwei Positionen ließ sich wie ein Stromunterbrechungsschalter bauen. Der Schalter wird von einer Feder in einer Position gehalten, und ein Elektromagnet kann ihn auf die andere Position schieben. Wenn kein Strom durch den Elektromagneten fließt, bleibt das Relay in der Position "Null" oder "Reset", und wenn genügend Strom durch ihn fließt, wird der Schalter auf die Position "Eins" oder "Set" geschoben. Durch ein bißchen Basteln ist es auch möglich, ein radförmiges Relay mit zehn Positionen zu bauen, das elektromechanisch den Wert einer Zahl von 0 bis 9 speichern kann. Die Technik für diese Relays wurde geschichtlich für Schalter von Telefonunternehmen entwickelt, da hier die Speicherung der aufeinanderfolgenden Zahlen der Telefonnummern notwendig war, die von den Anrufern gewählt wurden.

Die Z3 von Konrad Zuse

In den 30er Jahren baute der deutsche Wissenschaftler Konrad Zuse einen einfachen Computer mit Relays, der addieren, multiplizieren usw. konnte. Relays wurden von Zuse nicht nur zum kurzfristigen Speichern benutzt, sondern auch für Schalter, die viel allgemeinere logische und arithmetische Operationen realisierten als die wiederholten Additionen einer Differenzmaschine. Die Wissenschaftskommission der Nazi-Regierung wollte die weitere Forschung von Zuse nicht unterstützen. Das war dieselbe Kommission, die Kundschafter über das arktische Eis schickte, um nach einem Loch zur Heiligen Erde zu suchen! Sie konnten die Aussichten der elektromechanischen Berechnung nicht erkennen.

Mark I

Zu Beginn der 40er Jahre wurde ein ziemlich riesiger Computer mit elektromechanischen Relays mit dem Namen Mark I an der Harvard University unter der Führung von Howard Aiken gebaut. Die Gelder dafür stammten überwiegend von Thomas J. Watsons IBM. Der Mark I konnte Daten und Befehle von Lochkarten lesen, die damals "IBM-Karten" hießen, und bestand aus fast einer Million von Teilen. Wenn er lief, erzeugte das An- und Ausschalten der Relays ein Geräusch, das wie ein Hagelschauer klang.

Flip-Flops

Die nächste Stufe in der Entwicklung der Computer bestand aus der Ersetzung der elektromechanischen Komponenten durch viel schnellere elektronische, also durch die Verwendung von Vakuumröhren anstatt von Relays für die logischen Schaltkreise und die kurzfristige Speicherung. Auch wenn Vakuumröhren wie ziemlich ausgeklügelte technische Mittel erscheinen, sind sie weitaus seltsamer, als man sich dies zunächst vorstellt. Das Speichern eines einzigen Bits - eine einfache Null oder Eins - benötigte normalerweise mindestens zwei Vakuumröhren, die in einem einfachen Schaltkreis angeordnet waren, den man "Flip-Flop" nennt.

Noch in den 50er Jahren mußten Elektroingenieure viel über Relays und Flip-Flops lernen. Die Erzählung "V." von Thomas Pynchon, dem ehemaligen Elektroingenieurstudenten und meisterhaften Autor, enthält ein jazziges Gedicht über dieses Thema von seiner Romanfigur McClintic, dem Bebop-Jazzmusiker:

"Flop, flip, once I hip,
Flip, flop, now you're on tp,
Set-REset, why are BEset
With crazy and cool in the same molecule."

Ein Mann namens John Atanasoff begann 1940 an der Iowa State University einen kleinen Computer für einen bestimmten Zweck mit 300 Vakuumröhren für den Speicher zu bauen. Sein Computer war zur Lösung von linearen Gleichungen gedacht, aber Atanasoff gab sein Projekt im Jahr 1942 wieder auf. Es ist unbekannt, ob seine Maschine jemals wirklich funktionierte, aber seine Arbeit war deswegen bedeutsam, weil er die Möglichkeit zeigte, einen Computer ohne sich bewegende Teile zu bauen. Die Analytische Maschine von Babbage hätte nur aus sich bewegenden Zahnrädern bestanden, der Mark I war eine Mischung aus elektrischen Schaltkreisen und Relayschaltern mit Springfedern, aber Atanasoffs Computer war ganz elektronisch und arbeitete mit einer viel größeren Geschwindigkeit.

ENIAC

Der erste elektronische Allzweckrechner war der ENIAC (Electronic Numerical Integrator And Computer), der im November 1945 an der Moore School of Engineering der University of Pennsylvania fertiggestellt und vor allem von Presper Ecker und John Mauchly gebaut wurde. Das Projekt wurde seit 1943 vom Ballistics Research Laboratory der US-Armee finanziert.

Auch wenn Mauchly einräumt, daß er selbst an Speicher aus Vakuumröhren gedacht hatte, besuchte er 1941 Atanasoff, um über elektronische Computer zu diskutieren. Daher beeinflußte letzten Endes Atanasoff das Denken von Mauchly. 1972 tauchte Atanasoff aus der Versenkung auf, um die Firma Honeywell bei einer Klage gegen die Ansprüche von Eckerts Firma Sperry Rand und Mauchlys Patente auf den UNIVAC Computer zu unterstützen, einem Nachfolger von ENIAC, den Eckert und Mauchly an Sperry Rand lizensiert hatten. Auch wenn Honeywell und Atanasoff den Prozeß gewonnen haben, so war dies möglicherweise ein Fehlurteil. Die Meinung der Computerhistoriker scheint zu sein, daß Eckert und Mauchly als Erfinder des elektronischen Computers gelten sollten. Erstens war ENIAC ein viel größere Maschine als die von Atanasoff, zweitens war ENIAC ein Allzweckrechner und drittens wurde er erfolgreich eingesetzt, um unabhängig voneinander gestellte Probleme zu lösen.

ENIAC

Der ursprüngliche Plan für den ENIAC sah vor, ihn zur schnellen Berechnung der Flugbahnen zu verwenden, die von Geschossen eingenommen werden, welche mit unterschiedlichen Abschußwinkeln und bei unterschiedlichen Lufttemperaturen abgefeuert wurden. Als das Projekt 1943 bewilligt wurde, berechnete man die Flugbahnen entweder mit der Brachialmethode, viele Schüsse vorzunehmen, oder mit der zeitverschlingenden Methode, daß Angestellte Schritt für Schritt die Bahnen der Geschosse nach Differntialgleichungen ausrechneten.

Der Zweite Weltkrieg war bereits vorbei, als der ENIAC fertig war und lief. Daher wurde er niemals zur Berechnung ballistischer Flugbahnen verwendet. Die erste vom ENIAC ausgeführte Berechnung diente dem Zweck, die Machbarkeit des Baus einer Wasserstoffbombe zu überprüfen. Man sprach davon, daß die Berechnung zuerst eine Million Lochkarten erforderte, wobei jede einen einzelnen "Massenpunkt" darstellte. Die Lochkarten wurden von ENIAC verarbeitet und eine Million neuer Karten generiert, die wiederum als Input für einen weiteren Berechnungsgang dienten. Informationen über das genaue Problem, das bearbeitet wurde, sind noch immer geheim. In Kapitel II biete ich eine Überlegung an, was das Ziel der Berechnung gewesen sein könnte.

Der Mann, der den Einfall hatte, das Programm für die Wasserstoffbombe auf dem ENIAC laufen zu lassen, war der berühmte Mathematiker John von Neumann. Er arbeitete im Waffenlaboratorium von Los Alamos, New Mexico, und war ein Berater der ENIAC-Gruppe, die aus Mauchly, Eckert und einigen anderen bestand.

John von Neumann

Von Neumann half ihnen, den Bauplan für einen neuen Computer mit dem Namen EDVAC (Electronic Delay Storage Automatic Calculator) ausführen. Verglichen mit dem ENIAC besaß der EDVAC einen besseren Speicher und zeichnete sich hauptsächlich dadurch aus, daß er über ein einfach zu veränderndes gespeichertes Programm verfügte. Auch wenn ENIAC seine Ausgangsdaten von Lochkarten ablas, konnte sein Programm nur mit der Hand verändert werden, indem man die Drähte auf einer Stecktafel anders schaltete und die Skaleneinstellungen veränderte. Der EDVAC machte es möglich, daß der Benutzer sowohl das Programm als auch die Daten mittels Lochkarten eingeben konnte.

Konzeptuell haben wir zwei verschiedene Speicherarten diskutiert: das Speichern von Zahlen und das Speichern von Befehlen. Wenn aber die Befehle an die Maschine auf einen numerischen Code reduziert werden und wenn die Maschine auf irgendeine Weise eine Zahl von einem Befehl unterscheiden kann, läßt sich der Speicher für die Speicherung von Zahlen und von Befehlen nutzen.

Von Neumann schrieb ein Dokument mit dem Titel "First Draft of a Report on the EDVAC" und sandte es im Juni 1945 an einige Wissenschaftler. Da der Name von Neumanns als einziger Autor des Berichts angegeben war, gilt er oft als der einzige Erfinder des modernen Konzepts eines gespeicherten Programms, was aber nicht ganz richtig ist. Das gespeicherte Programm war eine Idee, über die auch andere Mitglieder der ENIAC-Gruppe nachgedacht hatten - ganz zu schweigen von Charles Babbage und seiner Analytischen Maschine! Wie auch immer, der Name blieb hängen und die Konstruktion aller normalen Computer wird die "von Neumann Architektur" genannt.

Auch wenn diese Architektur nicht ganz aus der Hand von Neumanns stammte, so war er doch der erste, der wirklich erkannte, wie leistungsstark ein Computer sein kann, wenn er ein gespeichertes Programm besitzt. Und er war bedeutend genug, um für die Verwirklichung Druck auszuüben. Am Anfang erschien die Idee, Daten und Instruktionen zusammen in den Speicher eines Computers zu bringen, seltsam und häretisch, und man glaubte auch, daß es technisch zu schwierig sei.

Die technischen Schwierigkeiten beim Speichern der Instruktionen liegen darin, daß die Maschine auf diese Instruktionen schnell zugreifen können muß. Man könnte sich vorstellen, daß man dies beispielsweise durch das Speichern der Instruktionen auf einer sich schnell drehenden Rolle eines magnetischen Tonbands löst, aber es stellte sich heraus, daß auf die Instruktionen eines Programms nicht mittels eines einzigen linearen Ablesevorgangs zugegriffen wird, wie es für ein Tonband natürlich wäre. Die Ausführung eines Programms erfordert Verzweigungen, Schleifen und Sprünge. Die Instruktionen werden nicht in einer festgelegten seriellen Reihenfolge gebraucht. Was man wirklich benötigt, ist die Möglichkeit, alle Instruktionen so im Speicher abzulegen, daß die Maschine auf jede Stelle der Befehlsliste schnell zugreifen kann.

Weil ENIAC eine solch große Zahl von Vakuumröhren verwendete, stellten sich technische Probleme bei seinem Bau in der Größenordnung einer Cheopspyramide oder einer bemannten Fahrt zum Mond. Daß es überhaupt funktionierte, ließ eine starke Motivation entstehen, auch wenn deutlich war, daß etwas mit der Verwendung all dieser Röhren geschehen mußte, besonders wenn man ein möglichst langes Programm im Computerspeicher ablegen wollte.

Der Trick, den man bei den nächsten Computern zur Speicherung anwandte, war fast unglaublich eigenartig, und man erinnert sich daran kaum noch. Bits von Informationen wurden als akustische Wellen in Tanks aus flüssigem Quecksilber gespeichert! Diese Tanks oder Röhren nannte man auch "mercury delay lines". Ein normaler Quecksilbertank war ungefähr 1,4 Meter lang und besaß einen Durchmesser von 30 Zentimetern. An jedem Ende befand sich ein piezoelektrischer Kristall. Wenn man eine oszillierende Stromspannung an den Kristall leitet, wird dieser vibrieren, und wenn man umgekehrt einen dieser Kristalle mechanisch vibrieren läßt, wird er eine oszillierende Stromspannung aussenden. Die Idee war, eine Folge von Einsen und Nullen in elektrische Oszillationen umzusetzen, dieses Signal am einen Ende der Quecksilberleitung einzugeben, die Vibrationen durch das Quecksilber laufen zu lassen, die Vibrationen am anderen Ende der Leitung eine ausgehende Oszillation erzeugen zu lassen, dieses leicht abgeschwächte Signal zu verstärken, vielleicht die Nullen und Einsen abzulesen und dann das Signal, wenn eine weitere Speicherung erwünscht war, wieder zurück am Anfang der Quecksilberleitung einzugeben. Der Ausgang absorbierte den Strom, damit sich die Vibrationen nicht auf verwirrende Weise Signaleingang widerhallten.

Wieviele Bits konnte ein Quecksilbertank aufnehmen? Die Geschwindigkeit von Lauten oder Vibrationen beträgt im Quecksilber etwa 1000 Meter in Sekunden, daher braucht ein Signal etwa eine Tausendstel Sekunde, um durch einen Tank mit einer Meter Länge zu reisen. Indem man die vibrierenden Impulse eine Millionstel Sekunde lang machte, war es möglich, etwa 1000 Bits am Beginn des Quecksilbertanks einzugeben, bis sie am Ausgang einzutreffen begannen (und dort verstärkt und wieder zurückgesendet wurden). Dieses mit einem Stromkreis ausgestattete Quecksilberfaß konnte also 1000 Bits oder ungefähr 128 Bytes speichern. Heute kann natürlich ein RAM-Chip von der Größe eines Fingernagels mehrere Megabytes oder Millionen von Bytes speichern!

EDSAC

Als Eckert und Mauchly die University of Pennsylvania verließen, um ihre eigene Firma zu gründen, wurden die EDVAC-Projekte vorübergehend lahmgelegt. Der britische Wissenschaftler Maurice Wilkes baute erstmals nach den Maßgaben der von-Neumann-Architektur eine Maschine, die Programme speichern konnte. Wilkes Maschine, der EDSAC (Electronic Delay Storage Automatic Calculator, bei dem "Delay Storage" auf die zum Speichern verwendeten Quecksilberleitungen), wurde im Mai 1949 an der Cambridge University in Betrieb gesetzt. Wegen der Speichertanks aus Quecksilber benötigte EDSAC lediglich 3000 Vakuumröhren.

Als Student (an der Cambridge University) sah ich die Mercury Delay Lines in der alten EDSAC-Maschine, die es hier gab. Das Quecksilber befand sich in dickwandigen Glasröhren, die zwischen 2 und 2,5 Meter lang waren, und aus denen ständig das Quecksilber in die darunter befindlichen Auffangbehälter tropfte. Niemand schien sich damals (in den später 50er Jahren) übermäßig über die Gefahren einer Quecksilbervergiftung Sorgen zu machen.

John Horton Conway in einer EMail-Nachricht vom July 1996

Auch wenn Eckert und Mauchly ausgezeichnete Wissenschaftler waren, so hatten sie doch vom Geschäft wenig Ahnung. Nach ein paaren Jahren des Kampfes übergaben sie die Führung ihrer gefährdeten Computerfirma an Remington-Rand (heute Sperry-Rand). 1952 lieferte die Abteilung Eckert-Mauchley von Remington-Rand die ersten kommerziellen Computersysteme an das National Bureau of Standards. Die Maschinen hießen UNIVAC (Universal Automatic Computer). Der UNIVAV verfügte über eine Konsole, einige Lesesysteme für Tonbänder, ein paar Gehäuse mit Vakuumröhren und eine Anlage von Quecksilberleitungen in der Größe eines chinesischen Klos. Der RAM-Speicher betrug etwa ein Kilobyte und ein Computer kostete eine halbe Million Dollar.

UNIVAC

Bekannt wurde UNIVAC in der Öffentlichkeit während der Nacht der Präsidentschaftswahlen im Jahr 1952: Dwight Eisenhower gegen Aalai Stevenson. Als Werbecoup schaffte es Remington-Rand, daß Walter Cronkite von CBS eine mit UNIVAC errechnete Vorhersage des Wahlergebnisses auf der Grundlage von den ersten abgegebenen Stimmzetteln bekanntgab. Es war das erste Mal, daß diese jetzt geläufige Praxis durchgeführt wurde. Aus nur sieben Prozent der abgegebenen Stimmen sagte UNIVAC einen erdrutschartigen Sieg für Eisenhower voraus. Doch Arthur Draper, der Forschungsdirektor von Remington-Rand, hatte Angst, diese Vorhersage dem Sender CBS mitzuteilen! Die Befragungen ließen einen knappen Wahlausgang mit einer wirklichen Chance für einen Sieg Stevensons erwarten, und die Vorhersage von UNIVAC schien dem allzusehr zu widersprechen. Daher veranlaßte Draper, daß die Ingenieure von Remington-Rand schnell das UNIVAC-Programm abänderten, so daß es das erwartete Ergebnis voraussagte: einen knappen Sieg von Eisenhower. Als ein paar Stunden später deutlich wurde, daß Eisenhower tatsächlich weit vor seinem Konkurrenten lag, wandte sich Draper an das Fernsehen und gestand seine List, um das Ansehen von UNIVAC zu verbessern. Daraus läßt sich die Lehre ziehen, daß die Vorhersagen eines Computers nur so verläßlich sind wie die Annahmen des Programmierers.

Zu Beginn wurden nur wenige UNIVACs an Firmen verkauft. Langsam entschloß sich das riesige IBM-Unternehmen, auch ins Computergeschäft einzusteigen. Auch wenn die IBM-Maschinen nicht so gut wie die UNIVACs waren, so hatte das Unternehmen eine große Verkaufsabteilung, und die meisten Firmen benutzten gewohntermaßen IBM-Rechner und -Tabulatoren mit Lochkarten. 1956 hatte IBM mit 76 installierten Computern gegenüber 46 UNIVACs einen Vorsprung errungen.

Die 50er und 60er Jahre waren eine Zeit, in der mit Computern viele ihrer unangenehmen Aspekte assoziiert wurden. Es waren außerordentlich teure Maschinen, die nur von großen Unternehmen und der Regierung benutzt wurden. Normalerweise ließ man ein Programm auf einer dieser Maschinen laufen, indem man es in Codezeilen umschrieb und eine zentrale Lochkartenmaschine einsetzte, um jede Zeile als eine Lochkarte darzustellen. Man gab seinen kleinen Stapel an Lochkarten ab, und wenn sich eine ausreichende Menge angesammelt hatte, lief das Programm als Teil eines Programmstapels. Als Ergebnis erhielt man ein vom Computer bedrucktes Papier oder, was vielleicht typischer war, eine Reihe von kryptischen Fehlermitteilungen.

Die Einteilung in Computergenerationen

Normalerweise teilt man die Geschichte der Computer zwischen den 50er und 70er Jahren in vier Computergenerationen auf.

Die erste Generation der im Handel befindlichen Computer gab es von 1950 bis 1959. Diese Maschinen besaßen weiterhin Vakuumröhren für ihren schnellsten Speicher sowie für ihre Schaltkreise und Prozessoren. Die alten Speicher aus Quecksilberleitungen wurden durch solche ersetzt, in dem jedes Bit durch einen winzigen Ring oder "Kern" aus einer magnetischen Verbindung abgespeichert wurde, die Ferrit hieß. Durch jeden derartigen Kern liefen drei Drähte. Wenn durch die Drähte elektrische Impulse gesendet wurden, konnte das Bit im Kern gelesen oder verändert werden. Zehntausende dieser Kerne, die Unterlegscheiben glichen, wurden in einem quadratischen "Kerngehäuse" mit einer Seitenlänge von mehreren Zentimetern miteinander verbunden.

GPDP-1

Die zweite Computergeneration gab es zwischen 1959 und 1963. Während dieser Zeit wurden die Vakuumröhren durch Transistoren ersetzt. Mittlerweile stellte IBM die überwiegende Mehrzahl der Computer her, aber einer der berühmtesten der zweiten Generation war der erste PDP (Programmed Data Processor) der Digital Equipment Corporation. Der PDP-1 spielte deshalb eine entscheidende Rolle, weil er die erste Maschine war, die Menschen in Echtzeit benutzen konnten. Anstatt einen Tag zu warten, bis man seine stapelweise verarbeiteten Ergebnisse erhielt, ließ sich der PDP-1 programmieren und man erhielt die Ergebnisse gleich durch eine elektrische Schreibmaschine. Er besaß auch einen Bildschirm, der dank einer Programmschleife zur Darstellung von Buchstaben mit jeweils einem Dot ungefähr ein Dutzend Zeichen zeigen konnte.

Die dritte Generation begann 1964 mit den 360-Computern von IBM. Die erste dieser Maschinen setzte eine "solide Logiktechnik" ein, bei der verschiedene elektronische Komponenten auf einer Keramikplatte verlötet wurden. Kurz darauf wurde dieser "Kludge" durch kleine integrierte Schaltkreise ersetzt, bei denen eine Vielzahl unterschiedlicher elektronischer Komponenten als eingeätzte Muster auf einem einzelnen Silikonteil aufgetragen werden. Während eines Jahrzehnts wurden die integrierten Schaltkreise bis 1975 immer komplizierter und verwandelten sich in sogenannte VLSI (Very Large Scale Integrated) Schaltkreise.

Die vierte Generation setzte schließlich 1975 ein, als VLSI Schaltkreise so raffiniert wurden, daß die gesamten logischen und arithmetischen Verarbeitungsschaltkreise eines Computers auf einen einzigen Chip, einen Mikroprozessor, paßten. Ein Mikroprozessor ist das Herz eines jeden PCs oder einer jeden Workstation. Jedes Jahr gibt es, ähnlich den jährlich neuen Autotypen von Detroit, eine neue, verbesserte Version.

Man könnte die Ankunft der dezentralisierten PCs und Desktop Workstations als die noch existierende fünfte Computergeneration betrachten. Der Bruch zwischen der alten Welt der Mainframes und der neuen Welt der PCs ist ein entscheidender Schritt. Und wenn man die Vorstellung von Generationen noch weiter treiben will, dann macht es auch Sinn, vom Beginn der Vernetzung und vom Web als einem Fortschritt im Jahr 1990 zu sprechen, der die Computer der ganzen Welt in einen einzigen Computer der sechsten Generation verwandelt: in ein neues, weltweites System, in ein neues Ganzes, das größer ist als seine Teile.

Die Entwicklung der Software

Bis jetzt habe ich über die Entwicklung der Hardware der heutigen Computergesprochen, aber nur wenig darüber, wie sich die Software entwickelt hat. Wenden wir uns daher diesem Thema zu.

Auch wenn das Kapitel "Moloch" in Allen Ginsbergs überragendem Beatgedicht "Howl" von Fritz Langs Metropolis und der Silhoutte des France Drake Hotels vor dem nächtlichen Skyline San Franciscos im Jahr 1955 beeinflußt war, so bringt es auch das Gefühl zum Ausdruck, daß Künstler und Intellektuelle angesichts der riesigen Mainframe-Computer wie dem UNIVAC oder von IBM entwickelten.

Moloch whose mind is pure machinery! Moloch whose blood is running money! Moloch whose fingers are ten armies! Moloch whose breast is a cannibal dynamo! Moloch the smoking tomb! Moloch whose eyes are a thousand blind windows! Moloch whose skycrapers stand in the long streets like endless Jehovahs! Moloch whose factories dream and croak in the fog! Moloch whose smokesteacks and antennea crown the cities! Moloch whose love is endless oil and stone! Moloch whose soul is electricity and banks! Moloch whose poverty is the specter of genius! Moloch whose fate is a cloud of sexless hydrogen! Moloch whose name is the Mind!

Trotz der negativen Assoziationen, die an den Computern hafteten, waren viele der Menschen, die mit diesen Maschinen arbeiteten, überhaupt nicht daran interessiert, den Molochs der großen Konzerne und der repressiven Regierung zu dienen. Selbst die allererste von Neumann Mainframe-Architektur, der EDSAC aus dem Jahr 1949, wurde gelegentlich zum Spielen verwendet. Maurice Wilkens, der Entwerfer von EDSAC, berichtet:

Der EDSAC besaß einen Monitor mit einer Kathodenröhre, auf dem eine Matrix aus 35 mal 16 Punkte dargestellt werden konnte. Es dauerte nicht lange, bis ein einfallsreicher Programmierer diese Punkte benutzte, um ein einfaches Bild zu machen. Eine vertikale Gerade aus Punkte in der Mitte des Bildschirms ergab einen Zaun. Dieser Zaun wies ein Loch auf, das sich entweder auf der oberen oder auf der unteren Hälfte des Bildschirm befinden konnte. Wenn man seine Hand in den Lichtstrahl des photoelektrischen Papierbandlesesystems hielt, konnte man das Loch von der unteren Hälfte in die obere Hälfte bewegen. In bestimmten Zeitabständen erschien eine Punktlinie auf der linken oberen oder unteren Hälfte des Bildschirms. Wenn sie auf das Loch im Zaun trafe, konnte sie auf die andere Seite gehen, ansonsten bewegte sie sich wieder rückwärts. Diese Punkte wurden von einem lernenden Programm gesteuert. Wenn der Benutzer das Ganze auf wiederkehrende Weise von oben nach unten bewegte, registrierte das lernende Programm dies. Nach kurzer Zeit ging dann die Gerade aus Dots immer durch das Loch. Niemand nahm dieses Programm sehr ernst ...

Eine solche interaktive, spielerische Erkundung des Computers setzte sich während der 60er und 70er Jahre am Massachusetts Institute of Technology durch. Der PDP-1 von DEC, die erste interaktive Maschine, war dafür der Auslöser. Wie schon erwähnt, mußte man mit dem "Echtzeit"-PDP-1 nicht mehr seinen Stapel von Lochkarten an die priesterlichen Hüter einer schwerfälligen und riesigen Mainframe übergeben, sondern man konnte sich an die Tastatur setzen, etwas eintippen und unmittelbar das Feedback auf einem Bildschirm sehen.

Spacewar

Steven Levys wunderbares Buch "Hackers" (Doubleday & Company, 1984) berichtet, wie die Ankunft des PDP-1 am MIT im Jahr 1961 für immer den Umgang mit Computern veränderte. Eine kleine Gruppe von Studenten begannen, sich selbst als Computerhacker zu bezeichnen, und sie beschlossen, kreative Dinge mit dem PDP-1 zu machen. Eines ihrer bekanntesten Projekte war das Videospiel Spacewar, bei dem gegnerische Raumschiffe sich mit Raketen beschossen, während sie um eine zentrale Sonne kreisten. Derartige Spiele sind heute natürlich gang und gäbe, aber Spacewar war das erste. Als dann der leistungsstärkere PDP-6 in der Mitte der 60er Jahre am MIT eintraf, wurde er zuerst für viele Hacker-Arbeiten benutzt. Dazu gehörte etwa "The Great Subway Hack", bei dem einer der Hacker nach New York City ging und es schaffte, zu jedem der U-Bahnhöfe mit einer einzigen Fahrkarte dank eines interaktiv durch den PDP-6 aktualisierten Fahrplans auf der Grundlage von Telefonanrufen von Zugbeobachtern des MIT zu kommen, die in Manhattan postiert waren.

Ich sollte aber zwischendurch noch anmerken, daß sich die Bedeutung des Begriffs "Computerhacker" mit der Zeit verändert hat. Als Hacker gelten heute oft mehr oder weniger kriminelle Menschen, die Computernetze zu betrügerischen Zwecken oder zur Spionage benutzen. Diese sprachliche Umdeutung entstand durch Geschichten über Computer, die von der Presse gerne berichtet werden. Die Medien können sich eine rein spielerische Manipulation von Information nicht vorstellen und halten daher nach Geschichten über die traurigen alten Moloch-Themen von Geld, Macht und Krieg Ausschau. Aber in der ursprünglichen Bedeutung des Wortes ist ein Computerhacker jemand, der etwas Interessantes mit Maschinen machen will, der sozusagen lieber auf einen Computermonitor als auf einen Fernsehbildschirm sieht.

Nach Steven Levys Buch formulierten die MIT-Hacker sogar eine als Hacker-Ethik bezeichnetes Credo:

  1. 1) Der Zugang zu Computern soll unbegrenzt und total sein.
  2. 2) Jede Information soll frei sein.
  3. 3) Mißtraue der Autorität - fördere Dezentralisation.
  4. 4) Hacker sollen nach ihrem Hacking beurteilt werden und nicht nach solchen Scheinkriterien wie Titel, Alter, Rasse oder Stellung.
  5. 5. Computer können das Leben verbessern.

Als diese Ideen das erste Mal artikuliert wurden, schienen sie seltsam und unrealistisch zu sein, aber heute gibt es immer mehr Menschen, die an sie glauben. Das verdankt sich zum großen Teil der allgegenwärtigen Verbreitung der PCs. Schauen wir uns daher die Entstehung dieser anarchistischen Maschine ein wenig an.

Der erste PC

Die Firma Intel begann 1975 einen integrierten Chip zu bauen, der einen ganzen Computerprozessor enthielt. Die ersten dieser Chips verwendeten "Worte" aus vier Bits und wurden 4004 genannt. Kurz darauf kamen die 8008er mit acht Bits. Eine obskure Firma mit dem Namen MITS (Model Instrumentation Telemetry Systems) aus Albuquerque in New Mexico kam auf die Idee, den 8008er Chip von Intel in ein Gehäuse zu stecken und ihn einen Altair-Computer zu nennen. Eine Attrappe des Altair erschien im Januar 1975 auf der Titelseite der Zeitschrift Popular Electronics, und die ersten Bestellungen trafen ein, obwohl der Altair nur als ein Baukasten von Teilen verschickt wurde und man ihn selbst zusammenbauen mußte, und obwohl die einzige Möglichkeit nach seinem Zusammenbau, ihn zu programmieren, darin bestand, Schalter zu verstellen (acht Schalter für ein Byte Programmcode), und man einen Output nur dann erhielt, wenn man auf eine Reihe von acht winzigen roten Leuchtdioden blickte.

Nirgendwo wurde der Altair mit einer größeren Begeisterung als in Silicon Valley begrüßt, auf diesem Schaltkreis aus Städten und Autobahnen, der sich vom südlichen Ende der San Francisco Bay über San Jose bis nach Palo Alto erstreckt. Dieses sonnige und windige Stück Land war bereits voll von elektronischen Firmen wie Fairchild, Varian und Hewlett-Packard, die gute Geschäfte als Zulieferer von Unternehmen machten, die wie Lockheed für das Militär arbeiteten. Angesteckt vom Altair bildete sich eine Gruppe von Amateuren, die sich Homebrew Computer Club nannte.

Einer der frühen Höhepunkte von Homebrew kam, als ein Hardware-Hacker mit dem Namen Steve Dompier herausfand, daß die elektrischen Felder bestimmter Verarbeitungsprozesse im Computer das Radio in bestimmten Frequenzen summen ließ, wenn man das Radio in die Nähe des Altair brachte. Nach mehreren Tagen fieberhaften Umherschaltens konnte Dompier sein Altair-und-Radio-System das Lied "Fool on the Hill" von den Beatles und dann "Daisy" spielen lassen, also dasselbe Lied, das der sterbende Computer HAL in dem klassischen Science-Fiction- Film 2001 singt.

Steve Wozniak, ein zotteliger junger Mann, kam regelmäßig zu den Versammlungen des Hombrew Computer Clubs. Woz baute nicht einen Altair zusammen, sondern baute sich seinen eigenen Computer aus einer erstaunlich kleinen Zahl von Teilen. Er und sein Freund Steve Jobs entschlossen sich, klein ins Geschäft einzusteigen und verkauften die ersten 50 Computer Wozniaks über Amateurzeitschriften. Die Maschine hieß Apple und kostete 666,66 Dollar. Und dann legten Wozniak und Jobs richtig los. 1978 brachten sie den Apple II auf den Markt, der die Leistung der alten Mainframe-Computer aus den 60er Jahren erbrachte ... plus Farbe und Ton. Der Apple II verkaufte sich und verkaufte sich. 1980 waren Wozniak und Jobs Millionäre.

Der nächste große Schritt in der Entwicklung der PCs ereignete sich 1981, als IBM einen eigenen PC, den IBM PC, auf den Markt brachte. Auch wenn er nicht so gut wie der Apple II konstruiert war, lag dem Entwurf die revolutionäre Vorstellung einer offenen Architektur zugrunde, die andere Unternehmen leicht kopieren konnten. Jeder Computer von Apple enthielt einen ROM-Chip mit bestimmten geheimen Routinen des Betriebssystems, und es gab keine Möglichkeit, diese Chips zu kopieren. IBM hingegen veröffentlichte die Details der Funktionsweise seines Betriebssystems und ermöglichte so, daß andere es klonen konnten. Als Prozessor wurde der gebräuchliche 8-Bit- Prozessor von Intel verwendet (den man nicht mit dem 8008 von Altair verwechseln sollte). Er wurde schnell von dem 16-Bit-Prozessor 8086 abgelöst. Die Schleusen öffneten sich und eine Flut an billigen Computern, die mit dem IBM PC kompatibel waren, überschwemmten den Markt. Apples Mcintosh von 1984 ließ die Architektur des IBM PC schlechter als jemals zuvor aussehen, aber der einfache Umstand, daß die Klons des IBM PCs billiger waren, sicherte diesen Computern den Löwenanteil am PC-Markt. Mit den Betriebssystemen Windows von Microsoft erhielten die "Wintel"-Klonrechner (Windows Software mit Intel-Chips) die grafischen Benutzerschnittstellen, mit denen sie leicht zu bedienen waren.

Das hat uns schon ziemlich nahe an die Gegenwart geführt, so daß es keinen großen Sinn mehr macht, chronologisch vorzugehen. Ein spannender Aspekt der Geschichte der Computer ist, daß wir an ihr teilhaben. Sie geht noch immer weiter, und bislang kam die Meinungsbildung noch zu keinem Abschluß. Unterbrechen wir kurz und denken wir ein bißchen darüber nach, was Computer, hier und jetzt, eigentlich sind. Worauf beruht die Faszination, die von Computern ausgeht?

Von der Lust am Computer

Wer Programme schreibt oder die Hardware entwirft, ist es die Lust, alle Einzelheiten richtig zu machen. Ein falsch plaziertes Symbol oder eine falsche Verbindung im Schaltkreis kann fatal sein. Eine solch komplizierte Struktur einfach nur richtig funktionieren zu lassen, erzeugt bei bestimmten Menschen ein tiefes Gefühl der Befriedigung. Ein Programm zu schreiben oder einen Chip zu entwerfen, gleicht der Arbeit an einem riesigen Puzzle, wobei man die Regeln aufregenderweise niemals ganz kennt. Wenn man an einem wirklich neuen Design arbeitet, dann ist das so, als mache man etwas, was niemand jemals zuvor versucht hat. Es ist ein neues Land, und wenn der Hack nicht funktioniert, dann muß man sich etwas ausdenken, um es richtig zu machen. Ich habe das in meiner Science-Fiction-Erzählung "The Hacker and The Ants" dargestellt:

Hacken gleicht dem Bau einer großen Kathedrale mit Zahnstochern, abgesehen davon, daß dann, wenn ein Zahnstocher nicht an seinem Platz ist, der ganze Bau verschwindet. Und dann muß man die unsichtbare Kathedrale suchen und sich überlegen, welcher Zahnstocher falsch plaziert ist. Debuggers machen das ein wenig einfacher, da ein wirklich ausgefeiltes Programm auf dem letzten Stand auch die Fehler finden kann, weswegen dies der Situation gleicht, daß man nach einem fehlenden Zahnstocher mit einer von einem Schlaganfall gelähmten Hand sucht.

Aber da ist doch die Schönheit eines dunklen Traums vom Messer eines Hackers, das gegen eine verborgene Wand stößt, die man nur selbst sehen kann, über die man sich nur als Programmierer mit den ganz neuen Werkzeugen beklagt, die man während der Arbeit entwickelt hat, den speziellen neuen Zahnstocher- und Puzzleteilen und dem Rasierapparat für Fehler - man selbst ganz alleine mit den eigenen wunderbaren Werkzeugen.

Hacker sind oft Menschen, die keine gute Beziehungen mit anderen Menschen haben. Sie genießen es, so viel Zeit mit der Interaktion mit einem Computer ohne Gefühlen verbringen zu können. Die Reaktionen des Computers sind klar und Objektiv. Anders wie beispielsweise ein Vater oder eine Mutter oder auch ein offizieller Boß teilt der Computer keine Fehlermeldung einfach nur deswegen mit, weil er die eigene Haltung oder Erscheinungsweise nicht mag. Ein Computer hört niemals auf den Bombast der großen Männer in der Universität oder auf das abschätzige Gerede der Cheerleader, er vernimmt nur die logischen Arabesken der ehrlichen Hacker.

Jeder, der einen Computer besitzt, ist notwendigerweise ein bißchen ein Hacker. Selbst wenn man lediglich ein Textverarbeitungsprogramm und ein wenig E-Mail verwendet, erhält man schnell den Eindruck, daß der Raum innerhalb des eigenen Computers ein Ort ist, an dem man gut arbeiten kann. Man ist stolz auf die erlernten Tricks, mit denen man seine Maschine richtig funktionieren läßt. Dank des eigenen Wissens sind die Dokumente gesichert, kommen die Mitteilungen und gelangen zu ihrem Bestimmungsort.

Im Unterschied zur wirklichen Welt ist die Welt des Computers sicher und kontollierbar. In ihm geschieht alles auf logische Weise. Zumindest geht man davon aus. Der Computer gilt als Schutzburg vor dem unvorhersehbaren Chaos der zwischenmenschlichen Beziehungen und der tyrannischen Irrationalität der Gesellschaft. Wenn etwas mit dem eigenen Computer nicht so richtig funktioniert, wenn man beispielsweise mühsam die Lernkurve für ein neues Programm hinaufklettert oder, noch schlimmer, eine neue Hardware oder ein neues Betriebssystem installiert, können Angst und Ärger über Gebühr wachsen. "Das sollte der Teil der Welt sein, den ich kontrollieren kann!" Aber anders als in der wirklichen Welt erweisen sich alle Probleme als lösbar, manchmal einfach dadurch, daß man andere fragt, oder manchmal, indem man sich ein neues Zubehör kauft oder ein Techniker mit seiner heilenden Hand eingreift. Die Welt der Computer ist ein Platz, an dem alles ein gutes Ende nimmt.

Attraktiv an den Computern ist auch, daß sein Bildschirm ein Fenster in jede mögliche Wirklichkeit sein kann. Besonders wenn man schreibt oder Grafikprogramme benutzt, hat man die Möglichkeit, Welten zu erkunden, die kein menschliches Auge jemals zuvor gesehen hat. Wirkliche Reisen mit dem Körper sind mühsam, und eine Reise in den Weltraum ist praktisch unmöglich. Aber mit dem Computer kann man direkt und so, wie man ist, zu neuen Ländern (frontiers) aufbrechen.

Die Unmittelbarkeit der Antworten eines modernen Computers gibt dem Benutzer das Gefühl, daß er mit etwas interagiert, das wirklich und fast lebendig ist. Der Raum hinter dem Bildschirm geht in den wirklichen Raum über, und der Benutzer betritt eine Welt, die halb wirklich und halb computererzeugt ist: das Land des Cyberspace. Wenn man nach einer langen Computersitzung nach außen geht, sieht die Welt mit ihren materiellen Objekten und ihren wahrscheinlichen Prozessen, mit den geheimnisvollen Computergrafiken und Computercodes anders aus. Manchmal erkannt man neue Aspekte der Wirklichkeit. Eines der primären Ziele von Gnarly! ist es, einige dieser flüchtigen Einsichten einzufangen und zu verstärken.

Ich habe immer den Eindruck gehabt, daß Fernsehen insgesamt etwas Schlechtes ist. Es ist irgendwie traurig, vor einem flackernden Bildschirm zu sitzen, ihn anzustarren und manipuliert zu werden. Mit einem Computer umzugehen, ist interaktiver als Fernsehschauen, und das scheint positiver zu sein. Aber auch wenn das stimmt, so ähneln Computer Fernsehern und sind daher bis zu einem gewissen Grad Mächte des Bösen. Daran wurde ich gerade gestern eindrucksvoll erinnert, als mein Sohn Rudy jr. und ich in den Freizeitpark Boardwalk in Santa Cruz gingen.

Rudy ist jetzt 24 Jahre alt. Daher waren wir ganz cool und machten nur zwei Fahrten. Die erste war der Big Dipper, eine wunderbare alte Achterbahn aus Holz, die direkt an der Monterey Bay steht. Die vorbeisausende Luft war kühl und salzig, die Farben leuchteten hell und vom Sonnenlicht erfüllt und die Wägen bewegten sich durch einen langen Soundtunnel, der sich aus den Schreien, dem Geratter, der Volksfestmusik und den entfernten Wellen bildete.

Die zweite Fahrt unternahmen wir in der Virtuellen Realität. Neun Menschen mußten sich einen Campingwagen ohne Fenster auf hydraulischen Gestellen quetschen. An der Vorderseite des schlecht belüfteten Wagens befand sich eine große Leinwand, der die Ansicht einer Fahrt aus der Ich-Perspektive zeigte: einer Fahrt auf einer Achterbahn! Wenn das virtuelle Bild herunterfiel und holperte, bockten die hydraulischen Gelenke und wackelten, um zu versuchen, die kinästhetische Illusion zu erzeugen, als sei man wirklich im Cyberspace der virtuellen Fahrt. Verglichen mit der noch frischen Erinnerung an die wirkliche Achterbahn, war die VR-Fahrt ausgelutscht.

Im Vergleich mit der Wirklichkeit, werden Computer stets schlechter sein. Aber es gibt die Computer, damit wir sie benutzen, und wenn wir sie vernünftig einsetzen, dann können sie uns lehren, die Wirklichkeit besser zu genießen als jemals zuvor.

Aus dem Englischen übersetzt von Florian Rötzer