Dinosauriermaschinen und die Lust am Hacken

Seite 5: Die Einteilung in Computergenerationen

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Normalerweise teilt man die Geschichte der Computer zwischen den 50er und 70er Jahren in vier Computergenerationen auf.

Die erste Generation der im Handel befindlichen Computer gab es von 1950 bis 1959. Diese Maschinen besaßen weiterhin Vakuumröhren für ihren schnellsten Speicher sowie für ihre Schaltkreise und Prozessoren. Die alten Speicher aus Quecksilberleitungen wurden durch solche ersetzt, in dem jedes Bit durch einen winzigen Ring oder "Kern" aus einer magnetischen Verbindung abgespeichert wurde, die Ferrit hieß. Durch jeden derartigen Kern liefen drei Drähte. Wenn durch die Drähte elektrische Impulse gesendet wurden, konnte das Bit im Kern gelesen oder verändert werden. Zehntausende dieser Kerne, die Unterlegscheiben glichen, wurden in einem quadratischen "Kerngehäuse" mit einer Seitenlänge von mehreren Zentimetern miteinander verbunden.

GPDP-1

Die zweite Computergeneration gab es zwischen 1959 und 1963. Während dieser Zeit wurden die Vakuumröhren durch Transistoren ersetzt. Mittlerweile stellte IBM die überwiegende Mehrzahl der Computer her, aber einer der berühmtesten der zweiten Generation war der erste PDP (Programmed Data Processor) der Digital Equipment Corporation. Der PDP-1 spielte deshalb eine entscheidende Rolle, weil er die erste Maschine war, die Menschen in Echtzeit benutzen konnten. Anstatt einen Tag zu warten, bis man seine stapelweise verarbeiteten Ergebnisse erhielt, ließ sich der PDP-1 programmieren und man erhielt die Ergebnisse gleich durch eine elektrische Schreibmaschine. Er besaß auch einen Bildschirm, der dank einer Programmschleife zur Darstellung von Buchstaben mit jeweils einem Dot ungefähr ein Dutzend Zeichen zeigen konnte.

Die dritte Generation begann 1964 mit den 360-Computern von IBM. Die erste dieser Maschinen setzte eine "solide Logiktechnik" ein, bei der verschiedene elektronische Komponenten auf einer Keramikplatte verlötet wurden. Kurz darauf wurde dieser "Kludge" durch kleine integrierte Schaltkreise ersetzt, bei denen eine Vielzahl unterschiedlicher elektronischer Komponenten als eingeätzte Muster auf einem einzelnen Silikonteil aufgetragen werden. Während eines Jahrzehnts wurden die integrierten Schaltkreise bis 1975 immer komplizierter und verwandelten sich in sogenannte VLSI (Very Large Scale Integrated) Schaltkreise.

Die vierte Generation setzte schließlich 1975 ein, als VLSI Schaltkreise so raffiniert wurden, daß die gesamten logischen und arithmetischen Verarbeitungsschaltkreise eines Computers auf einen einzigen Chip, einen Mikroprozessor, paßten. Ein Mikroprozessor ist das Herz eines jeden PCs oder einer jeden Workstation. Jedes Jahr gibt es, ähnlich den jährlich neuen Autotypen von Detroit, eine neue, verbesserte Version.

Man könnte die Ankunft der dezentralisierten PCs und Desktop Workstations als die noch existierende fünfte Computergeneration betrachten. Der Bruch zwischen der alten Welt der Mainframes und der neuen Welt der PCs ist ein entscheidender Schritt. Und wenn man die Vorstellung von Generationen noch weiter treiben will, dann macht es auch Sinn, vom Beginn der Vernetzung und vom Web als einem Fortschritt im Jahr 1990 zu sprechen, der die Computer der ganzen Welt in einen einzigen Computer der sechsten Generation verwandelt: in ein neues, weltweites System, in ein neues Ganzes, das größer ist als seine Teile.

Die Entwicklung der Software

Bis jetzt habe ich über die Entwicklung der Hardware der heutigen Computergesprochen, aber nur wenig darüber, wie sich die Software entwickelt hat. Wenden wir uns daher diesem Thema zu.

Auch wenn das Kapitel "Moloch" in Allen Ginsbergs überragendem Beatgedicht "Howl" von Fritz Langs Metropolis und der Silhoutte des France Drake Hotels vor dem nächtlichen Skyline San Franciscos im Jahr 1955 beeinflußt war, so bringt es auch das Gefühl zum Ausdruck, daß Künstler und Intellektuelle angesichts der riesigen Mainframe-Computer wie dem UNIVAC oder von IBM entwickelten.

Moloch whose mind is pure machinery! Moloch whose blood is running money! Moloch whose fingers are ten armies! Moloch whose breast is a cannibal dynamo! Moloch the smoking tomb! Moloch whose eyes are a thousand blind windows! Moloch whose skycrapers stand in the long streets like endless Jehovahs! Moloch whose factories dream and croak in the fog! Moloch whose smokesteacks and antennea crown the cities! Moloch whose love is endless oil and stone! Moloch whose soul is electricity and banks! Moloch whose poverty is the specter of genius! Moloch whose fate is a cloud of sexless hydrogen! Moloch whose name is the Mind!

Trotz der negativen Assoziationen, die an den Computern hafteten, waren viele der Menschen, die mit diesen Maschinen arbeiteten, überhaupt nicht daran interessiert, den Molochs der großen Konzerne und der repressiven Regierung zu dienen. Selbst die allererste von Neumann Mainframe-Architektur, der EDSAC aus dem Jahr 1949, wurde gelegentlich zum Spielen verwendet. Maurice Wilkens, der Entwerfer von EDSAC, berichtet:

Der EDSAC besaß einen Monitor mit einer Kathodenröhre, auf dem eine Matrix aus 35 mal 16 Punkte dargestellt werden konnte. Es dauerte nicht lange, bis ein einfallsreicher Programmierer diese Punkte benutzte, um ein einfaches Bild zu machen. Eine vertikale Gerade aus Punkte in der Mitte des Bildschirms ergab einen Zaun. Dieser Zaun wies ein Loch auf, das sich entweder auf der oberen oder auf der unteren Hälfte des Bildschirm befinden konnte. Wenn man seine Hand in den Lichtstrahl des photoelektrischen Papierbandlesesystems hielt, konnte man das Loch von der unteren Hälfte in die obere Hälfte bewegen. In bestimmten Zeitabständen erschien eine Punktlinie auf der linken oberen oder unteren Hälfte des Bildschirms. Wenn sie auf das Loch im Zaun trafe, konnte sie auf die andere Seite gehen, ansonsten bewegte sie sich wieder rückwärts. Diese Punkte wurden von einem lernenden Programm gesteuert. Wenn der Benutzer das Ganze auf wiederkehrende Weise von oben nach unten bewegte, registrierte das lernende Programm dies. Nach kurzer Zeit ging dann die Gerade aus Dots immer durch das Loch. Niemand nahm dieses Programm sehr ernst ...

Eine solche interaktive, spielerische Erkundung des Computers setzte sich während der 60er und 70er Jahre am Massachusetts Institute of Technology durch. Der PDP-1 von DEC, die erste interaktive Maschine, war dafür der Auslöser. Wie schon erwähnt, mußte man mit dem "Echtzeit"-PDP-1 nicht mehr seinen Stapel von Lochkarten an die priesterlichen Hüter einer schwerfälligen und riesigen Mainframe übergeben, sondern man konnte sich an die Tastatur setzen, etwas eintippen und unmittelbar das Feedback auf einem Bildschirm sehen.

Spacewar

Steven Levys wunderbares Buch "Hackers" (Doubleday & Company, 1984) berichtet, wie die Ankunft des PDP-1 am MIT im Jahr 1961 für immer den Umgang mit Computern veränderte. Eine kleine Gruppe von Studenten begannen, sich selbst als Computerhacker zu bezeichnen, und sie beschlossen, kreative Dinge mit dem PDP-1 zu machen. Eines ihrer bekanntesten Projekte war das Videospiel Spacewar, bei dem gegnerische Raumschiffe sich mit Raketen beschossen, während sie um eine zentrale Sonne kreisten. Derartige Spiele sind heute natürlich gang und gäbe, aber Spacewar war das erste. Als dann der leistungsstärkere PDP-6 in der Mitte der 60er Jahre am MIT eintraf, wurde er zuerst für viele Hacker-Arbeiten benutzt. Dazu gehörte etwa "The Great Subway Hack", bei dem einer der Hacker nach New York City ging und es schaffte, zu jedem der U-Bahnhöfe mit einer einzigen Fahrkarte dank eines interaktiv durch den PDP-6 aktualisierten Fahrplans auf der Grundlage von Telefonanrufen von Zugbeobachtern des MIT zu kommen, die in Manhattan postiert waren.

Ich sollte aber zwischendurch noch anmerken, daß sich die Bedeutung des Begriffs "Computerhacker" mit der Zeit verändert hat. Als Hacker gelten heute oft mehr oder weniger kriminelle Menschen, die Computernetze zu betrügerischen Zwecken oder zur Spionage benutzen. Diese sprachliche Umdeutung entstand durch Geschichten über Computer, die von der Presse gerne berichtet werden. Die Medien können sich eine rein spielerische Manipulation von Information nicht vorstellen und halten daher nach Geschichten über die traurigen alten Moloch-Themen von Geld, Macht und Krieg Ausschau. Aber in der ursprünglichen Bedeutung des Wortes ist ein Computerhacker jemand, der etwas Interessantes mit Maschinen machen will, der sozusagen lieber auf einen Computermonitor als auf einen Fernsehbildschirm sieht.

Nach Steven Levys Buch formulierten die MIT-Hacker sogar eine als Hacker-Ethik bezeichnetes Credo:

  1. 1) Der Zugang zu Computern soll unbegrenzt und total sein.
  2. 2) Jede Information soll frei sein.
  3. 3) Mißtraue der Autorität - fördere Dezentralisation.
  4. 4) Hacker sollen nach ihrem Hacking beurteilt werden und nicht nach solchen Scheinkriterien wie Titel, Alter, Rasse oder Stellung.
  5. 5. Computer können das Leben verbessern.

Als diese Ideen das erste Mal artikuliert wurden, schienen sie seltsam und unrealistisch zu sein, aber heute gibt es immer mehr Menschen, die an sie glauben. Das verdankt sich zum großen Teil der allgegenwärtigen Verbreitung der PCs. Schauen wir uns daher die Entstehung dieser anarchistischen Maschine ein wenig an.

Der erste PC

Die Firma Intel begann 1975 einen integrierten Chip zu bauen, der einen ganzen Computerprozessor enthielt. Die ersten dieser Chips verwendeten "Worte" aus vier Bits und wurden 4004 genannt. Kurz darauf kamen die 8008er mit acht Bits. Eine obskure Firma mit dem Namen MITS (Model Instrumentation Telemetry Systems) aus Albuquerque in New Mexico kam auf die Idee, den 8008er Chip von Intel in ein Gehäuse zu stecken und ihn einen Altair-Computer zu nennen. Eine Attrappe des Altair erschien im Januar 1975 auf der Titelseite der Zeitschrift Popular Electronics, und die ersten Bestellungen trafen ein, obwohl der Altair nur als ein Baukasten von Teilen verschickt wurde und man ihn selbst zusammenbauen mußte, und obwohl die einzige Möglichkeit nach seinem Zusammenbau, ihn zu programmieren, darin bestand, Schalter zu verstellen (acht Schalter für ein Byte Programmcode), und man einen Output nur dann erhielt, wenn man auf eine Reihe von acht winzigen roten Leuchtdioden blickte.

Nirgendwo wurde der Altair mit einer größeren Begeisterung als in Silicon Valley begrüßt, auf diesem Schaltkreis aus Städten und Autobahnen, der sich vom südlichen Ende der San Francisco Bay über San Jose bis nach Palo Alto erstreckt. Dieses sonnige und windige Stück Land war bereits voll von elektronischen Firmen wie Fairchild, Varian und Hewlett-Packard, die gute Geschäfte als Zulieferer von Unternehmen machten, die wie Lockheed für das Militär arbeiteten. Angesteckt vom Altair bildete sich eine Gruppe von Amateuren, die sich Homebrew Computer Club nannte.

Einer der frühen Höhepunkte von Homebrew kam, als ein Hardware-Hacker mit dem Namen Steve Dompier herausfand, daß die elektrischen Felder bestimmter Verarbeitungsprozesse im Computer das Radio in bestimmten Frequenzen summen ließ, wenn man das Radio in die Nähe des Altair brachte. Nach mehreren Tagen fieberhaften Umherschaltens konnte Dompier sein Altair-und-Radio-System das Lied "Fool on the Hill" von den Beatles und dann "Daisy" spielen lassen, also dasselbe Lied, das der sterbende Computer HAL in dem klassischen Science-Fiction- Film 2001 singt.

Steve Wozniak, ein zotteliger junger Mann, kam regelmäßig zu den Versammlungen des Hombrew Computer Clubs. Woz baute nicht einen Altair zusammen, sondern baute sich seinen eigenen Computer aus einer erstaunlich kleinen Zahl von Teilen. Er und sein Freund Steve Jobs entschlossen sich, klein ins Geschäft einzusteigen und verkauften die ersten 50 Computer Wozniaks über Amateurzeitschriften. Die Maschine hieß Apple und kostete 666,66 Dollar. Und dann legten Wozniak und Jobs richtig los. 1978 brachten sie den Apple II auf den Markt, der die Leistung der alten Mainframe-Computer aus den 60er Jahren erbrachte ... plus Farbe und Ton. Der Apple II verkaufte sich und verkaufte sich. 1980 waren Wozniak und Jobs Millionäre.

Der nächste große Schritt in der Entwicklung der PCs ereignete sich 1981, als IBM einen eigenen PC, den IBM PC, auf den Markt brachte. Auch wenn er nicht so gut wie der Apple II konstruiert war, lag dem Entwurf die revolutionäre Vorstellung einer offenen Architektur zugrunde, die andere Unternehmen leicht kopieren konnten. Jeder Computer von Apple enthielt einen ROM-Chip mit bestimmten geheimen Routinen des Betriebssystems, und es gab keine Möglichkeit, diese Chips zu kopieren. IBM hingegen veröffentlichte die Details der Funktionsweise seines Betriebssystems und ermöglichte so, daß andere es klonen konnten. Als Prozessor wurde der gebräuchliche 8-Bit- Prozessor von Intel verwendet (den man nicht mit dem 8008 von Altair verwechseln sollte). Er wurde schnell von dem 16-Bit-Prozessor 8086 abgelöst. Die Schleusen öffneten sich und eine Flut an billigen Computern, die mit dem IBM PC kompatibel waren, überschwemmten den Markt. Apples Mcintosh von 1984 ließ die Architektur des IBM PC schlechter als jemals zuvor aussehen, aber der einfache Umstand, daß die Klons des IBM PCs billiger waren, sicherte diesen Computern den Löwenanteil am PC-Markt. Mit den Betriebssystemen Windows von Microsoft erhielten die "Wintel"-Klonrechner (Windows Software mit Intel-Chips) die grafischen Benutzerschnittstellen, mit denen sie leicht zu bedienen waren.

Das hat uns schon ziemlich nahe an die Gegenwart geführt, so daß es keinen großen Sinn mehr macht, chronologisch vorzugehen. Ein spannender Aspekt der Geschichte der Computer ist, daß wir an ihr teilhaben. Sie geht noch immer weiter, und bislang kam die Meinungsbildung noch zu keinem Abschluß. Unterbrechen wir kurz und denken wir ein bißchen darüber nach, was Computer, hier und jetzt, eigentlich sind. Worauf beruht die Faszination, die von Computern ausgeht?