Kleine Wellen und Pfützen
Die Robotik wird die Informationsindustrie verdrängen
Der Essay von Hans Moravec wurde mit freundlicher Genehmigung dem Band "Hyperorganismen. Essays, Fotos, Sounds der Ausstellung Wissen" entnommen. Enthalten sind in diesem von Olaf Arndt, Dagmar Wünneberg und Stefanie Peter herausgegebenen "inoffiziellen" Buch zur Themenparkausstellung "Wissen" Dokumente und Theorien über das wahrscheinlich technisch und künstlerisch interessanteste Expo-Projekt: eine Halle, durch die ein Schwarm autonomer vernetzter Roboter, die gleichzeitig als Bühne für Videoprojektionen dienen, herumfährt, die Bewegungen koordinieren und natürlich den Massen von Zuschauern nicht gefährlich werden dürfen.
Hans Moravec geht es allerdings nicht um Roboterschwärme, sondern darum, wann und wie Roboter die kognitive Komplexität erreichen könnten, mit der sie auf einer ähnlichen Ebene wie die Menschen lernfähig werden. Für Moravec wird dies relativ schnell der Fall sein: "Auch unsere Apparate werden exponentiell immer komplexer, aber das geschieht 10 Millionen Mal schneller 8als in der biologischen Evolution): die menschliche Voraussicht und Kultur ermöglichten größere und schnellere Schritte als die blinde darwinistische Evolution. Die Leistungsstärke neuer PCs hat sich seit Mitte der 90er Jahre jährlich verdoppelt. Die Spitzenwerte heutiger PCs entsprechen allerdings nur Milligramm-Nervensystemen, wie bei Insekten oder den kleinsten Wirbeltieren (z. B. der 1 cm großen Zwerggrundel), und von einer menschenähnlichen Leistungsstärke sind wir noch dreißig Jahre entfernt." Aber was sind schon 30 Jahre?
Vor einiger Zeit wurden Computer erfunden, um langwierige manuelle Informationsprozeduren zu mechanisieren. Diese Prozeduren wurden selbst erst während der letzten zehn Jahrtausende erfunden, in denen landwirtschaftliche Zivilisationen aus den dörflichen gesellschaftlichen Instinkten herauswuchsen. Die Instinkte hatten sich bei unseren hominiden Vorfahren während mehrerer Millionen Jahre des Lebens in der Wildnis entwickelt und waren aus perzeptiven und motorischen Mechanismen entstanden, die sich durch Vererbung bei den Wirbeltieren in einer Zeitspanne von Hunderten von Millionen Jahren entwickelt haben.
Die Buchhaltung und aus ihr entstandene Entwicklungen nutzen die Fähigkeiten der Ahnen, mit Objekten umzugehen und Instruktionen zu befolgen. Wir erkennen geschriebene Symbole in der gleichen Weise, wie unsere Vorfahren Beeren und Pilze identifiziert haben; wir gehen mit Bleistiften um, wie sie Jagdstöcke schwangen; und wir lernen, in Einzelschritten zu multiplizieren und integrieren, wie sie für das dörfliche Leben notwendige Prozeduren wie das Kochen und den Zeltbau erworben haben.
Bei der Schreibarbeit werden höher entwickelte Fähigkeiten benutzt, aber in einer unnatürlich engen und keine Fehler duldenden Weise. Wo unsere Vorfahren in komplexen visuellen, taktilen und sozialen Zusammenhängen arbeiteten, wachsam gegenüber fast unmerklichen Gelegenheiten und Bedrohungen, geht ein Buchhalter mit einer Handvoll von einfachen Symbolen auf einem eintönigen Feld um. Und während eine heruntergefallene Beere nur wenig Konsequenzen für den Pflücker hat, kann ein Schreibfehler die ganze Berechnung verfälschen.
Die ständige Wachsamkeit gegenüber ihrer Umwelt, durch die unsere Vorfahren überlebten, ist für einen Buchhalter eine Ablenkung. Die Aufmerksamkeit auf die Struktur des Papiers, auf den Geruch der Tinte, die Form der Symbole, das Sitzgefühl, das Geräusch unten in der Halle, den knurrenden Magen, familiäre Probleme und so weiter zu richten, kann eine Prozedur völlig aus der Bahn werfen. Buchhaltung ist eine schwere Arbeit, und zwar mehr wegen des Übermaßes menschlicher Geistestätigkeit, die dabei unterdrückt werden muss, als wegen des kleinen Bisschens, das sie wirklich benutzt.
Kleine Wellen
Wie kleine Wellen auf der Oberfläche eines tiefen, turbulenten Wasserlochs sind Berechnungen und andere Arten von Prozessdenken nur möglich, wenn die Turbulenz beseitigt ist. Menschen erreichen Ruhe nur unvollkommen durch intensive Konzentration. Viel einfacher ist es, die verdammten Abgründe insgesamt außer acht zu lassen: kleine Wellen sind sicherer in einer flachen Pfanne. Zahlen lassen sich besser mit Rechensteinen oder den Kugeln eines Abakus behandeln als im menschlichen Gedächtnis. Ein paar Zahnräder der Rechenmaschine aus Pascals 17. Jahrhundert können die ganze Prozedur der Addition besser und schneller erledigen als das menschliche Gehirn. Die Analytische Maschine aus Babbages 19. Jahrhundert wäre Dutzenden von menschlichen Computern rechnerisch überlegen gewesen und hätte ihre Fehler eliminiert. Solche Apparate sind effektiv, weil sie die wenigen Oberflächeninformationen, die zur Berechnung verwendet werden, codieren und nicht die Millionen ablenkenden Prozesse, die die Tiefen des menschlichen Gehirns aufwühlen.
Manchmal sind die Tiefenprozesse hilfreich. Wir schätzen Quotientenzahlen mit dem gleichen Gefühl für Proportionen, das unsere Vorfahren vielleicht benutzten, um Lebensmittel auf hungrige Münder zu verteilen. Mechanische Rechner, die nicht schätzen können, mühen sich mit wiederholten Subtraktionen ab. Folgenschwerer ist: Geometrische Beweise werden von unserer tiefen Fähigkeit, Punkte, Linien, Formen und ihre Symmetrien, Ähnlichkeiten und Kongruenzen erkennen zu können, geleitet (und motiviert!). Und wirkliche kreative Arbeit wird eher durch Aufwallungen aus der Tiefe als durch eine offene Prozedur bestimmt.
Rechenmaschinen bereiteten den Weg für Turings universelle Computer und erreichten Tausende, dann Millionen und heute nahezu Billionen von Speicherplätzen und Verarbeitungsschritten pro Sekunde. Dabei sind sie weit über ihre Ursprünge in der Schreibarbeit hinausgegangen und erreichten ihre eigenen trüben Tiefen. So kann zum Beispiel ein Computerprozess ohne große Mühe einen anderen stören, wie ein Buchhalter, der von abschweifenden Gedanken aus der Bahn geworfen wird. Auf der Plusseite funktionieren übermenschlich große Suchaktionen, Tabellenoperationen und ähnliches manchmal wie die menschlichen Tiefenprozesse. Die umfangreichen Berechnungen des Logic Theorist von Newell, Simon und Shaw fanden Beweise wie ein menschlicher Logiknovize. Der Geometry Theorem Prover von Herbert Gelernter benutzt riesige Suchroutinen und die cartesianische Koordinatenarithmetik, um das gleiche Ergebnis zu erzielen wie ein guter menschlicher Geometer durch seine visuellen Intuitionen. Die großen Kompilationen von Interferenzregeln und Forschungen zur Kombinatorik der Expertensysteme entsprechen der menschlichen Erfahrung in nahegelegenen Bereichen. Die gigantischen Such-, Eröffnungs- und Endspielbücher und die sorgfältigen Spielzugberechnungen von Deep Blue konnten einen menschlichen Spitzenschachspieler schlagen.
Trotz dieser einzelnen Erfolge bleiben Computer Flachköpfe. Kein Reasoning-Programm erreicht auch nur annähernd die sensorischen und mentalen Tiefen, die sich normalerweise an der Oberfläche des menschlichen Denkens zeigen. Douglas Lenats CYC, dem menschliches Alltagswissen beigebracht wurde, kann zwar ein umfangreiches verbales Wissen aufnehmen, aber es fehlt weiterhin an visuellem, auditivem, taktilem und abstraktem Verständnis( Ein künstliches Bewusstsein aus einfachen Aussagen).
Viele Kritiker stellen die Überlegenheit des Computers beim Auswendiglernen ihren eigenen Verständnisschwierigkeiten gegenüber, um daraus zu folgern, dass Computer zwar unheimlich leistungskräftig seien, dass aber der Computerrechnerei im allgemeinen eine Art menschliches, geistiges Prinzip fehle (das je nach Geschmack physikalisch, situativ oder übernatürlich ist). Einige Praktiker der Künstlichen Intelligenz haben eine ähnliche Sichtweise: Die Computer-Hardware ist ausreichend, aber schwierige. ungelöste konzeptionelle oder begriffliche Probleme hindern uns daran, echte Intelligenz zu programmieren.
Die letztere Prämisse mag für das Reasoning plausibel erscheinen, aber sie ist absurd für das Fühlen. Die Geräusche und Bilder, die von menschlichen Augen und Ohren verarbeitet werden, entsprechen Megabytes pro Sekunde an Rohdaten, was an sich schon genug ist, um die vergangenen und gegenwärtigen Fähigkeiten von Computern zu übersteigen. Text-, Sprach- und Graphikprogramme leiten die Bedeutung aus Bruchstücken von solchen Daten ab, indem sie Tausende oder Millionen Hypothesen gegeneinander abwägen.
Zumindest ein Teil des menschlichen Gehirns arbeitet ähnlich. Jedes einzelne Pixel von den Millionen vorhandenen Pixeln der Netzhaut wird etwa zehn Mal pro Sekunde überprüft, Dutzende von Neuronen erwägen die Hypothese, ob eine statische oder sich bewegende Grenze hier oder da sichtbar ist. Die zehn Billionen Neuronen der Sehrinde verarbeiten diese Ergebnisse weiter, wobei in jedem Moment mögliche Ausrichtungen und Farben für alle Bildpositionen eingeschätzt werden. Taugliche Computer-Sehprogramme brauchen jeweils 100 Berechnungen, um zu ähnlichen Einschätzungen zu kommen. Der größte Teil des Gehirns bleibt geheimnisvoll, aber all seine Neuronen scheinen ebenso fleißig zu arbeiten wie die des Sehsystems. Ich habe bereits an anderer Stelle die Berechnungen der Netzhaut im einzelnen beschrieben und bin zu der Schlussfolgerung gekommen, dass etwa 100 Trillionen Berechnungen pro Sekunde im Computer nötig wären (gegenwärtig schaffen die PCs nur etwa eine Million), um der Funktionalität des Gehirns zu entsprechen.
Diese Zahl setzt eine Emulation des Gehirns auf der Ebene von großen Bilddetektoren voraus: einige Hunderttausend Berechnungen pro Sekunde erledigen die Arbeit von ein paar Hundert Neuronen. Die Anforderungen an die Computerberechnung aber steigen (vielleicht sogar sehr stark), wenn wir eine feinkörnigere Emulation verlangen würden, wie zum Beispiel die Darstellung jedes einzelnen Neurons. Durch das Beharren auf einer feineren Körnung schränken wir den Auflösungsraum ein und verbieten allgemeine Optimierungen. Auf der Plusseite gilt: durch die Einschränkung des Raumes vereinfachen wir die Suche! Dann gäbe es keinen Bedarf dafür, effektive Algorithmen für die Kantendetektion (edge detection) und für weitere Hundert neuronengroße Nervensystemfunktionen zu suchen. Wenn wir gute Modelle von Neuronen und einen Schaltplan des Gehirns hätten, könnten wir es als eine einfache Netzsimulation emulieren. Die Probleme der Künstlichen Intelligenz würden sich auf schlichte instrumentelle Berechnungen reduzieren.
Alternativ könnten wir versuchen, die Funktion des Gehirns in einer viel größeren als der Kantendetektions-Körnung zu implementieren. Der Auflösungsraum wird größer und damit die Schwierigkeit, global effiziente Algorithmen zu finden, aber ihre Berechnungsanforderungen werden geringer. Vielleicht sind Programme, die eine menschenähnliche Intelligenz in einer höchst abstrakten Weise implementieren, auf vorhandenen Computern so möglich, wie die KI-Traditionalisten sich das vorstellen. Vielleicht wird die Schaffung solcher Programme, wie sie sich ebenfalls vorstellen, mehrere Lebenszeiten Arbeit von den Weltklasse-Genies erfordern.
Aber vielleicht ist das doch nicht so einfach. Die effektivsten Programme, die menschliche Intelligenz aufweisen, könnten über die Leistungsstärke und den Arbeitsspeicher von vorhandenen PCs um ein Vielfaches hinausgehen, und ihre Schaffung könnte eine übermenschliche Schwierigkeit sein. Wir wissen es nicht: unter den Wellen ist der Pool äußerst trübe, und er ist noch nicht ausgelotet worden.
Sehr leistungsfähige Optimierungs-Compiler könnten möglicherweise die Körnungsgrößen vernachlässigen, indem sie Gehirn-Simulationsprogramme, die auf Neuronen-Ebene arbeiten, in einen super-effizienten Code verwandeln, der das Input-Output-Verhalten beibehält, aber traditionellen KI-Programmen ähnelt. Solche Programme würden sicherlich übermenschliche Geisteskraft benötigen (allerdings würden sie das KI-Problem letztlich mit einer Hand erledigen), aber vielleicht von einer relativ einfachen, idiotisch-gelehrten Art.
Pfützen
Jeder Versuch, die menschliche Leistungsfähigkeit nachzubilden ist intellektuell interessant und hat unmittelbar pragmatische Vorteile. Reasoning-Programme überbieten Menschen bei wichtigen Aufgaben, und viele zahlen sich bereits aus. Neuronales Modelling ist von großem biologischen Interesse und könnte medizinischen Nutzen haben. Auch effiziente Wahrnehmungs-Programme (perception programs) sind für Biologen interessant und nützlich bei der Automatisierung von Fabrikationsprozessen und der Dateneingabe.
Aber welche Methode wird zuerst erfolgreich sein? Die Antwort ist sicherlich eine Kombination von all diesen Techniken und anderen, aber ich glaube, dass der Weg über die Wahrnehmung, gegenwärtig ein wenig im Hintertreffen, die wichtigste Rolle spielen wird.
Reasoning-Programme sind ausgezeichnet geeignet für bewusst erklärbare Aufgaben, werden aber untauglich, wenn sie bei tieferen Prozessen angewandt werden. Zum Teil liegt das einfach daran, dass tief im Unterbewussten ablaufende Aufgaben sich der Beobachtung entziehen. Aber auch daran, dass die tieferen Prozesse qualitativ anders sind. Ein paar Bits der Problemdaten kräuseln die Oberfläche des Bewusstseins, aber Billionen von geräuschvoll tätigen Nervensignalen toben unten herum.
Reasoning-Programme werden in den kommenden Jahrzehnten leistungsstärker und nützlicher werden, aber ich glaube, ein umfassender und buchstäblich gesunder Menschenverstand, ganz abgesehen vom sensorischen Verstehen, wird sich ihnen weiterhin entziehen. Ganze animalische Nervensysteme, hormonale Signale und die Plastizität von Zusammenschaltungen mögen in den nächsten Jahrzehnten simulierbar werden, da die Bildbearbeitungsinstrumente und die Rechenkapazitäten schnell immer besser werden. Solche Simulationen werden das neurobiologische Verstehen sehr beschleunigen, aber ich glaube, nicht schnell genug, um das Rennen zu gewinnen.
Braitenberg, der kleine Nervensysteme analysiert und künstliche entworfen hat, notiert die Regel der "Bergab-Synthese und der Bergauf-Synthese" - es ist normalerweise einfacher, einen Kreislauf mit bestimmten Verhaltenweisen zu herzustellen, als zu beschreiben, wie ein vorhandener Kreislauf dahin gelangt, sie zu erreichen. Ein schwaches Verständnis und somit schwache Mittel zur Veränderung von Entwürfen, die Kosten für Simulationen in ganz feinem Maßstab und ethische Hürden (da die Simulationen sich dem Menschlichen annähern) werden die Anwendungen von neuronalen Simulationen verlangsamen. Aber zukünftige AIBOs (Roboter-Hunde von Sony) sollten sehr interessant sein!
Keine menschenähnliche Intelligenz wurde (soweit wir wissen) jemals durch bewusste Argumentation oder durch die Simulation von neuronalen Prozessen geschaffen, und wir wissen absolut nicht, wie schwierig das sein mag. Aber der dritte Ansatz bewegt sich auf vertrautem Gelände.
Mehrzellige Tiere mit speziellen Zellen zum Aussenden von Signalen tauchten im Kambrium vor einer halben Billion Jahren auf. In einem Spiel, in dem es darum ging, den anderen immer um eine Nasenlänge voraus zu sein (es gibt immer noch Platz an der Spitze!) hat sich das Maximum der Nervensystemmasse alle 15 Millionen Jahre verdoppelt, von Bruchteilen von Mikrogrammen bis zu heute mehreren Kilogramm (mit mehreren abrupten Rückbildungen, auf die häufig, wenn zum Beispiel die größten Tiere durch Katastrophen ausgerottet wurden, eine beschleunigte Neuentwicklung folgte).
Auch unsere Apparate werden exponentiell immer komplexer, aber das geschieht 10 Millionen Mal schneller: die menschliche Voraussicht und Kultur ermöglicht größere und schnellere Schritte als die blinde darwinistische Evolution. Die Leistungsstärke neuer PCs hat sich seit Mitte der 90er Jahre jährlich verdoppelt. Die Spitzenwerte heutiger PCs entsprechen allerdings nur Milligramm-Nervensystemen, wie bei Insekten oder den kleinsten Wirbeltieren (z. B. der 1 cm großen Zwerggrundel), und von einer menschenähnlichen Leistungsstärke sind wir noch dreißig Jahre entfernt.
Eine ausreichend konsequente Entwicklung mit wohlerwogenen Auswahlkriterien sollte in der Lage sein, diese zunehmende Leistungsstärke immer mehr in Stadien zu schaffen, die analog zu denen der mentalen Evolution der Wirbeltiere sind. Ich glaube, eine bestimmte Art von Roboter-Industrie wird das ganz von selbst machen. Dazu sollten keine großen intellektuellen Sprünge nötig sein: Wenn es an Einsicht fehlt, wird das darwinistische trial and error genügen - jeder Vorfahre in der Abstammungslinie von den winzigkleinen ersten Wirbeltieren bis hin zu uns wurde zu einem solchen Vorfahren, indem er zu seiner Zeit zu einem Überlebenden wurde, und ein ähnlich vorgehender kommerzieller Überlebenswille wird die Zwischenstufen der Roboterintelligenzen selektieren.
Intelligente Maschinen in dieser Weise zu schaffen, ist so etwas wie das langsame Auffüllen von Pfützen, um Swimmingpools zu schaffen. Die vorhandenen Roboterkontroll- und -Wahrnehmungsprogramme scheinen trübe Pfützen zu sein, da sie sich in Bereichen der untersten menschlichen und animalischen Kenntnisse bewegen. Reasoning-Programme, die zwar ziemlich flach sind, glänzen aber dadurch, dass sie Aufgaben erledigen, die Menschen nur unbeholfen und Tiere überhaupt nicht ausführen können. Aber wenn wir weiterhin gießen, werden die Pfützen sicherlich tiefer werden. Das mag allerdings nicht für Reasoning-Programme gelten: Können Pools mit der Oberfläche nach unten gefüllt werden?
Viele unserer sensorischen, räumlichen und intellektuellen Fähigkeiten wurden entwickelt, um einer mobilen Lebensweise gerecht zu werden: ein sich bewegendes Tier ist mit einem unerbittlichen Strom von neuen Gegebenheiten und Gefahren konfrontiert. Weitere Fähigkeiten tauchen auf, um den Herausforderungen der Kooperation und des Wettbewerbs in gesellschaftlichen Gruppen gerecht zu werden. An anderer Stelle habe ich einen Plan für die kommerzielle Roboterentwicklung skizziert, der ähnliche Herausforderungen enthält. Es wird eine große, energische Industrie benötigt, um nach vergleichbaren Lösungen zu suchen.
Heute ist diese Industrie winzig. Die am meisten entwickelten Roboter haben eine insektenartige Mentalität und machen menschliche Arbeit nur in wenigen Fällen besser, bei außergewöhnlich repetitiver oder gefährlicher Arbeit. Aber ich erwarte, dass es noch in diesem Jahrzehnt zu einem Massenmarkt kommt. Die ersten, in großem Maßstab einsetzbaren Produkte werden Leitsysteme für den industriellen Transport und Räummaschinen sein, die in dreidimensionaler Weise unbekannte Räume kartographieren und kompetent durchmessen und denen ganz normale Arbeiter schnell neue Routen beibringen können. Ich habe Programme dafür entwickelt. Sie brauchen etwa eine Milliarde Berechnungen pro Sekunde, was der Geisteskraft eines Guppys entspricht!
Auf die Industriemaschinen werden massenhaft vermarktete Heimroboter folgen. Der erste könnte ein kleiner, sehr autonomer Staubsaugerroboter sein, der eine Wohnung kartographiert, seine eigenen Routen und Zeitpläne plant, sich selbst wartet und, wenn es notwendig ist, seinen Staubsaugerbeutel in einen großen Container ausleert. Größere Maschinen mit gesteuerten Armen und Händen und der Fähigkeit, mehrere verschiedene Aufgaben zu erledigen, mögen folgen und eventuell zu menschenartigen "Universal"-Robotern führen, die Anwendungsprogramme für die einfachsten Routinearbeiten ausführen können. Ihre zu 10 Milliarden Berechnungen pro Sekunde fähigen, eidechsenartigen Gehirne könnten Anwendungsprogramme mit der Unflexibilität von Reptilien ausführen.
Für diesen immer größer werdenden, reaktiven, opportunistischen und von den Marktgesetzen abhängigen Weg zu maschineller Intelligenz braucht man keine umfangreiche Karte zu erstellen, sondern es gibt bereits eine in Gestalt unserer eigenen Evolution. In den Jahrzehnten, die auf die ersten universellen Roboter folgen, erwarte ich eine zweite Generation mit einer den Säugetieren entsprechenden Geisteskraft und Erkenntnisfähigkeit. Sie werden einen konditionierten Lernmechanismus haben und zwischen alternativen Wegen ihrer Anwendungsprogramme auf der Grundlage früherer Erfahrungen wählen, die sie den speziellen Umständen graduell anpassen.
Eine dritte Generation wird denken wie kleine Primaten und physikalische, kulturelle und psychologische Modelle ihrer Welt enthalten und warten, um Aufgaben mental auszuprobieren und zu optimieren, bevor sie physisch umgesetzt werden. Eine vierte menschenähnliche Generation wird aus dem Weltmodell abstrahieren und Schlüsse ziehen. Ich erwarte, dass die Reasoning-Systeme vom traditionellen KI-Ansatz, den ich weiter oben kritisiert habe, übernommen werden. Die Pfützen werden die Wellen an der Oberfläche erreichen.
Die Robotik sollte die größte Industrie auf der Erde werden, die bei dieser Evolution noch in den Kinderschuhen steckt, und die Informationsindustrie verdrängen. Letztere erreichte ihren übertriebenen Status dadurch, dass sie marginale Aufgaben automatisierte, die wir Schreibarbeit oder Papierkram nennen. Die Robotik wird auch alles andere automatisieren!
Übersetzt von Ronald Voullié