Mora-Witz - oder warum Roboter Spaß verstehen sollten.

Über die Grundprobleme der modernen Robotik.

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Roboter-Visionen

Der berühmte Roboter HAL aus dem Film "2001: A Space Odyssey" nach dem Roman von Arthur C. Clarke hat zu einer Mystifizierung von Robotern geführt. Es gibt zwei Möglichkeiten einen Roboter, den wir nicht determinieren können, einzustufen: als einen gefährlichen Roboter, da er nicht berechenbar ist, oder als kreativen Robot, da er Neues erzeugt.

Ein wichtiges Problem bei der Robotik ist: Was passiert, wenn ein Roboter sich selbst als menschliches Wesen bezeichnet? Oder würde ein neuartiges Wesen mit Bewußtsein dies ablehnen, wie der Vulkanier Mr. Spock im Raumschiff Enterprise:

Mr. Spock: Ich bin kein Mensch.
Kaptain Kirk: Wir sind doch alle Menschen.
Mr. Spock: Ich finde diese Aussage beleidigend.

Die Frage, ob Roboter die Menschen in ihrer Evolution übertrumpfen und eine neue Dimension im Cyberspace eröffnen, wird für die Gehirn- und Simulationsforschung entscheidend werden. Die notwendigen Bedingungen, daß höhere Entwicklungsstufen der Evolution niedrigere nicht vernichten, sind: a) der Mensch und ein dem Menschen überlegener Roboter dürfen sich nicht in unterschiedlichen ökologischen Nischen befinden und b) Roboter dürfen nicht über Vernunft verfügen.

Roboter, die nicht über die Fähigkeit zur Vernunft verfügen, haben ein anderes Interface als der Mensch, das nach menschlichen Maßstäben nicht als intelligent eingestuft werden kann. Da Denken immer auch mit Gefühlen verbunden ist, stellt sich die Frage, ob Roboter ohne Gefühle jemals denken können? Und wenn Roboter Gefühle benötigen, um intelligentes Verhalten zu zeigen, so müssen wir nicht nur das Denken in Computern "simulieren", sondern auch die Gefühle.

Die Visionen von Hans Moravec

Hans Moravec in Telepolis: Die Wirklichkeit ist ein Konstrukt und Die Evolution postbiologischen Lebens.
Hans Moravecs Homepage.

Hans Moravec

Laut Moravec würden wir an einen Punkt gelangen, an dem die menschliche Evolution stehenbleibt, wenn wir uns mit den Beschränkungen der genetischen Hardware zufriedengeben, wie z.B. daß wir einen menschlichen Körper brauchen und daß wir altern. Im Science Fiction-Film Saturn City befinden sich Gehirne von Menschen in Notebooks. Wenn es nach Moravec ginge, brauchen wir bald unseren Körper nicht mehr. Deshalb ist ihm zufolge die entscheidende Weiterentwicklung, die Aktivitäten des menschlichen Gehirns als Software zu programmieren, d.h. unseren Verstand aus dem Gehirn herauszuholen, diesen in einem Computer unterzubringen und ihn somit unsterblich zu machen.

Doch was passiert mit dem physischen Gehirn, wenn dessen Zustände von diesem auf den Computer übertragen wurden? Wenn die Zustände lediglich kopiert würden, so hätten wir nach Ablauf einer Korrelationszeit zwei unterschiedliche Bewußtseinszustände: den der Kopie im Rechner und den des Gehirns im Körper. Wird der Körper während der Übertragung zerstört werden müssen oder wird dieser lediglich in eine Ruheposition versetzt, bis die Gehirnzustände wieder rückübertragen werden. Ist die Bildungsreise der Zukunft ein temporäres Verlassen des Körpers, um als virtuelles Gehirn in den Netzen seine Fähigkeiten zu erweitern und dann mit neuem Wissen in den alten Körper zurückzukehren?

Das grundlegende Problem bei Hans Moravec ist, daß er wesentliche Eigenschaften des Menschen wie Liebe, Freundschaft oder Emotionen für falsche Verschaltungen des Gehirns hält. Herbert Scheingraber, hält das Gehirn von Moravec auf 2 GByte komprimierbar, da dieser alle wesentlichen menschlichen Eigenschaften, wie z.B. Liebe, Freundschaft oder Emotionen für Randerscheinungen hält. Der durch Kompressions-Algorithmen abgespeckte Mensch würde somit nur einen geringen Speicherbedarf brauchen, um entsprechend codiert und decodiert zu werden.

Cog vom MIT Media Lab

Ich glaube, daß uns alle Unsterblichkeit nichts nützt, wenn wir nicht mehr zur Liebe fähig sind. Die Annahme von Moravec und Minsky, Gefühle für den Roboter abzuschaffen, ist ein sehr gefährliches Unterfangen, das dem menschlichen Holocaust durch fehlprogrammierte Roboter die Grundlage liefern kann. Auch ist es nicht so, daß der Geist, wie Moravec behauptet, keinen Körper benötigt, denn der Computer ist letztlich der Ersatzkörper für den virtuellen Geist.

Moravec vergißt auch die die Bedeutung des Schlafens und des Träumens für den Menschen. Natürlich gibt es dieses Problem nach Moravec nicht, da sein Roboter über eine ständige Energieversorgung verfügt und ihm zufolge das Schlafen eines Computers dem Betätigen des Ausschalters entsprechen würde. Hier besteht jedoch ein qualitativ wichtiger Unterschied. Während ein Roboter, der ausgeschaltet ist, nicht denkt, finden beim Menschen Denkprozesse im Unterbewußtsein statt. Der Schlafzustand ist für höhere Lebewesen auf diesem Planeten eine elementare Grundlage. Warum sollte ein Roboter darauf verzichten können? Moravecs Vorstellung, daß der Körper kein Denken erklären kann, bedeutet nicht, daß wir ihn nicht benötigen, da er die Energieversorgung des Gehirns und unseren Schlafrhythmus steuert.

Schlafen und Träumen

Deshalb möchte ich das 1. Grundproblem, vor dem der Roboterbau steht, folgendermaßen definieren: Wie kann ein Computer-Gehirn einschlafen, ohne ausgeschaltet zu sein?

Nur wer die Müdigkeit des Tages spürt, sei es durch geistige oder körperliche Tätigkeiten, kann sein Gehirn entleeren und dadurch neue Schöpfungskraft entfalten. Ein Computer ohne Erfahrung der Entleerung und Müdigkeit wird nie zu solchen kreativen Leistungen fähig sein, wie der Mensch sie hervorbringt.

Dieses "Schlafproblem" möchte ich das "1. Grundproblem der kreativen Robotik" nennen. Es ist der Zustand der Müdigkeit, der uns in den Schlaf versetzt und uns Träume ermöglicht. Was beim Roboter also fehlt, ist die virtuelle Komponente , die ihn zum Träumen bringt. Roboter können nur dann träumen, wenn sie in der Lage sind, durch ihre Software eigene virtuelle Endo-Welten zu konstruieren, die ihnen eine Reflexion ihres Handelns auf einer Metaebene ermöglichen. Erst wenn es uns gelingt, Roboter mit Selbstbewußtsein auszustatten, kann gesagt werden, daß das entscheidende Ereignis des 20. Jahrhunderts die Erfindung des Simulators - des virtuellen Interfaces - war.

Das Halteproblem

Ein wichtiges Problem bei der Datenverarbeitung ist das bereits zuvor erwähnte Halteproblem. Wer garantiert, daß der Algorithmus von Moravec nicht in eine Endlosschleife übergeht und seine Software jemals wieder irgendwelche Aussagen liefert, nachdem er sich vom Menschen zum Bit-Haufen transformiert hat? Das Halteproblem nenne ich das 2. Grundproblem der kreativen Robotik. Im Gegensatz zum menschlichen Gehirn können elektronische Gedächtnisse ultimativ gelöscht werden, was den Vorteil hat, daß das Entlernen für Computer wesentlich einfacher zu handhaben ist. Eine Transformation unseres Geistes in einen Rechner, würde jedoch zahlreiche Paradoxien hervorrufen, so z.B. wenn eine Kopie von mir selbst versucht, mein Original zu töten oder wenn bei einer Verlagerung einer Identität an einen anderen Ort die ursprüngliche Identität zerstört werden müßte.

Virtueller Tod

Wenn Daten von Menschen in Computernetzen gespeichert werden, so tritt auch das Problem des virtuellen Todes durch Computerviren auf. Da solche Viren die Daten zerstören, kommt es darauf an, ein Immunsystem für Computer aufzubauen, das eine Ausbreitung der Viren durch Früherkennung und Gegenprogramme verhindert. Das Delete-Problem der Computer nenne ich das 3. Grundproblem der kreativen Robotik. Ein Schutz vor der Löschung der Daten könnte darin bestehen, daß die virtuellen Identitäten von Personen in unterschiedliche Cyberwelten übertragen werden, was jedoch sehr wahrscheinlich bei Verbindung dieser Welten zu Paradoxien führt.

Identitätsprobleme

Ed Fredkins Idee der sogenannten "Heaven-Machine" soll hier nicht unerwähnt bleiben: Wenn eine exakte Kopie der Zustände des menschlichen Gehirns in eine gigantische Computersimulation geladen wird und gleichzeitig das ursprüngliche Gehirn zerstört würde, dann wäre das endliche physische Leben des Menschen vorbei und das unendliche virtuelle Leben in der Maschine könnte beginnen (deshalb "Heaven-Machine"). Es scheint so, als ob Moravec diese Idee aufgegriffen hat, als er davon sprach, daß er sein Gehirn gerne auf eine Software-Diskette spielen würde. Wenn es, wie Moravec prophezeit, gelingt, das menschliche Gehirn auf ein Notebook zu bringen, so sollte es auch möglich sein, unterschiedliche Gehirne miteinander zu koppeln.

So lange man dies mit unterscheidbaren Gehirnen macht, sollten sich die Paradoxien in Grenzen halten, dies dürfte jedoch nicht der Fall sein, wenn man identische Gehirne miteinander koppelt. Diese Probleme ließen sich nur dann vermeiden, wenn jedes einzelne Gehirn seine Identität aufgäbe und sich voll in den Dienst eines Metahirns stellen würde, ähnlich den parallelen Prozessoren der Connection Machine. Diese Ausführungen führen mich zum Identitätsproblem, welches ich als das 4. Problem der kreativen Robotik bezeichne.

Das Differenzproblem

Eine weitere wichtige Eigenschaft des Menschen, die aus den obigen Ausführungen folgt, ist das Erzeugen von Spannungen und Differenzen über unsere Interfaces, d.h. das Erzeugen neuer Bedeutungen. Differenzen sind stets notwendig für die Entwicklung komplexer Interfaces. Das 5. Problem der kreativen Robotik möchte ich deshalb als Differenzproblem bezeichnen.

Auch stellt sich die Frage, ob zwei identische intelligente Kopien, die sich unterschiedlich entwickeln, nicht eigentlich zwei Identitäten repräsentieren? Ist nicht jede Kopie einer intelligenten Spezies bereits eine Bifurkation, bei der jede Alternative ihre eigenen Wege gehen kann? Hat somit jede Kopie einen durch die Strukturen vorbestimmten Phasenraum, wobei jedoch der Verlauf der Trajektoren völlig unterschiedlich sein kann? Eine weitere spannende Frage ist die Sicherung der Daten. Da wir vor dem Löschen in Datennetzen nicht sicher sind, müßte von jeder Identität ein tägliches Backup gemacht werden, um deren Existenz sicherzustellen. Ich möchte hier keine Antworten geben, sondern zur Diskussion über die Probleme anregen, da diese für die Sinnfindung sozialer Interfaces von fundamentaler Bedeutung sein werden.

Baudrillard behauptet ähnlich wie Moravec, daß es zukünftig nicht einmal mehr darum geht, einen eigenen Körper zu haben, sondern an einen Körper angeschlossen ("connected") zu sein. Sollten wir jedoch unseren eigenen Körper nicht mehr brauchen, so könnten zukünftig andere Menschen unseren ungenutzten Körper gebrauchen. Ja, wir könnten in beliebige Körper schlüpfen, einen Roboter-Körper, einen Cyborg-Körper oder einen menschlichen Körper unserer Wahl. Wenn viele Hirne in Form von Software oder Hardware-Chips gespeichert werden, so könnten bei entsprechender Verschaltung Teile unseres eigenen Verstandes von anderen Hirnen genutzt werden. Das Einzige, was hierzu benötigt wird, wäre die entsprechende Zuweisungsbedingung für die Fremdnutzung. Doch bin ich dann noch ich, wenn ich andere Gehirne für meine Denkprozesse nutze?

Wenn die Prozesse eines menschlichen Gehirns in beliebige Cyber-Welten integriert werden können, dann würden in diesen Welten unterschiedliche Gehirne zu neuartigen Interfaces verschmelzen. Muß die Interpretation des Satzes von Descartes: "Ich denke, also bin ich" umgeschrieben werden in den Satz: "Ich denke, also bin ich wir" oder in der allgemeineren Form: "Wir denken, also sind wir"? Ich denke, daß dies keinen Sinn macht und daß wir uns mit einer makroskopischen Unschärfe durch die Robotik abfinden sollten, die darin besteht, daß das Ich nicht gleichzeitig Ich und Wir sein sollte. Selbst wenn eine Verschaltung einer Vielzahl von Gehirnen gelänge, würde dies zu einer Vielzahl von Paradoxien führen, die eine zielgerichtete Entscheidungsfindung nahezu unmöglich machen.

Daß virtuelle Gehirne durch Synthese ein neues, leistungsfähigeres Gehirn bilden können, sei es durch die Verschmelzung eigener Kopien oder von unterschiedliche Identitäten, möchte ich jedoch bezweifeln, da das Gehirn zu komplex ist, um es ohne Wissen um die Folgewirkungen einfach mit einem anderen Gehirn zu vereinen.

Roboter-Evolution

Cog vom MIT Media Lab

Während sich das Gehirn des Menschen evolutionär entwickelt hat, können Robotergehirne virtuell codiert und simuliert werden. Da diese Entwicklungen viel schneller als die menschliche Evolution ablaufen können, wird dies Konsequenzen für die Menschheit als Ganzes haben. Mit den virtuellen Gehirnen erwächst dem Menschen ein neuer Wettbewerber, eine neue Art, die theoretisch eine höhere Intelligenz als der Mensch entwickeln kann.

Findet durch die modernen zukünftigen Technologien ein Artenwettbewerb um die Herrschaft des Planeten zwischen Menschen, Maschinen oder Mischformen von beiden statt? Oder gibt es eine friedliche Koexistenz und Koevolution unterschiedlicher natürlicher, künstlicher oder sogar virtueller Lebensformen?

Der androide Roboter von Rodney A. Brooks mit dem Namen Cog ist sicherlich erst der Anfang einer Entwicklung, die das Ziel verfolgt, gute und funktionstüchtige Maschinen zu bauen, die lernfähig sind. Die Verschmelzung von Mensch und Maschine wird neuartige Geschöpfe hervorbringen, die die Evolutionslinie der Arten bis zum Menschen, um die Art des Roboters, des Cyborgs, des Androids, des Computator Sapiens, des Endolids und des Bioids erweitert:

  1. Roboter: Autonome Maschine, die den Menschen von Routinetätigkeiten entlastet.
  2. Android: Menschenähnlicher Roboter ohne Denkvermögen.
  3. Computator Sapiens: Roboter oder Computer mit Denkvermögen.
  4. Cyborg: Roboterähnlicher Mensch.
  5. Endolid: Virtuelles, seiner selbst bewußtes Wesen in einer simulierten Endo-Welt.
  6. Bioid: Gentechnisch erzeugtes Lebewesen auf höherer Entwicklungsstufe als der Mensch.
  7. Klon: Eineiiger Zwilling des Menschen oder eines Bioids.

Endolid, Cyborg und Android basieren auf der Idee, daß Körper und Geist getrennt werden können - anders als Bioid und Klon, die rein genetisch erzeugt würden. Alle neuen Formen werden jedoch wie der Mensch Differenzen erzeugen, die neue Differenzen hervorrufen. Damit treten diese als Mitspieler in den evolutionären Kreislauf ein und werden als Teilnehmer neue Strukturen maßgeblich beeinflussen. Als Teilnehmer nehmen sie Managementfunktionen wahr und bringen Organisationen hervor, die komplexer und integrierter sind als das, was wir uns gegenwärtig vorstellen können. Da jedoch künstlich erzeugte Spezies keine Vorfahren haben, wissen wir nicht, wie sie sich gegenüber dem Menschen verhalten.

Am Gehirn scheiden sich Mensch und Roboter. Während der Cyborg ein roboterähnliches Wesen mit einem menschlichen Gehirn darstellt, ist der Android ein menschenähnliches Wesen mit einem Robotergehirn (einem hochentwickelten Computer). Es ist sicherlich paradox, daß der Android, obwohl der Cyborg dem Menschen wesensverwandter wäre, wegen seiner äußeren Ähnlichkeit zum Menschen auf eine größere Akzeptanz stoßen würde. Auch hier stellt sich das Problem der Unterscheidbarkeit, denn wie finde ich heraus, ob es sich um einen Menschen oder einen Cyborg oder Androiden handelt? Können wir uns vorstellen von Robotern regiert zu werden, wie in einer von Asimovs Robotergeschichten bei der der Präsident durch einen perfekten Roboter ersetzt wird? Auf jeden Fall müßte ein solcher Roboter Humor besitzen.

Wenn eine Maschine wie ein Mensch wahrnehmen und denken kann, ist die Frage, ob diese Verstand hat, müßig; wenn sich eine Maschine selbst reproduzieren und reparieren kann, ist auch die Frage müßig, ob die Maschine lebt. Wir werden deshalb nicht umhin kommen, uns im Rahmen der weiteren Evolution die Fragen zu stellen, ob wir solche Maschinen aus ethischen Gründen überhaupt wollen und wie wir diese gegebenenfalls in unsere kulturelle Entwicklung integrieren sollen. Ist der intelligente Manager der Zukunft immer noch der Mensch oder ein Roboter, ein Endolid, ein Cyborg, ein Android oder ein Bioid? Diese Frage wird angesichts der sich abzeichnenden Entwicklungen immer spannender.

Da der Bioid eine gegenüber dem Menschen neuartige Codierung besitzen würde und darüber hinaus mit diesem verwandt wäre, könnte dieser für den Menschen gefährlich werden. Klone von Menschen und Bioiden sind ebenso als gefährlich einzustufen, da diese zur beliebigen Duplizierung mißbraucht werden können. Das Universum eines Endolids besteht vollständig aus Menschen und Gegenständen, die er nur virtuell kennt und die er nie physisch kennenlernen wird.

Der Endolid ist solange ungefährlich, wie er von der nächst höheren Exo-Welt aus abgeschaltet werden kann. Sollten sich jedoch die Computer derart verselbständigen und eine solche Macht über das Konkrete erlangen, daß Simulationen nicht mehr abgeschaltet werden können, wird es für den Menschen jedoch gefährlich. Wir sollten bei allen neuen Technologien, vor allem jedoch bei den Bio- und Gentechnologien, immer die Konsequenzen unseres Handelns kritisch prüfen, um nicht die Existenz unser eigenen Spezies zu gefährden. Von den vorgestellten zukünftigen Arten eignet sich vor allem der Cyborg dafür, menschliche Fähigkeiten weiterzuentwickeln und unkontrollierte Phasenübergänge von Maschinen zu verhindern. Eine andere Spezies als der Cyborg oder der Endolid könnte allzu unmenschlich werden und dies im wahrsten Sinne des Wortes.

Mit dem Cyborg, einem Mensch-Maschine-System, das jedoch nicht mehr als Mensch bezeichnet werden kann, könnte der Übergang von einer evolutionären Art zu einer anderen vollzogen werden. Als Fiktion könnte hierbei ein Phasenübergang vom Ich-orientierten sterblichen Menschen zum Ich-orientierten unsterblichen Cyborg stattfinden. Ob der Cyborg auch zu einem "Multi-Ich-orientierten" Wesen avanciert, der im Sinne von Moravec zur Bewußtseinsübernahme eines anderen Cyborgs fähig ist oder auf mehrere Bewußtseine gleichzeitig zugreift, ist mehr als fraglich, da hier die Frage: "Bin ich Wir?" des Cyborg für diesen zu unauflöslichen Paradoxien oder Schizophrenien führen würde. Eine permanente operationale Offenheit bedeutet, dem Ich seine Grundlage zu entziehen. Das Ich mag zwar eine Illusion sein, doch ist es eine hartnäckige.

Wenn wir von unserem christlichen Gott (Exo-Welt) erwarten, daß wir frei geschaffen sind, so sollten die mit Bewußtsein ausgestatteten Teilnehmer einer von uns geschaffenen Endo-Welt, diese Freiheit ebenso von uns erwarten, wenn es eine Schöpfer-Geschöpf-Beziehung geben soll. Da der Mensch den virtuellen Welten jedoch nicht die Freiheit geben darf, ihn selbst zu zerstören, kann keine Schöpfer-Geschöpf-Beziehung, sondern nur eine Mutter-Kind-Beziehung zwischen virtuellen Exo- und Endo-Welten auftreten. Aufgabe eines Exo-Beobachters (z.B. einer Mutter) ist es jedoch, die Existenz des Endo-Wesens (z.B. eines Kindes) zu schützen und die Macht nicht zu mißbrauchen. Die Endo-Regel Nr. 1, daß die Teilnehmer sich nicht gegen ihren Konstrukteur auflehnen dürfen, verhindert, daß wir uns als Schöpfer sehen können. Dies hat zur Konsequenz, daß kein Mensch in eine gottähnliche Beziehung zu Teilnehmern treten kann.

Artur P. Schmidt
Homepage