Die Paranoide Maschine

Alternativen zur Turingmaschine

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Vor 70 Jahren (1935) begann Alan Turing sein Studium der mathematischen Logik und formulierte die ersten Ansätze einer Theorie, die als "Turingmaschine" bis zum heutigen Tage zur Grundlage unserer Computer werden sollte. Turing verglich seine universelle Rechenmaschine mit einem Menschen, der eine Zahl berechnet und schränkte ihre prinzipielle Anwendbarkeit auf Probleme ein, die von einem "Büroangestellten, der nach festen Regeln und ohne Verständnis arbeitet", lösbar sind.

Diese Einschränkung konnte jedoch nicht verhindern, dass Computerwissenschaftler alsbald ein intelligenzbegabtes Elektronengehirn versprachen, welches das gesamte Spektrum menschlichen Denkens simulieren und damit letztlich den Menschen selbst ersetzen könne (Marvin Minsky, Hans Moravec, Ray Kurzweil, Bill Joy u.v.a.).

Nach über 70 Jahren Computerforschung und rund 50 Jahren vergeblicher Bemühung um "künstliche Intelligenz" stellt sich jedoch immer noch die Frage, warum die Turingmaschine weder lern- und anpassungsfähig noch zur Kartierung und Simulation komplexer Systeme geeignet zu sein scheint - und ob es einen Weg jenseits der Turingmaschine geben kann.

Ohne die kritische Diskussion des KI-Ansatzes aus den 60iger und 70iger Jahren wiederholen zu wollen, möchte ich einige der Grundprinzipien der Turingmaschine vergegenwärtigen:

  1. Die Turingmaschine folgt klassisch mechanischer (hierarchischer) Logik: Sie schreibt programmgesteuert von einem definierten Anfang aus Symbole sequentiell auf ein (gedachtes) endloses Speicherband. Sie benötigt diesen einen Anfangspunkt als hierarchische Wurzel zur Orientierung beim Schreiben und Lesen (wenn man sie ausschaltet, müsste sie theoretisch bei jedem Neustart zunächst auf diesen Anfang zurückgesetzt werden).
  2. Die Turingmaschine ist "programmgetrieben": Die Repräsentationen, die sie auf ihr Speichertape schreibt, sind einseitig vom Programm her definiert. Sie kann nicht "datengetrieben" arbeiten, indem die Repräsentationen von sich aus passende Programme auswählen oder gar schreiben.
  3. Sie kann nur jeweils in einem einzigen Zustand sein. Obwohl sie vielerlei Programme ausführen, vielerlei Daten aufzeichnen und bearbeiten und damit theoretisch (nicht praktisch) beliebig viele, wenn auch determinierte Zustände annehmen kann, so muss sie doch vor jedem Rechenschritt in einem einzigen, eindeutigen, also nicht-ambivalenten Zustand sein.

Hier liegen aber auch die prinzipiellen Einschränkungen dieser Maschine: Da sie nach den Axiomen einer jeweils einzigen Programmlogik arbeitet, ist sie "logisch geschlossen", kann also nicht über den momentan aktiven logischen Bereich hinaussehen und sich deshalb auch nicht an die "Umwelt" dieses Bereichs anpassen. Sie kann aus diesem Grund auch nicht unterschiedliche logische Bereiche integrieren.

Damit fehlen ihr aber Grundvoraussetzungen für Kognition als einem Denkprozess, der unterschiedliche logische Bereiche integrieren und dadurch neue logische Bereiche synthetisieren kann. Konzepte wie "Lernen", "Innovation" oder "Kreativität" oder beziehen sich auf diese Fähigkeit, Komplexität zu integrieren (anstatt sie durch Komplikation zu ersetzen). Auf das menschliche Denken übertragen sprechen wir seit Kant von "synthetischen" (intuitiven) und "analytischen" (logischen) Denkoperationen. Nur die Kombination beider bewirkt "Denken". Dass in unserer westlichen Kultur bis heute nur Logik als "richtiges Denken" bezeichnet wird, ist ein nicht nur von Philosophen beklagtes Manko.

In klinischer Terminologie ist die Turingmaschine (wie jeder logische Mechanismus) eine "paranoide Maschine": Ein Paranoiker ordnet alle seine Wahrnehmungen systematisch (darum wird Paranoia auch als "systematischer Wahn" bezeichnet) einer einzigen Ursache zu, nämlich der Absicht, ihm zu schaden. Er strukturiert seine Interpretationen hierarchisch unter einer einzigen logischen Wurzel. In diesem, bei Menschen als pathologisch angesehenen Denkmodus befinden sich Turingmaschinen (also unsere ganze heutige Computergeneration mit Ausnahme von Neuronalen Netzen, die hier unberücksichtigt bleiben) prinzipiell und dauerhaft- wenn auch mit wechselnden Axiomen (Programmen).

Denken ist dagegen ein komplexer nicht-hierarchischer Prozess, bei dem wir unterschiedliche Wahrnehmungen (im weitesten Sinn Repräsentationen in Form von Relationen) integrieren und neue logische Bereiche synthetisieren. Wir können dies tun, weil wir uns stets in vielen Zuständen gleichzeitig befinden, unser "Gedächtnis" keinen einzigen Anfang braucht und wir abwechselnd "datengetrieben" (induktiv) wie auch "programmgetrieben" (deduktiv) operieren können. Da sich die Welt uns nie als deduktives Ganzes präsentiert, sondern jeweils nur aus Einzelbeobachtungen, die wir jeweils zu einem "kompositiven" (F.A. Hayek) Ganzen verknüpfen, kann Kognition als interner Verknüpfungsprozess in Interaktion mit der Umwelt verstanden werden.

Wenn wir von Computern Vergleichbares und damit mehr erwarten wollen, als die Turingmaschine liefern kann, so stellt sich die Frage nach den Voraussetzungen einer Maschine, die kognitive "denkähnliche" Fähigkeiten strukturell ermöglicht. Nach vergeblichen Versuchen in den sechziger und siebziger Jahren, die sich vor allem mit Namen wie Gotthard Günther, Heinz von Foerster und dem Biological Computer Lab (BCL) an der Universität von Illinois verbinden, galt das Problem den meisten als unlösbar. Dennoch hatte vor allem Gotthard Günther die Richtung einer möglichen Lösung aufgezeigt, nämlich eine neue "polykontexturelle" Architektur von Logik ("Kenogrammatik"), in der sich unterschiedliche logische Bereiche überschneiden und verknüpfen lassen.

Von der Turingmaschine zum Rhizom

Die praktische Realisierung einer solchen Architektur scheint nun endlich gelungen zu sein: der unabhängige Erfinder Erez Elul hat in den letzten Jahren einen ganz eigenen Ansatz ("Pile System") entwickelt, der 2005 in die experimentelle Anwendungsphase geht und sich in mehreren Punkten grundsätzlich von der Turingmaschine zu unterscheiden scheint:

  1. Repräsentation: Die "Elulmaschine" repräsentiert Ereignisse nicht mehr als Daten im traditionellen Sinn, sondern als Relationen, d.h. sie zeichnet lediglich die Relationen der Teile einer beliebigen Input-Sequenz auf, aus der sich die Gesamtsequenz als Ganzes zusammensetzt, und setzt diese Relationen wiederum in Relation zu den im System bereits repräsentierten Relationen. Dadurch wird eine verlustfreie, generative und nicht-redundante Repräsentation möglich, die sich eher als "ontogenetisch" statt "ontologisch" beschreiben lässt: Repräsentiert wird hier die generative Struktur des Ereignisses und zugleich die generative Historie des repräsentierenden Systems.
  2. Logik: Im Unterschied zur Turingmaschine und allen anderen Mechanismen hat die Elulmaschine eine "polylogische" Struktur: ihre Objekte benötigen prinzipiell zwei Elternteile statt nur einem, wie in hierarchischen Strukturen. Die Maschine generiert theoretisch unendlich viele unabhängige Baumstrukturen, von denen sich jeweils zwei in jedem Objekt kreuzen (und damit auch untereinander verwebt sind). Dadurch gibt es viele Anfangspunkte im System anstatt nur einem einzigen. Der Pfad von einem Ganzen zu seinen Teilen ist ebenso definiert wie der Pfad von einem beliebigen Teil zu den jeweiligen Ganzen, in denen er vorkommt.
  3. Objekte: Die Objekte des Systems sind ausschließlich (proprietäre) Adressen als Verknüpfungen, die Relationen repräsentieren, aus denen wiederum Daten generiert werden (metaphorisch vergleichbar mit einem Computerspiel, das seine Bilddaten ebenfalls dynamisch generiert und nicht etwa physisch abspeichert). Diese Objekte sind selbst-verknüpfend und komplex, und damit brauchbare Elemente für eine selbstorganisierende komplexe "kompositive" Struktur.
  4. Struktur: Die entstehende Struktur ist nicht- hierarchisch, aber dennoch geschichtet. D.h. in jeder Schicht vergrößert sich der Informationsgehalt eines Objekts exponentiell, da es die nächst höhere Ordnung der beiden durch das Objekt verknüpften Objekte repräsentiert und beider Ordnungen kodiert. Diese Verknüpfungen bilden eine potenzierte Kette von Relationen, aus denen die Daten generiert werden.

Man kann sich dieses System als vollständig verknüpftes, komplexes Netzwerk oder Rhizom vorstellen, in dem nicht nur die Knoten, sondern auch alle Links adressierbare Objekte sind. Alle Pfade in diesem skalierbaren Netzwerk sind eindeutig definiert (wie in einer Baumstruktur), und dennoch sind beliebige Verknüpfungen möglich. Im Gegensatz zu einem komplexen Netzwerk, wo neue Knoten den Rechenaufwand bei der Simulation des Netzwerks exponentiell vergrößern, wächst hier der Rechenaufwand nur linear, weil der Informationsgehalt neuer Knoten exponentiell steigt. Da diese Information jedoch nur virtuell in einem logischen Adressraum repräsentiert wird (als Pfad) und nicht physisch im Memory gespeichert werden muss, bleibt das System prinzipiell skalierbar. Alle denkbaren Strukturen - komplexe wie nicht-komplexe, dynamische wie statische - sind damit kartierbar (im Sinne von "Mapping", nicht nur von "Tracing"!).

Die Maschine ist derzeit auf einer gewöhnlichen Von-Neumann-Hardwarearchitektur unter einem Standard-Betriebssystemen (Windows) implementiert. Ob sie tatsächlich Probleme lösen kann, die der Turingmaschine prinzipiell verschlossen bleiben, muss nun vor allem praktisch bewiesen werden.. Darum soll diese Frage hier zunächst auch nur als Vermutung geäußert werden. Die wesentlichen theoretischen Argumente sind veröffentlicht und Testversionen verfügbar. Wenn mit Pile jedoch tatsächlich der berühmte "Juice" (Rodney Brooks) erfunden wurde, der Computern bisher fehlte, dann sind die Auswirkungen unabsehbar...

Peter Krieg ist vor allem als Dokumentarfilmer bekannt (darunter SEPTEMBERWEIZEN, VATERS LAND, MASCHINENTRÄUME, SUSPCIOUS MINDS) und hat sich besonders in den beiden letzteren Filmen mit Computern, Chaostheorie und Kybernetik auseinandergesetzt (mit denkwürdigen Auftritten u.a. von Marvin Minsky und Heinz von Foerster). Seit 1999 fördert er das Pile Projekt von Erez Elul und inkubiert derzeit in Berlin die Firma Pile Systems, die Pile zur Anwendungsreife führen soll. "Die Paranoide Maschine" ist auch der Titel seines Buches zum Thema, das 2005 erscheinen soll. Er ist erreichbar unter peter@pilesys.com . Einführungen und erste unabhängige Einschätzungen des Pile Systems sind veröffentlicht bei www.pilesys.com.