Bio-inspired Computing

Künstliche Intelligenz, neuromorphe Hardware, Memristoren und Photonik

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Inspiration leitet sich vom lateinischen "spirare" für hauchen, atmen, leben ab; die Vorsilbe in- ist hier selbsterklärend: Etwas mit Leben, Inhalt, Bedeutung füllen. Das war für die frühen Computer nicht angedacht. Sie sollten einfach Geschossbahnen errechnen oder Geheimcodes knacken. Im Deutschen nannte man sie lange Zeit ja auch "Rechenmaschinen" oder abwertend "Rechenknechte".

Die grundlegende Architektur unserer Computer hat sich seit der Anfangszeit - begonnen mit den Rechnern von Konrad Zuse in den 1940er Jahren - nicht geändert. Unsere Rechenknechte arbeiten nicht unregelmäßig, sondern im Takt: Schritt für Schritt werden logische Operationen ausgeführt, und Schritt für Schritt liefert dafür der Rechenkern-nahe Speicher die notwendigen Daten; sowohl die zu verarbeitenden Daten wie auch die Daten für das Programm liegen also getrennt vom Rechenwerk in dezidierten Speichern vor. Diese Beschreibung kennzeichnet locker gesprochen die Von-Neumann-Computerarchitektur, die fast all unseren Computern zugrunde liegt.

In der physikalischen Realität bedeutet die heutige vorherrschende Von-Neumann-Architektur, dass Elektronen zwischen Arbeitsspeicher, Rechen- und Steuereinheiten bewegt werden. Und Bewegung bedarf Energie - und erzeugt Abwärme; schließlich kollidieren die Elektronen mit den Atomen des Kristallgitters. Diese Abwärme wird zum Engpass beim Layout immer kleinerer Chipstrukturen. Zudem benötigt der permanente Datenverkehr in seiner Summe etliche Zeit; das Rechenwerk allein ist viel schneller als der mit ihm verbundene Datenverkehr.

Der Entwicklungsleiter der Programmiersprache "Fortran", John W. Backus (1924-2007), prägte dafür 1977 einen Begriff: "Sicherlich muss es auf eine weniger primitive Art möglich sein, große Änderungen auf dem Speicher durchzuführen, als riesige Mengen von Datenwörtern vor und zurück durch den Von-Neumann-Flaschenhals zu schieben." Genau dieser Flaschenhals wie zudem auch das Auftreten von quantenmechanischen Tunneleffekten, die bei weiterer Verkleinerung der Strukturgrößen konventioneller Computerchips verstärkt auftreten und sie so unzuverlässig machen werden, setzen Grenzen für die konventionelle Computerentwicklung.

Das gilt sogar auch für bisherigen künstlichen neuronalen Netze, die zwar andere Verknüpfungsfunktionen der sie durchlaufenden Informationen darstellen, aber für ihr Funktionieren zum größten Teil noch auf konventioneller Hardware ablaufen. Der derzeitige Aufschwung künstlicher Intelligenz erfolgte ja gerade deshalb, weil die Leistungsfähigkeit konventioneller Hardware endlich stark genug geworden war, die damit verbundenen komplexen Algorithmen darauf ablaufen zu lassen.

Der hier veröffentlichte Text fasst wichtige Argumentationslinien des Buchs "Bio-inspired Computing" (Gehirn - künstliche Neuronetze - neuromorphe Architekturen ...und wie es weitergeht: Photonik - Quantencomputer - Evolution) von Rolf Kickuth. Er ist Chemiker, Wissenschaftsjournalist und Gründer der Agentur und des Verlags Rubikon, in dem es auch erschienen ist. Bestellung per Email an kickuth (at) rubikon.de mit dem Betreff "Bestellung Bio-inspired Computing". Der Preis für ein Buch beträgt 49 Euro incl. MWSt. und Versand innerhalb Deutschlands.

Neuromorphe Hardware

Seit kurzem zeichnen sich in der Informationstechnologie Entwicklungen ab, die an Leistungsfähigkeit alles in den Schatten stellen werden, was bislang mit Computertechnik in Verbindung gebracht wurde, auch die schon vorhandenen Erfolge in Künstlicher Intelligenz. Diese beruhen ja typischerweise auf Maschinen von riesigen Ausmaßen und ebensolchem Energiehunger. Siri, Alexa, Cortana sitzen ja nicht im Handy oder im Desktop-Computer, sondern führen zu industriellen Komplexen datenverarbeitender Strukturen. Die neuesten Entwicklungen neuromorpher Hardware lassen es aber für möglich erachten, dass bald komplizierte Mustererkennungen, Vorhersagen etc. wirklich lokal ablaufen. Der wichtigste Technologietreiber ist hier wohl die Entwicklung von autonomen Fahrzeugen. Zumindest teil-autonome andere Geräte dürften bald folgen, Roboter inbegriffen - vom Smartphone mit integriertem Sprachverständnis gar nicht zu sprechen.

Und es steht eine weitere Revolution an, die Computerleistungen verspricht, die man sich bislang gar nicht vorstellen kann. Sie wird in der Speerspitze geführt von den Entwicklungen der Quantencomputer, auch von photonischen Computern. Alles zusammengetragen führt deren Leistungsfähigkeit nahtlos zu Überlegungen, die Ethik, Evolution und Bewusstsein betreffen.

Jetzt ist KI allerdings auf einem ganz anderen Sprung, extrem leistungsstark zu werden. Maßgeblich dafür verantwortlich ist die Entwicklung von Computern oder Computerchips, die von der von Neumann-Rechnerarchitektur abrücken und dem Modell einer biologischen Hirnstruktur näher kommen. Erreichen will man dies durch "neuromorphic engineering". Man stellt sich also die ingenieurwissenschaftliche Aufgabe, Hardware mit dem strukturellen Vorbild der Verschaltung von Nervenzellen zu entwerfen und zu bauen. Ein Hauptgrund für die bislang überlegene Leistungsfähigkeit biologischer Gehirne ist, dass im Gehirn Informationsverarbeitung und -speicherung dezentral jeweils an seinen grundlegenden Bauelementen geschehen, den Neuronen und seinen Synapsen. Es gibt kein Rechen-, Steuer- und Speicherwerk. Die neuronale Architektur vereint dies alles in seinen Elementen. Von daher liegt es nahe, Strukturen und Funktionen biologischer neuronaler Schaltkreise in elektronischen Schaltkreisen nachzubilden.

Das macht man mit neuromorphen Computern. Biologische neuronale Netzwerke zeichnen sich aber nicht nur durch ein Zusammenfassen von Speichern und Berechnen in ein und denselben Elementen aus. Sie sind auch deshalb so energieeffizient, weil sie Impulse nur dann senden, wenn es dafür einen Bedarf - sprich: eine Anregung - gibt. Konventionelle digitale Elektronik hingegen unterliegt eine Taktrate, die Rechenvorgänge nach Zeitintervallen im Gigahertzbereich ausführt.

1949 formulierte ja Donald Hebb, ein kanadischer Physiologe, die 1. Lernregel: Gleichzeitig aktive Neuronen verstärken Verbindungen. Im Englischen gibt es dafür den eingängigen Merksatz "What fires together wires together". Die Hebbsche Lernregel wurde Ende der 60er Jahre des vorigen Jahrhunderts experimentell bestätigt. Erst viel später hat man jedoch festgestellt: Es hängt sehr genau von der zeitlichen Differenz ab, mit der die Neuronen relativ zueinander einen Impuls abgeben, wie sehr sich ihr weiteres Zusammenwirken verbessert. Es ist zwar noch nicht vollständig geklärt, ob die Informationen durch die Feuerrate oder durch eine zeitliche Codierung übertragen werden; möglicherweise kommen beide Effekte zum Tragen. Das grundsätzliche Prinzip ist jedoch sehr effizient; man nennt es "spike timing dependent plasticity" (STDP), die entsprechenden Neuronetze SNN für spiking neural nets. Der Ausdruck weist schon darauf hin, dass die Aktivität von Synapsen, ihre Wandlungsfähigkeit, ihre Plastizität, entscheidend für Lernvorgänge ist.

Neuromorphe Prozessoren umgehen den Von-Neumann-Flaschenhals also, da Werte dezentral in den Gewichten der simulierten Synapsen liegen (physikalisch als Ladungen von Kondensatoren) und Informationsabläufe von dem simulierten künstlichen neuronalen Netz abhängen. Wie ihre natürlichen Vorbilder sind neuromorphe Chips fehlertolerant - was die Fertigung verbilligt, da die Ausschussquote fällt. Zudem haben sie einen geringen Energieverbrauch, da die einzelnen Neuronen ereignisgesteuert arbeiten.

Memristoren

Dennoch zeichnet sich am Hardware-Horizont etwas ab, das noch energieeffizienter und kleiner als bisherige neuromorphe Strukturelemente sein kann, und das sind Memristoren. Zudem lässt sich mit ihnen ein Problem vermeiden, dass bei der Verwendung von Kondensatoren als synaptische Speicher auftritt (wie sie ja in bisheriger neuromorpher Hardware eingesetzt werden): Man muss der Leckströme Herr werden, die zur Entladung der Kondensatoren führen. Das wiederum führt zu höherem Schaltungs- und Energieaufwand.

Die lateinischen Wurzeln des Kofferworts Memristor: memorare = sich erinnern, und resistere = widerstehen deuten schon auf die Funktion hin. Es handelt sich um einen elektrischen Widerstand, dessen Wert je nach früher durch ihn geflossene Ströme unterschiedlich ist. Das Bemerkenswerte: Ein Memristor ist so tiefgreifend in der Elektrotechnik verankert, dass er neben dem Widerstand, dem Kondensator und der Spule als viertes fundamentales passives Bauelement gilt.

Die mathematische Rechtfertigung für die Existenz eines Memristors als viertes fundamentales Bauelement basiert auf einer Symmetriebetrachtung bezüglich der anderen drei Elemente. Ein normaler Widerstand ergibt sich als Funktion von Spannung und Strom. Die Kapazität eines Kondensators ist eine Funktion von Spannung und Ladung, die Induktivität einer Spule hingegen eine Funktion von Strom und magnetischem Fluss. Was fehlt, ist ein Element, der eine funktionale Beziehung zwischen magnetischem Fluss und Ladung. Genau diese Funktion weist ein Memristor auf. Praktisch bedeutet das: Man kann den Widerstandswert eines Memristors einmal durch einfachen Ladungstransport programmieren, und dann behält er diesen Wert bis zur Reprogrammierung bei.
 Während die ersten drei fundamentalen elektrischen Bauelemente schon im 19. Jahrhundert bekannt waren, beschrieb Leon Chua (geb. 1936 auf den Philippinen) von der Universität Berkeley in Kalifornien den Memristor jedoch erst in einer Arbeit im Jahre 1971 - rein theoretisch. Eine erste Mitteilung über eine physikalische Realisierung gab es erst 2007. Im April 2008 haben Forscher von Hewlett-Packard einen relativ einfach aufgebauten Schichtverbund aus Titandioxid mit Platinelektroden als Memristor vorgestellt.

Anders als konventionelle Bauelemente elektronischer Chips repräsentiert ein Memristor einen Wert nicht nur durch die Aufladung, die beispielsweise ein Kondensator durch Elektronen erfährt, er verändert seine physikalisch-chemischen Eigenschaften, sich selbst. Diese Veränderung ist zudem ein analoger Prozess; er kann also nicht nur 0 und 1 repräsentieren, sondern beliebige Zwischenwerte. Das macht ihn zu einem idealen Element für Synapsen, zumal die Veränderung nach Abschalten des Stromflusses erhalten bleibt, ohne weitere Energiezufuhr.

Ein neuromorpher Chip mit Memristoren weist gegenüber neuromorphen Chips den Unterschied auf, dass sich seine Schaltelemente bei Stromdurchfluss selber verändern; sie zeigen adaptives Verhalten. Das kann ihm zu zwei enormen Vorteilen verhelfen: Erstens einer Zeitersparnis durch geringen Datentransport (die gibt es auch bei der "üblichen" neuromorphen Hardware), und zweitens eine Energieersparnis sowohl durch den verminderten Datentransport wie auch ein sehr niedriges Spannungsniveau, mit dem sich solche Chips betreiben lassen. 


Alles in allem wären Memristoren die Bauelemente für neuromorphe Computer - wenn es sie denn in geeigneter Spezifikation gäbe. Doch genau daran mangelt es noch. Leider erwies sich die anfängliche Euphorie für Memristoren, die insbesondere Hewlett-Packard verbreitete, als voreilige Hoffnung. Memristoren sind - anders als herkömmliche Bauelemente aus Silicium - mit viel mehr Chemie verknüpft. Das wirft viele Fragen auf, beispielsweise die nach der Haltbarkeit oder auch der Normierung der Eigenschaften über viele Chips hinweg, bietet aber auch viele Chancen und Entwicklungsmöglichkeiten.

Grundlegende Geräte- und Materialcharakterisierungen haben gezeigt, dass die Rekonfiguration in Memristoren typischerweise durch interne IonenUmverteilung gesteuert wird. Konkret ist die Speicherschicht in einem Memristor typischerweise einige Nanometer dick, so dass selbst ein moderater Spannungsabfall darüber ein ausreichend großes elektrisches Feld erzeugen kann, um die ionischen Prozesse anzutreiben und die ionische Konfiguration des Materials zu verändern. Ein im Memristor ablaufender Prozess beinhaltet die Oxidation, Migration und Reduktion von Kationen- oder Anionenarten in der Speicherschicht, was zu Veränderungen der lokalen Leitfähigkeit führt.


Probleme bei Memristoren entstehen aber gerade auch durch diese molekularen Mechanismen. Es ist schwierig, Memristorelemente so zu bauen, dass sie über viele Schaltzyklen hinweg die gleichen Eigenschaften aufweisen. Genauso schwierig ist es zu erreichen, dass viele Memristorelemente untereinander die gleichen Eigenschaften haben, die Materialstreuung also möglichst gering ist. Zudem gilt es, die Ströme und Spannungen zu senken, die zur Progammierung der Elemente notwendig sind, Kriechströme zu minimieren, dabei gleichzeitig aber die Selektorleistung zu erhöhen, also die Anzahl deutlich unterscheidbarer Wertestufen in einem Memristor zu steigern.

Ungenauigkeiten bei all diesen Eigenschaften führen zu deutlich schlechteren Klassifizierungsleistungen von künstlichen neuronalen Netzen. Neuere Entwicklungen weisen allerdings Auswege für alle diese Probleme auf.

Photonik

Es geht aber auch "körperlos", mit Licht - und das bringt deutliche Vorteile mit sich, theoretisch, beispielsweise eine sehr hohe Geschwindigkeit - Licht ist etwa um den Faktor 1000 schneller als die Elektronenbewegung in Schaltungen, gepaart mit der Eigenschaft von Lichtwellen, sich gegenseitig nicht zu beeinflussen, und einem niedrigen Energieebedarf: Da wo nichts wechselwirkt, geht keine Leistung verloren. Das ganze firmiert unter "Photonik". Der Begriff klingt exotisch, aber es gibt sie schon lange. Die Photonik entwickelte sich als Ergebnis der ersten praktischen Halbleiter-Lichtemitter, die Anfang der 1960er Jahre erfunden wurden, und der optischen Fasern, die in den 1970er Jahren entwickelt wurden. Die Möglichkeit, mit Licht zu rechnen, steht aber erst gerade am Horizont.

Ein wichtiger Grund dafür ist die Größe: In Berichten werden oft die einstelligen Nanometer-Strukturbreiten herausgestellt, die die Computertechnik zur Zeit prägen. Licht ist dagegen riesig; das sichtbare Spektrum erstreckt sich in einem Wellenlängenbereich zwischen ca. 380 (blau an der Grenze zum Ultravioletten) und 780 nm (rot an der Grenze zum Infraroten). Dazu kommt: Licht wechselwirkt mit sich selbst praktisch nicht. Das kann ein Vorteil sein: Unglaublich viele Kommunikationskanäle lassen sich über eine Glasfaser übertragen. Will man Licht schalten, geht jedoch kein Weg daran vorbei, es mit Materie in Kontakt zu bringen.

Integrierte photonische Bauelemente versprechen wie schon angesprochen hohe Geschwindigkeiten, viele parallele Datenströme und geringen Verbrauch. Durch ihren bislang großen Platzbedarf ist ihr Einsatzbereich aber eingeschränkt. Ingenieure wandten sich daher Oberflächenplasmonen zu. Kollektive Anregungen von freien Elektronen in Metallen zu Plasmaschwingungen gegen die Ionenrümpfe nennt man Plasmonen. Oberflächenplasmonen sind evaneszente Wellen, Dichteschwankungen, bei denen die longitudinalen elektronischen Schwingungen parallel zur Oberfläche eines Metalls angeregt werden.

Oberflächenplasmonen lassen sich durch einen Lichtpuls anregen, so wie ein Steinwurf ins Wasser Wellen erzeugt. Wo genau eine Plasmonenwelle angeregt wird, kann kontrolliert werden und zwar, indem man steuert, auf welche Struktur der Lichtpuls trifft. Diese Strukturen können wesentlich kleiner sein als die Wellenlänge des verwendeten Lichts. Auf diese Weise lassen sich auch bei photonischen Bauelementen kleine Strukturen erzielen, jedoch längst nicht so klein wie bei aktuellen Siliciumchips. Weiterer Vorteil: Es handelt sich bei den Oberflächenplasmonen um einen Quantenprozess, der eine sehr hohe Geschwindigkeit hat, fast lichtschnell sein kann. 


Aber es gibt ein großes Problem: Evaneszente Wellen haben als Charakteristikum, dass sie exponentiell abklingen. Für die Dämpfung der Plasmonenausbreitung sind Leitungsverluste im Metall verantwortlich. Bei einer Lichtwellenlänge von 633 nm breiten sich Oberflächenplasmonen auf Gold etwa 9 µm, auf Silber etwa 60 µm weit aus. Damit die Oberflächenplasmonen am Leben gehalten werden, muss man weitere Energie in das System einbringen. Damit entsteht jedoch wieder Abwärme, die aufwändig abgeführt werden muss.
 Ein Ausweg setzt auf optische Ringresonatoren, die sehr empfindlich auf ihre Umgebung reagieren und daher beispielsweise durch Wärme in ihrem Verhalten beeinflussbar sind. Ein solcher Ringresonator besteht aus einem Satz von Wellenleitern, bei denen mindestens einer eine geschlossene Schleife bildet, in die über andere Lichtleiter Licht ein- bzw. ausgekoppelt werden kann: Wenn ein Lichtstrahl durch einen Wellenleiter läuft, der neben einem Ringresonator liegt, wird ein Teil des Lichts in den optischen Ringresonator eingekoppelt. Der Grund dafür ist das emaneszente Feld, das sich außerhalb des Wellenleitermodus in einem exponentiell abnehmenden radialen Profil erstreckt. Abstand, Kopplungslänge und Brechungsindizes der Komponenten beeinflussen die optische Kupplung. 
Solche Ringresonatoren lassen sich vielfältig anwenden, als optische Filter, als hochempfindliche Sensoren, in der Spektroskopie, als Einzelphotonenquellen für Quanteninformationsexperimente - und eben auch als optische Schalter.

Photonische integrierte Schaltungen sollten idealerweise aber auch noch die Lichtspender enthalten, Lasersysteme, die die Plasmonen erzeugen oder die Ringresonatoren speisen. Bisher jedoch war dies mit dem Rohstoff Silizium nicht möglich; neuere Entwicklungen zeigen aber auch hier Lösungen auf.

Wo bleibt die biologische Inspiration für die Computertechnik bei photonischen integrierten Schaltungen? Nun, ganz ähnlich wie Memristoren verfügen Bausteine von PICs über Eigenschaften, die in ihrem Verhalten dem von Synapsen und Neuronen ähneln. Von daher wundert es nicht, dass sich Forscher der Aufgabe gewidmet haben, neuromorphe photonische Computer zu bauen.

Alles kommt zusammen

Was bringt das alles? Ein grundlegendes Maß, wie weit Systeme in ihrer Leistungsfähigkeit zur Verarbeitung von Informationen entwickelt sind, ist der Verbrauch an Energie pro Recheneinheit. Gängig ist die Angabe für eine MAC, eine multiply-accumulate operation. Das ist eine Rechenoperation, bei der zwei Faktoren multipliziert und das Produkt zu einem fortlaufenden Summanden, dem Akkumulator, addiert wird. Auch der Ablauf synaptischer Funktionen lässt sich mit MAC-Operationen darstellen. In speziellen integrierten Schaltungen, die insbesondere bei der Signalverarbeitung genutzt werden (ASICs, FPGAs), wird diese MAC-Rechenoperation in Hardware dargestellt, läuft also schnell und effizient ab. Die Berechnungseffizienz typischer heutiger Grafikprozessoren liegt bei etwa 20 Picojoule pro MAC. 
Das menschliche Hirn hingegen liefert mit nur 20 W Leistung erstaunliche 10^18 MAC/s. Das passiert mit 10^11 Neuronen mit durchschnittlich je 10.000 eingehenden Verbindungen von anderen Neuronen. Dies führt zu einer geschätzten Gesamtzahl von 10^15 synaptischen Verbindungen, die alle Signale mit einer Bandbreite von bis zu 1kHz übertragen. Die berechnete Recheneffizienz für das Gehirn liegt damit niedriger als ein Attojoule pro MAC; das sind an die 8 Größenordnungen - 100 Millionen Mal - besser als die heutiger Computer.

Hier liegt ein deutlicher Vorteil bei neuromorphen Systemen. Gerade die Spiking-Ansätze der SNN (spiking neural nets) versprechen extreme Verbesserungen der Rechenleistung, weil sie die zugrunde liegenden physikalisch-chemischen Eigenschaften der Biologie, der analogen Elektronik (etwas Memristoren) oder photonischer Chips direkt ausnutzen. Die Amplitude der Spikes wird digital repräsentiert, sie erfolgen aber zeitlich analog. Spiking hat zwei Hauptvorteile gegenüber synchroner Analogtechnik: Zum einen ist ihre analoge Variable, die Zeit, weniger verrauscht als ihre digitale Variable (die Amplitude), und zum anderen arbeitet sie asynchron, ohne Systemtakt, der zu hoher Verbrauchslast führt. Diese Vorteile sprechen für die Allgegenwart von Spikes in natürlichen Verarbeitungssystemen.

Es gibt aber auch Anforderungen, die weit über bisherige Leistungsfähigkeit hinausgehen. Ein Beispiel dafür ist die neuromorphe Verarbeitung für Anwendungen mit hoher Bandbreite im GHz-Bereich wie etwa der Abtastung und der Manipulation des Funkspektrums oder auch die Steuerung sehr schneller Flugzeuge. Hierfür benötigt man einen grundlegend anderen Ansatz, und den bieten photonische Chips.


Elektronische Schaltungen basieren auf Milliarden von Schaltern, die zwischen einem Ein- und Ausschaltzustand wechseln. Dieser Schaltvorgang allein führt zu einer Latenz. Die Photonik verwendet hingegen die Wellenausbreitung, das Interferenzmuster von Wellen, um ein Ergebnis zu bestimmen. Dies ermöglicht sofortige Berechnungen ohne die durch die Schalterlatenz verursachte Verzögerung.

Die in der Photonik erreichbaren hohen Schaltgeschwindigkeiten, die hohe Kommunikationsbandbreite und das geringe Übersprechen - also das geringe Stören benachbarter Kommunikationskanäle - eignen sich sehr gut für ein außerordentlich schnelles, Spike-basiertes Informationsverarbeitungssystem mit hoher Verbindungsdichte. Man geht davon aus, dass ein neuromorpher photonischer Systemansatz 6 bis 8 Größenordnungen, also bis zu 100 Millionen Mal, schneller arbeiten kann als neuromorphe Elektronik! Je nach Ausführung arbeitet diese zur Zeit so schnell wie biologische Systeme oder, wie gerade gesagt, bis zu 1000 mal schneller. Zumindest im Vergleich zu biologischen Gehirnen wird die 100-millionenfache Beschleunigung wohl erreicht werden.

Was den Leistungsverbrauch angeht: Zumindest nehmen die Forscher an, ein Sub-Femtojoule/MAC-Level mit der gegenwärtigen Technologie zu erreichen. Theoretisch ließe sich mit optischen neuronalen Netzen sogar eine physikalische Grenze umgehen, die konventionelle Chips haben, weil sie thermodynamisch irreversibel arbeiten. Diese Grenze heißt Landauer-Limit. 1961 formulierte der deutsch-amerikanische Physiker Rolf Landauer von IBM die Hypothese, dass durch das Löschen von Information zwangsläufig eine minimale Energie in Form von Wärme an die Umgebung abgegeben wird, und dass diese Wärme nach unten beschränkt ist, also einen Mindestbetrag aufweist. Das gilt nicht notwendigerweise für optische Chips. Das für photonische Schaltungen angesprochene Standard-Quantenlimit ist problem- und netzwerkabhängig und liegt für einige in der Literatur getesteten Probleme im Bereich 50 zJ bis 5 aJ/MAC. Im Vergleich dazu liegt die Landauer-Grenze (thermodynamische Grenze) für einen digitalen Prozessor bei 3 aJ/MAC (unter der Annahme von 1000 Bit-Operationen pro MAC).

Quantencomputer

Jetzt noch kurz zu Quantencomputern: Schließlich gibt es auch Perspektiven für Quantencomputer in der ebenso boomenden Künstlichen Intelligenz. Man entwickelt Vorstellungen, künstliche neuronale Netze und Quantencomputer zu verbinden. Solche quantenneuronalen Netze (QNNN) sind neuronale Netzmodelle, die auf den Prinzipien der Quantenmechanik basieren. Die Hoffnung ist, dass Merkmale des Quantencomputing wie Quantenparallelität oder die Effekte von Interferenz und Verschränkung als Grundlagen für hohe Effizienzen genutzt werden können.

Quantencomputer sind jedoch nicht einfach zu realisieren. Als eine mögliche Basis für Quantencomputer schieben sich Photonen immer mehr in den Vordergrund, die ja schon seit dem Anfang der Entwicklung der Quantenmechanik im Fokus stehen. Mit Photonen lassen sich besonders gut bewegliche Qubits definieren. In der Regel werden als Basiszustände verschiedene Teilchenzahl-Eigenzustände des elektromagnetischen Felds verwendet. Eine häufige - aber nicht die einzige - Realisierung ist das Polarisations-Qubit, das durch zwei orthogonale Polarisationen eines Photons definiert ist. Das besonders Motivierende an photonischen Quantencomputern ist: Sie lassen sich bei Raumtemperatur verwirklichen.

Bewusstsein und Transhumanismus

Fasst man alles zusammen und berücksichtigt dabei auch selbstlernende künstliche neuronale Netze, Selbstorganisationsprozesse etc., wird deutlich: Die Evolution hat alle Möglichkeiten, jetzt von der Kohlenstoff-basierten Biologie auf andere Substrate überzugehen. Ich sehe da auch keinen Widerspruch zwischen "natürlich" und "künstlich". Bei jeder Entstehung von als natürlich bezeichneten Dingen erfolgt der Prozess des Entstehens durch Nutzung von Mitteln zur Informationsübermittlung, die weitestgehend auf molekulare Mechanismen zurückgehen. Bei als künstlich angesehenen Produkten gibt es immer mindestens einen Schritt in der Entstehungsgeschichte, der auf nicht-molekulare Informationsweitergabe beruht, sei es durch Akustik (zum Beispiel Sprache), Optik (etwa Schrift) oder andere entsprechende Wege wie beispielsweise Computerprogramme - die ja selbst in der Entstehung irgendwann auf Sprache, Schrift etc. zurückgreifen.
 Quasi automatisch stellt sich dann bei informationsverarbeitenden Systemen auch die Frage nach dem Entstehen von Bewusstsein. Was ist überhaupt ein Bewusstsein? Was heißt hier komplex genug? Nun, als Bewusstsein nehme ich das an, was ich für mich empfinde, beispielsweise was mein Gehirn als Betriebssystem erzeugt, obwohl seine Gedanken schon vorhanden sind, bevor sie mir bewusst werden - was die neuere Hirnforschung propagiert. Das Bewusstsein gibt Individuen die Möglichkeit, in die Zukunft zu schauen, und verschafft ihnen somit einen evolutionären Vorteil.

Ein normaler Computer mit festgelegtem Programm ist sicherlich nicht geeignet, Bewusstsein zu beherbergen. Es fehlt ihm an Flexibilität und der Fähigkeit zu dynamischer Entwicklung. Nun aber angenommen, es existiert ein sehr komplexer Computer mit Millionen oder gar Milliarden komplex verschalteter Prozessorkerne, mit vielfältigen Rückkopplungsschleifen: Sollte solch ein Konstrukt nicht in der Lage sein, ein Bewusstsein aufzunehmen bzw. zu entwickeln? Ich denke ja. Es gibt Überlegungen, die annehmen lassen: Wenn ein Substrat komplex genug ist, dass sich darin ein Bewusstsein entwickeln kann, dann entwickelt sich darin auch ein Bewusstsein.

Kommt der Transhumanismus? Um die Frage kurz zu beantworten: Im Grunde ja, aber nicht so, wie man es sich jetzt vorstellt. Technik wird über medizinische Apparate und Prothesen (man denke an Herzschrittmacher), aber auch über ein immer informationsbezogeneres gesellschaftliches Umfeld an uns herangetragen: Bezahlen per Handy oder Smartwatch, autonomes Fahren, womöglich (zunächst in autoritären Staaten) Identifizierungen und Autorisierungen über implantierte Chips ... Irgendwann haben wir dann transhumane Bedingungen, ohne sie so zu nennen. Wir haben aber auch die weltweite Mobilität entwickelt, ohne dass wir "Automenschen" wurden. Das, was vor einigen Jahren als "Transhumanismus" durch die Medien ging, wird nichts anderes als eine modische Betrachtung sich aktuell stark entwickelnder Technologiefelder sein, wie sie um die Wende zum 20. Jahrhundert hin eher mechanistisch interpretiert worden war.

Schon der britische Computerpionier Alan Turing sagte Anfang der 1950er Jahre: "Ich verfechte die Behauptung, dass Maschinen konstruiert werden können, die das Verhalten des menschlichen Geistes weitestgehend simulieren." Ein revolutionärer Gedanke zu einer Zeit, in der beispielsweise noch Homosexualität verboten war, was den entsprechend veranlagten und in Großbritannien trotz seiner Verdienste verurteilten Turing 1954 in den Tod trieb.