Denkende Maschinen
- Denkende Maschinen
- Datenflut und Denkebbe
- Auf einer Seite lesen
Fakt oder Fiktion?
Abstract: Es beginnt mit einem Gedankenexperiment und einem Blick in die Zukunft. Dann werden historische Beispiele für beeindruckende Erfolge der KI genannt und gegen ihre Kritiker verteidigt. Im nächsten Schritt geht es um die Voraussetzung, unter der das Pro-Maschine-Ergebnis zustande kommt: um den Turingtest und seine Adäquatheit. Zur Beantwortung der Frage werden vergleichende neurobiologische Besonderheiten und eine semantisch orientierte Theorie des Geistes eingeführt, die durch wenig bekannte Arbeiten von Planck, Einstein und Heisenberg unterstützt wird.
Auf diesem theoretischen Hintergrund wird dann unter der Bezeichnung "Phänomentest" eine Alternative zum Turingtest vorgeschlagen, exemplifiziert an Sascha Lobo und Pamela Anderson. Das Ergebnis: Computer können (fast) alles, nur denken können sie nicht. Darauf aufbauend wird abschließend ein Modell der Informationsgesellschaft skizziert, das am Denken und nicht an Digitalisierung orientiert ist. Nur so kann die sich abzeichnende Melange aus Datenflut und Denkebbe verhindert werden.
Ein kleines Gedankenexperiment und große Spekulationen über die Zukunft der KI
Zunächst eine Definition: Denken ist Informationsverarbeitung eines kohlenstoffbasierten System. Unser Gehirn erfüllt dieses Erfordernis. Für KI-Maschinen dagegen wäre die Definition ein früher K.O.-Schlag, eben weil sie nicht auf Kohlenstoff basieren. Max Tegmark, Physikprofessor am MIT, nennt diese schnelle Ausschaltung der Maschine "Kohlenstoff-Chauvinismus". Seine Alternative: Denken ist die "Fähigkeit, komplexe Ziele zu erreichen". Diese Begriffsbestimmung ist abstrakter als die erste, weil sie grundsätzlich zulässt, dass sowohl biologische wie auch elektronische Systeme denken können. Ich schließe mich Tegmark zunächst einmal an. Zur beispielhaften Erläuterung der zweiten Definition schlage ich ein Gedankenexperiment mit zwei Beteiligten vor: einem Homo sapiens und einem Roboter.
Beide versichern, über die Relativitätstheorie nachzudenken - ein wahrlich komplexes Informationssystem. Heißt nach Tegmarks Definition: Wer die Relativitätstheorie verstanden hat, muss "intelligent" genannt werden. Unser Homo sapiens ist aber trotz der starken Reflexionspose des Roboters skeptisch, dass er tatsächlich über Einsteins Theorie nachdenkt und stellt ihn mit dieser Frage auf die Probe: "Wie heißt die vierte Gleichung der Lorentz-Transformation?" Im Bruchteil einer Sekunde zaubert der Roboter das korrekte Ergebnis auf den Bildschirm:
Homo sapiens staunt, gibt sich aber noch nicht zufrieden und fordert den Roboter auf, zum Vergleich die Galilei-Transformation zu zeigen. Auch diese Aufgabe löst der Roboter korrekt:
Ein weiterer Punkt für die Maschine. Jetzt verschärft Homo sapiens den Test und fordert den Roboter auf, den Unterschied zwischen den Lorentz- und den Galilei-Gleichungen am Zeitparameter zu begründen. Auch diese Aufgabe löst der Roboter korrekt so: "Die vierte Gleichung der Lorentz-Transformation zeigt, dass die Zeit nach der Relativitätstheorie keine selbstständige Dimension mehr ist und ihren absoluten Charakter verloren hat. Im Unterschied dazu ist die Zeit in der klassischen Physik in zwei Koordinatensystemen gleich." Homo sapiens kommt aus dem Staunen nicht heraus….
Wir könnten das Gedankenexperiment noch weiter ausführen und müssten im Lichte unserer Definition einräumen, dass eine solche Maschine denken kann. Zugegeben: Ein KI-System mit dieser Kompetenz in der Relativitätstheorie gibt es noch nicht, aber es ist grundsätzlich vorstellbar, vielleicht sogar in naher Zukunft.
Apropos Zukunft, ein beliebtes Terrain gerade der berühmten KI-Forscher, z.B. von Ray Kurzweil, Marvin Minsky und Hans Moravec. Zunächst eine Prognose von Kurzweil: "Computer werden einen freien Willen haben… und die Fähigkeit, eine ebenso große Vielfalt an emotionalen und spirituellen Erfahrungen wie ihre menschlichen Schöpfer zu empfinden… Maschinen beanspruchen für sich den Besitz eines Bewusstseins."
Kurzweil hatte das für das Jahr 2029 vorausgesagt. In neun Jahren haben wir also Maschinen mit einem freien Willen, Emotionen etc. Dann schaut er noch weiter in die Zukunft: "Auf lange Sicht wird diese explodierende Intelligenz eine Kraft sein, die sich mit den großen Kräften des Universums messen kann… Das Schicksal des Universums hängt nicht primär davon ab, wie sich Kräfte und Massen im Universum verhalten werden…. Vielmehr ist das Schicksal des Universums…. eine Entscheidung, die wir… angehen werden." (Kurzweil, R., Homo s@piens, 2001).
Nicht ganz so großspurig, da in der Modalität "vielleicht", Minsky: Nachdem er den "lieben Gott" schon in den Anfangsjahren der KI einen "mittelmäßigen Ingenieur" genannt hat, mutmaßt er in einem Gespräch mit Wolfgang Neuhaus: "Der Großteil des Universums denkt nicht. Aber wenn wir in der Physik voranschreiten, können wir vielleicht eine ganze Galaxie in eine Extra-memory-Einheit verwandeln." (in: Hg. Iglhaut, M., Kapfer H., Rötzer F., What if?, 2007). Bedenkt man, dass Galaxien im Durchschnitt 100 Milliarden Sonnen haben, mit Temperaturen von Millionen Grad in der Korona, extremer Kälte zwischen den Sonnen (nahe dem absoluten Nullpunkt von - 273°) und Signalübertragungszeiten von Lichtjahren, so stellt sich die Frage nach der digitalen Nutzbarkeit einer "ganzen Galaxie" nur rhetorisch. Ohne neuronale Überhitzung kommen solche Gedanken nicht zustande.
Und der Dritte im Bunde, Moravec: "Unser Geist wird von unserem ursprünglichen biologischen Gehirn in eine künstliche Hardware verpflanzt werden…Es ist leicht, sich die Befreiung des Geistes vom menschlichen Körper vorzustellen…, und wir werden wie altgewordene Eltern lautlos verschwinden." (Moravec, H., Mind Children, 1990). Auf dem Weg ins digitale Reich des reinen Geistes degeneriert der Mensch zu einer "Zwischenstation". Schöne Aussichten für uns also.
Diese gleichermaßen märchenhaft-schaurigen wie größenwahnsinnigen Blicke in die Zukunft möchte ich nicht weiter kommentieren und stattdessen Leistungen nennen, welche die KI bereits erbracht hat. Fakten also! Und an diesen Fakten soll im Lichte der Tegmarkdefinition die Frage beantwortet werden, ob Computer denken können.
Ein kurzer Blick in die Historie
Begonnen hat das KI-Programm 1956 auf der berühmten Dartmouth-Sommerkonferenz, auf der auch die Bezeichnung "Künstliche Intelligenz" entstanden ist. Schon kurze Zeit später gab es erste und beeindruckende Erfolge. Nur drei Beispiele: Logic Theorist: Es war fähig, Theoreme der Principia Mathematica zu beweisen, zum Teil solche, die bisher noch nicht bewiesen wurden. Nach unserer Definition - Denken als Fähigkeit, komplexe Ziele zu erreichen - fraglos eine intelligente Leistung.
Das zweite Beispiel: MYCIN: Es war in der Lage, Diagnosen für Hirnhautentzündungen zu stellen, mit einer Trefferquote, die über der von menschlichen Spezialisten lag. Ebenfalls eine intelligente Leistung. Das dritte Beispiel: SHRDLU: Es konnte in einem natürlichsprachlichen Dialog eine geometrische Welt aus kleinen Klötzchen und Schachteln operieren - Empathie und Metasprache inklusive. Schauen wir uns die Fähigkeit von SHRDLU an einer kleinen Dialogsequenz etwas genauer an:
Anwender: "Suche einen Klotz, der größer ist als der, den Du hältst und lege ihn in die Schachtel!"
Roboter: "Ich nehme an, dass Sie unter 'ihn' den Klotz verstehen, der höher ist als der, den ich halte."
In dieser Antwort zeigt der Roboter zwei wichtige Fähigkeiten: Er übernimmt erstens die Perspektive des menschlichen Dialogpartners und führt zweitens eine Metakommunikation, was er sogar formal korrekt durch das Anführungszeichen bei "ihn" zeigt. Diese Fähigkeit ist für den Technikphilosophen Gotthard Günther von entscheidender Bedeutung: Die Verwendung von "Objekt- und Metasprache (ist) ein sicheres Zeichen, dass hier Reflexionszusammenhänge vorliegen" (Günther, G., Das Bewusstsein der Maschinen, 1963). Es gibt also auch philosophisch gute Gründe, solche KI-Maschinen "intelligent" zu nennen.
Fadenscheinige Argumente der KI-Gegner
Gegner dieser positiven Einschätzung haben unermüdlich diverse Einwände vorgetragen. Sie reichen vom Vorhalt des begrenzten Leistungsspektrums bis hin zum Vorwurf, KI-Maschinen würden nur das ausführen, was Programmierer ihnen vorher eingegeben haben. Stellen wir die Einwände einmal auf den Prüfstand!
Einwand 1: Das Leistungsspektrum der Maschine ist eingeschränkt. In der Tat kann das KI-System SHRDLU einen Dialog nur im Rahmen seiner Klötzchenwelt führen, und in der Tat ist Logic Theorist nur in der Lage, logisch-mathematische Operationen auszuführen. Und es stimmt auch, dass MYCIN nichts anderes kann, als Diagnosen für Hirnhautentzündungen zu stellen. Keines dieser KI-Systeme hat die Fähigkeit, die jeweilige Anwendungsgrenze kreativ zu überschreiten oder eine Symphonie zu komponieren. Die Reihe, was diese Systeme nicht können, ist lang, sehr lang.
Aber dieser Einwand der begrenzten Leistungsfähigkeit ist mit Blick auf den Mensch-Maschine-Unterschied irrelevant, denn er betrifft Menschen gleichermaßen. So gibt es hervorragende Mathematiker, die ebenfalls nicht in der Lage sind, die bekannten Anwendungen der Mathematik kreativ zu überschreiten oder eine Symphonie zu komponieren. Ihnen deshalb Intelligenz abzusprechen, wäre hochgradig irrational.
Einwand 2: Die Leistungen der Maschine sind vorausprogrammiert. Auch dieser Einwand trifft nicht! Die Begründung in Form einer Analogie: Wenn ein Mathematiklehrer einem Schüler die Regeln der Differentialrechnung vermittelt und der Schüler sie dann korrekt bei der Lösung von Gleichungen anwendet, also nur ausführt, was der Lehrer ihm vorgegeben hat, wird die Leistung des Schülers zu Recht als Ausdruck von kognitiver Kompetenz gewertet. Differentialgleichungen lösen ist fraglos eine intelligente Leistung. Jenseits von Willkür muss die Zurechnung von Intelligenz bei gleicher Leistung dann auch für Maschinen gelten. M.a.W.: Wenn eine Maschine eine schwierige Gleichung löst, muss sie "intelligent" genannt werden. Hier gilt das Gebot der fairen Gleichbehandlung.
Fazit: Die klassischen Einwände gegen die Möglichkeit von Künstlicher Intelligenz zielen am Sachverhalt vorbei. Das gilt umso mehr für die neuere KI, die sog. "neuronalen Netze", mit ihrer Fähigkeit zur "Mustererkennung". Auf die gehe ich aber hier nicht ein, weil sich am Ergebnis pro maschinelle Intelligenz nichts ändern würde.
Wir kommen jetzt zu einem entscheidenden Punkt! Die bisherige Argumentation pro KI-Maschine beruht auf einer wesentlichen Voraussetzung, nämlich der Anerkennung der Beweislogik des berühmten Turingtests. Zusammenfassend zwei seiner wesentlichen Merkmale. Erstens: Die Maschine hat den Test bestanden, wenn ihre Antworten in einem Dialog von den Antworten eines Menschen nicht unterscheidbar sind. Zweitens: Die Entscheidungsebene ist der Output.
Nehmen wir noch einmal das schon besprochene Beispiel. Mensch: "Suche einen Klotz, der größer ist als der, den Du hältst und lege ihn in die Schachtel!" Maschine: "Ich nehme an, dass Sie unter 'ihn' den Klotz verstehen, der höher ist als der, den ich halte." Diese Antwort hätte auch ein Mensch geben können, d.h. Mensch und Maschine sind in diesem Dialog ununterscheidbar. Also hat die Maschine den Test im Prinzip bestanden.
Diese Beweislogik des Turingtests stelle ich nun auf zweierlei und zusammenhängende Weise in Frage: Der Test unterschlägt erstens die semantische Frage und beschränkt sich zweitens auf den Output. M.a.W.: Intelligenz wird nur an der syntaktischen Fähigkeit der Maschine verifiziert und nicht an der Frage, ob das KI-System den Satz wirklich verstanden hat. Und zweitens ignoriert der Turingtest die Frage, wie der Output systemintern entstanden ist. Zunächst zum ersten Kritikpunkt: Fehlende Semantik.
Die Äquivalenz von kognitiver und semantischer Kompetenz
Die Bedeutung von Symbolen ist der Dreh- und Angelpunkt für die Beantwortung der Frage, ob Computer denken können ("Bedeutung" verwende ich synonym mit "Sinn" und "Inhalt", d.h. "Bedeutung" ist hier nicht im Sinne von "relevant" oder "wichtig" gemeint).
Dass Bedeutung eine ganz besondere und letztendlich rein geistige Größe ist, möchte ich zunächst an zwei Beispielen zeigen. Beispiel 1: Synonyme, z.B. "Fleischer" und "Metzger". Das Besondere: Beide Worte haben eine identische Bedeutung bei grafisch und akustisch völlig unterschiedlicher Syntax. Beispiel 2: theoretische Terme, z.B. "Elektron". Jenseits der Stringtheorie wird "Elektron" in der theoretischen Physik als "mathematischer Punkt" eingeführt. Das Besondere: Ein mathematischer Punkt hat den Radius Null. Die Konsequenz: Da Alles in der physikalischen Außenwelt eine Ausdehnung hat, kann das Elektron in dieser Explikation kein Teil der empirischen Welt sein. Aber was ist es dann?
Es gibt nur eine Antwort: Das Elektron ist durch die Punktannahme reine Bedeutung. M.a.W.: Ein ausdehnungsloses "Punktteilchen" hat weder Masse noch Energie und ist wegen seiner Ausdehnungslosigkeit weder beobachtbar noch messbar, sondern nur denkbar. Es handelt sich also um eine rein geistige Größe, die den Beschränkungen der Natur nicht unterworfen ist. Mehr noch: Durch seine Ausdehnungslosigkeit ist sein Zustand contra naturam.
In den Worten von Max Planck: "Der Mensch mit seinen Sinnesorganen und seinen Messgeräten (ist) selber ein Teil der Natur, deren Gesetzen er unterworfen ist und aus der er nun einmal nicht herauskann, während eine derartige Bindung für den…Geist nicht besteht." (Planck, M., Der Kausalbegriff in der Physik, 1953). M.a.W.: Der Geist ist frei und autonom. Eine der vielen Ausdrucksformen dieser Autonomie und Freiheit ist seine Fähigkeit, empirisch nicht existierende Dinge zu denken (hier: die Ausdehnungslosigkeit des mathematischen Punktes).
Ein weiterer Beweis für die semantisch getragene Autonomie des Geistes ist seine Fähigkeit, Fehler machen zu können. Dass die Sonne um die Erde kreist, war zweifellos empirisch eine falsche Annahme, aber dennoch war der Inhalt der Aussage als geistige Realität existent, nämlich im Modus der Bedeutung! Ob Maschinen diese Geistigkeit haben können, hängt also davon ab, ob sie semantisch kompetent sind. Dazu später mehr.
Mit Blick auf die Besonderheit der Freiheit des Geistes und in der kognitionstheoretischen Konsequenz ähnlich spricht Einstein vom "rein fiktiven Charakter der Grundlagen der Theorie" (Einstein, A., Zur Methodik der theoretischen Physik, 1956). Die entscheidende Frage: Was heißt "rein fiktiv"? Nichts anderes als das: Die Designata der "Grundlagen der Theorie" sind masse- und energiefrei." Und wenn ein Etwas masse- und energiefrei ist, kann seine Existenzform nur "Bedeutung" sein. Tertium non datur!
Einstein hat diese Besonderheit am Inertialsystem der Speziellen Relativitätstheorie physikalisch ausgeführt. Nicht ganz so konsequent wie Planck und Einstein hat Heisenberg im Zusammenhang mit dem Neuen der Quantenmechanik die naturunabhängige Funktion des Geistes so zum Ausdruck gebracht: "Die mathematischen Formeln bilden…nicht mehr die Natur, sondern unsere Kenntnis von der Natur ab." (Heisenberg, W., Das Naturbild der heutigen Physik, 1968). Einmal mehr eine Bestätigung unserer Annahme von der semantisch getragenen Freiheit und Autonomie des Geistes.
Auf diesem Hintergrund besonderer Eigenschaften des Geistes können wir nun verallgemeinernd und schlussfolgernd sagen: Kognitive und semantische Kompetenz sind äquivalent. Erst wenn die Bedeutung einer Tatsache oder eines Wortes oder eines mathematischen Symbols verstanden wurde, liegt also ein Denkakt vor. Diese Annahme, dass nur solche Systeme "intelligent" genannt werden können, die semantisch kompetent sind, möchte ich an zwei Beispielen mit der bekannten Methode der Reductio ad absurdum verteidigen, eine Methode, die schon Sokrates angewendet hat.
Einstein im Sand und in Schallwellen von Papageien
Das erste Beispiel: Es seien 3 empirische Komponenten gegeben: eine lockere Sandfläche, Windturbulenzen und ein herumliegender Stock. Weiterhin nehmen wir an: Das windgetragene Zusammenwirken dieser drei Komponenten hat in einem außergewöhnlichen Fall ohne menschliches Zutun zum Eintrag der Einsteinschen Formel in den Sand geführt hat: E = mc2.
Zugegeben: Das Ereignis ist unwahrscheinlich, aber nicht unmöglich. Im Falle seines Eintretens anzunehmen, dass der Wind hier eine geistige Leistung erbracht hat, wäre absurd, eben weil er die Formel zwar richtig "geschrieben", aber nicht verstanden hat. M.a.W.: Die Verifikation der Intelligenz alleine am korrekten Output (= syntaktischer Eintrag der Formel in den Sand) ist ungeeignet.
Das zweite Beispiel: Ein Papagei ist grundsätzlich in der Lage, die Einsteinsche Formel E = mc2 korrekt und verständlich auszusprechen. Anzunehmen, dass der Papagei den Inhalt seiner Schallwellen verstanden hat, wäre aber absurd. M.a.W.: Der korrekte Output beweist Vieles, z.B. die nichttriviale akustische Nachahmungsfähigkeit des Papageis, aber er beweist nicht seine Fähigkeit, den Inhalt der Einsteinformel zu verstehen, was wir unter der ausschließlichen Geltung des Outputkriteriums im Prinzip jedoch einräumen müssten. Bevor wir den Beweisgang wieder auf die Maschine beziehen, noch ein paar theoretische Ausführungen zur Bedeutung, die ja im Zentrum meiner" Argumentation steht.
Weitere Merkmale der Bedeutung
Was ist "Bedeutung"? Ein schwieriges Thema, was zu unterschiedlichen und teilweise unvereinbaren theoretischen Ansätzen geführt hat (siehe zum Beispiel die Bedeutungstheorien von Frege und Wittgenstein). Das kann ich hier nicht ausführen. Aber ein zentrales Merkmal zieht sich durch alle Unterschiede durch: Bedeutung hat die Eigenschaft der Offenheit. Das gilt für jedes Zeichensystem, also nicht nur für die Umgangssprache, sondern auch für die Wissenschaftssprache.
Nehmen wir wieder das Elektron als Beispiel. In der klassischen Physik war unumstritten, dass Ort und Impuls eines Elektrons gleichzeitig genau bestimmt werden können. In der nichtklassischen Physik ist diese Annahme mit der Heisenbergschen Unschärferelation außer Geltung gesetzt. Das Besondere: Die Veränderung der Bedeutung des Begriffs "Elektron" geschieht bei identischer Syntax. Diese Besonderheit der Zeitlichkeit der Bedeutung soll nun als Erweiterung des Begriffs aufgenommen werden: Denken ist zeitliche Repräsentation von Bedeutung. Damit wird die Tegmarkdefinition des Denkens durch eine neue Definition ersetzt.
Es fehlt noch ein empirischer Bezug der Argumentation auf das materielle Substrat des Denkens, auf die Hardware also, denn ohne Hardware ist Denken unmöglich. Anders gesagt: Wenn das biologische Gehirn seine Arbeit einstellt, hört auch das Denken auf. Kognitionsentscheidend ist dabei das Entsprechungsverhältnis von Funktion und Struktur: Nicht nur die geistige Bedeutung, sondern auch die Hardware muss die Eigenschaft der Zeitlichkeit haben, wenn sie Basis von Denkakten sein soll. Das schauen wir uns jetzt zunächst einmal beim Menschen an, und zwar bei einem Kleinkind.
Ein Kind lernt, seine Umwelt wahrzunehmen, auch die Bedeutung von Lauten und Worten u.v.a.m. Alles ist zunächst neu für das Kind. Um diese ständigen Veränderungen und Neuerungen seiner Umwelt erfassen zu können, muss sein neuronales Netzwerk offen sein. Genau das ist der Fall:
Ob diese Zeitlichkeit des materiellen Substrats auch beim Computer gegeben ist, ist nun zu prüfen, ebenso und im Zusammenhang damit die Frage, ob der Computer semantisch kompetent ist. Anders als beim Turingtest kann diese Prüfung aber nicht an der Oberfläche, nicht am Output der Maschine vollzogen werden, sondern nur an ihrer internen Struktur. Ansonsten landen wir bei absurden Konsequenzen, wie die Beispiele Wind und Papagei gezeigt haben.
CPU: "Kopf" der Maschine
Um die Frage "Können Computer denken?" beantworten zu können, müssen wir jetzt also ins Innere der Maschine, auf ihre Problemlösungsebene. Nur hier erfahren wir etwas über das Wesen des Computers. Und das wird durch die CPU (Central Processing Unit) bestimmt:
Nehmen wir ein einfaches Beispiel: Ein Benutzer tippt das Wort "DIGITAL" in die Tastatur (Eingabegerät). Ist die Maschine funktionstüchtig, erscheint das Wort korrekt auf dem Bildschirm (Ausgabegerät). Da wir den Voraussetzungen zufolge die Entscheidung über das kognitive Vermögen der Maschine an ihrer internen Struktur treffen müssen, stellt sich jetzt die Frage: Was passiert zwischen dem Eintippen der Buchstaben durch den Benutzer und der maschinellen Reaktion auf dem Bildschirm?
Die Antwort ist einfach: Bevor die Eingabe, nämlich das Wort "DIGITAL", in die CPU gelangt, wird sie schon im Eingabegerät (hier: Tastatur) in ein vom Computer akzeptiertes "Bitmuster" umgeformt. Buchstaben überschreiten also niemals als Buchstaben die Grenze zur CPU.
Wie geht nun dieser Übergang von der Buchstabensprache der Tastatur in die Bit/Byte-Sprache der Maschine vor sich? Es ist ganz einfach: Um natürlichsprachliche Eingaben in einer für den Computer annehmbaren Weise in binären Werten zu codieren, bedient man sich des ASCII-Codes. Die binären Werte sind die Ziffern 0 und 1, die in einer feststehenden Weise und achtzahlig (= 1 Byte) kombiniert den Buchstaben der natürlichen Sprache so zugeordnet werden:
Soll der Computer also das Wort "DIGITAL" in den Arbeitsspeicher aufnehmen, müssen die Buchstaben schon im Eingabegerät in die Zahlen 0 und 1 konvertiert werden. Von dem natürlichsprachlichen Wort ist dann nichts mehr übrig geblieben - nur noch Nullen und Einsen. Hinzu kommt: Auch diese Zahlen versteht die CPU nicht, sondern die Zahlen müssen in elektrische Spannungen umgewandelt werden. D.h. es findet ein Übergang von Symbolen, von Software, in Hardware statt. Diese Notwendigkeit der Konvertierung von Symbolen in elektrische Zustände gilt für jede Sprache, also auch für die höheren Programmiersprachen.
Dennoch: An sich ist die Umwandlung von Sprache in elektrische Zustände noch kein Todesurteil für die Denkfähigkeit der Maschine, denn sie geschieht auch beim menschlichen Gehirn. Die entscheidende Frage ist die: Sind die Konvertierungen in elektrische Zustände bedeutungserhaltend? Die Semantik ist ja unsere Entscheidungsstelle. Wenn ja, wäre das kognitive Vermögen des Computers gerettet.
Elektronen, Schaltkreise und Bedeutungen
Die Frage ist also: Was wird konvertiert beim Übergang z.B. von der natürlichen Sprache der Benutzereingabe in Elektronenfluss der Schaltkreise? Wird dabei die Bedeutung konvertiert? Nehmen wir zunächst ein Beispiel aus dem menschlichen Alltag. Es gehe um die Bedeutung der Worte "Frau" und "femme".
Wir nehmen an, Herr X beherrscht sowohl die deutsche wie auch die französische Sprache. Frau Y dagegen kann nur französisch (ein Schelm, der hierbei schön Böses denkt). Wenn Herr X dann das Wort "Frau" für Frau Y in das Wort "femme" übersetzt ("konvertiert"), wird die Bedeutung des deutschen Wortes ins Französische transformiert, d.h. die Transformation von "Frau" in "femme" ist bedeutungserhaltend. Der Beweis: Frau Y hat nach der Übersetzung verstanden, was Herr X unter dem Wort "Frau" versteht. So weit die bedeutungserhaltende Operation beim Homo sapiens.
Völlig anders verhält es sich im Falle des Computers. An einem wiederum einfachen Beispiel: Nehmen wir an, wir tippen das Wort "Messer" in die Tastatur. Wie wir schon wissen, findet bereits vor dem Eintritt in die CPU eine Übersetzung des Wortes in nichtsymbolische, nämlich elektrische Zustände statt. Diese Konvertierung ist für den Computer nicht bedeutungserhaltend. Der Grund: Elektronen sind keine Dinge, die Bedeutungen aufnehmen können. Eine der Voraussetzungen dafür wäre nämlich die: Elektronen müssten den Unterschied von Zeichen (= hier: das Wort "Messer") und Bezeichnetem (hier: das Ding Messer) kennen.
Ein Unterschied, der jedes Denken wesentlich bestimmt - und auch praktische Wirkung hat: Bekanntlich kann man nur mit dem Ding Messer, nicht aber mit dem Wort "Messer" das Brot schneiden. Elektronen sind Elektronen - und sonst nichts. Sie verweisen nicht von sich aus auf ein von ihnen verschiedenes Drittes (so wie das im menschlichen Kopf gedachte Wort "Messer" im (!) menschlichen Kopf auf das Ding Messer verweist). Aus diesem Grund können Elektronen die kognitive, d.h. geistige Funktion von Symbolen, nicht übernehmen. Unter den beiden Kriterien "Semantik" und "interne Struktur" steht nun fest: Computer können nicht denken.
Und es gibt einen zweiten K.o.-Schlag. Zur Erinnerung: In der kurz skizzierten Theorie der Bedeutung wurde ihre Zeitlichkeit als wesentliches Merkmal eingeführt, d.h. Bedeutungen verändern sich (ich hatte das am "Elektron" etwas ausgeführt). In diesem Zusammenhang spielte die bekannte Forderung der Entsprechung von (semantischer) Funktion und (materieller) Struktur eine wichtige Rolle. Das heißt: Der Zeitlichkeit der sprachlichen Bedeutung muss eine Zeitlichkeit des materiellen Substrats entsprechen.
Unser Gehirn erfüllt dieses Erfordernis, wie wir schon gesehen haben: Das neuronale Netzwerk verändert in der Zeit die Zahl seiner Komponenten wie auch seine Morphologie, seine Gestalt. Anders beim Computer: Die Zahl und Morphologie der Schaltkreise etc. ist vor einer Operation identisch mit der nach einer Operation. Das muss auch so sein, d.h. eine Bedingung der Funktionstüchtigkeit des Computers ist die, dass sich die Schaltkreise nicht verändern (keine neuen Leiterbahnen u.Ä.). Dass es diese Veränderung nicht gibt, zeigt sich auch so: Anders als beim Gehirn gibt es beim Computer keine durch Informationsverarbeitung verursachten Gewichtsschwankungen.
Zusammenfassend: Alle Vorgänge in der CPU sind bedeutungsfrei. Bedeutung, also Inhalt und damit Kognitives, kommen erst dann wieder ins Spiel, wenn die Ausgabegeräte, z.B. ein Bildschirm, Symbolisches (Worte oder Zahlen o.Ä.) zeigen. Entscheidend ist: Dieser auf dem Bildschirm erscheinende Output hat Bedeutung nur für den menschlichen Benutzer, nicht für die Maschine, eben weil der Computer in seiner CPU durch völlige Bedeutungsfreiheit gekennzeichnet ist.
Die bisher nur auf Sprache bezogene Grundannahme zum kognitiven Unvermögen von Computern soll nun verallgemeinert werden: Sie gilt für alle Bedeutung tragende Phänomene, also nicht nur für sprachliche, sondern z.B. auch für optische Phänomene. Das soll jetzt bewiesen werden. Analog zur Sprache gilt die Annahme: Soll ein optischer Vorgang kognitiv sein, muss das jeweilige System die Fähigkeit haben, das Phänomen in seiner Innenwelt (beim Computer: in seiner CPU) zu repräsentieren.
Der Phänomentest mit Sascha Lobo
Wir nehmen an, dass eine mit Kamera ausgestattete KI-Maschine dieses Foto macht und auf dem Bildschirm erscheinen läßt:
Die Frage: Hat der Computer die Farbe der Haare erkannt? Die spontane Antwort: "Ja", denn er zeigt die Farbe ja auf seinem Bildschirm! Und schon bewegen wir uns in einer analytisch unsauberen Zone. Warum? In der Beschreibung der maschinellen Leistung steckt ein Denkfehler, entstanden durch einen Rückfall in die Turinglogik. Richtig ist: Wir als Benutzer sehen die Farbe Rot, der Computer sieht die rote Farbe nicht.
Die Beweisführung ist einfach, nämlich durch Rückgriff auf physikalisches Grundwissen. Zur Auffrischung:
Soweit die Physik. Das Entscheidende: Lichtwellen haben eine Länge, aber keine Farbe. Aber wie entsteht dann die Farbe, was passiert also in unserem Kopf, wenn wir die Farbe "Rot" sehen? Hier nur das Grundsätzliche: Die Photonen, die unser Auge erreichen, haben im Falle von "rot" eine Wellenlänge von ca. 700 nm (je nach Färbung des Rots). Diese Photonen werden auf der Netzhaut unseres Auges in elektrische Impulse umgewandelt, von dort in den visuellen Cortex am Hinterkopf transportiert - und erst dann sehen wir etwas (hier: die Farbe Rot). Wir sehen also nicht in dem Moment, wenn die Lichtwellen unser Auge erreichen, sondern Bruchteile von Sekunden später, wenn die konvertierten Photonen eine bestimmte Stelle des Gehirns erreicht haben. Allgemein gesprochen: Wir sehen nicht mit unseren Augen, sondern mit unserem Gehirn. M.a.W.: Lobos Haare auf dem Bild sind nicht rot, sondern werden in unserem Kopf erst rot.
Anders beim Computer: Die Farbe Rot ist dem Computer prinzipiell nicht zugänglich, weil Farben kein Teil der CPU sind und aus physikalischen Gründen auch nicht sein können. Es gibt einfach keine roten, grünen etc. Elektronen, und es gibt in der CPU auch keinen Bereich, in dem - analog zum visuellen Cortex des Gehirns - farblose Elektronen in farbige Objekte umgewandelt werden. Anders gesagt: Der Computer besteht den Phänomentest nicht, d.h. hier: In seiner CPU gibt es keine Farben. Der Ausschluss gilt sogar unter Einschluss seiner peripheren Geräte: auch der Bildschirm erkennt kein Rot, das erst im Kopf des menschlichen Benutzers entsteht.
Diese Argumentation contra Maschine gilt nicht nur für Farben, sondern für alle optischen Merkmale von Objekten. Noch einmal am Beispiel von Lobo. Nehmen wir an, die KI-Maschine macht diese Bemerkung: "Lobos Ohren sind relativ klein." Das stimmt! Aber wiederum weiß der Computer nicht, wovon er redet.
Der einfache Grund: Die Gestalt, die Geometrie der Ohren ist kein Teil der CPU. Anders gesagt: Elektronenfluss hat nichts Ohrenhaftes an sich. So wenig wie der Computer bei den Haaren die Farbe "Rot" erkennt so wenig erkennt er die Form von Ohren. Dieser prinzipielle Mangel an interner Repräsentation von Phänomenen ist gleichbedeutend mit dem prinzipiellen Mangel an geistiger Fähigkeit. Maschinen "intelligent" zu nennen, ist also einmal mehr nur eine Facon de parler.
Die Einzigartigkeit interner Phänomenbildung
Die Fähigkeit zur internen Repräsentation von Phänomenen ist eine einzigartige Fähigkeit biologischer Systeme, die digitalen Maschinen prinzipiell fehlt. Dass Phänomene, also optische, akustische etc. Erscheinungen, tatsächlich interne Angelegenheiten unseres Geistes sind, ist leicht beweisbar. Ein Beispiel ist der Nachttraum. Bekanntlich haben wir beim Träumen die Augen geschlossen, d.h. Photonen der Außenwelt spielen keine Rolle. Und dennoch sehen wir im Traum: Personen, Formen, Farben etc. Ein Beispiel aus meiner eigenen Traumtätigkeit, die nach Freud gelegentlich stark von Wünschen bestimmt ist. Einmal ging es des Nachts mit Pamela Anderson zur Sache, mit allem Pi Pa Po - in Empfindungen, Formen, Farben und Geräuschen voll realistisch. Die Ernüchterung folgte mit dem ersten Augenaufschlag, was aber die vorausgehende Existenz des Geschehens als Phänomen im Geiste unberührt lässt.
Diese interne Bildwelt gibt es auch im Wachzustand: Wir sind in der Lage, uns bei geschlossenen Augen ein Gesicht vorzustellen, auch ein dreidimensionales geometrisches Gebilde, das wir sogar "im Geiste" drehen können. Versuchen Sie es! Das weitergehende Besondere: Was bei geschlossenen Augen vor sich geht, ist hinsichtlich der Wahrnehmung identisch mit Vorgängen bei geöffneten Augen. Der schon geschilderte Vorgang: In dem Moment, wenn wir ein Objekt der Außenwelt sehen, sind die von außen emittierten Photonen auf der Netzhaut schon in elektrische Signale konvertiert worden.
Ein Beispiel: Wenn wir die Sonne sehen, ist ihr Licht im Moment der Wahrnehmung durch die Konvertierung auf der Netzhaut schon ausgeknipst. Im Kopf ist es dunkel, und dennoch sehen wir die Sonne im sichtbaren Bereich des elektromagnetischen Spektrums. Analog sind auch all unsere Gedanken in (!) unserem Kopf als Phänomene (!) - und nicht nur in Form feuernder Neuronen!
Diese Phänomenfähigkeit unseres Geistes gilt auch für das Akustische. Wir können - ohne Schallwellen nach außen zu emittieren - in unserem Geist akustisch vernehmbar sprechen. Wir hören dann unsere eigene Stimme. Ein extremes Beispiel für die interne akustische Phänomenfähigkeit ist der Schizophrene, der Stimmen aus einem ausgeschalteten Radio hört. Die Stimmen gibt es natürlich nicht in der Außenwelt, aber es gibt sie in der geistigen Innenwelt des Schizophrenen, worauf es hier alleine ankommt. All das beweist: Wir haben nicht nur feuernde Neuronen und ihre elektrische "Einheitssprache" in unserem Kopf, sondern konkrete und damit ganz unterschiedliche Phänomene!
Über diese kognitive, geistige Innenwelt verfügt eine Maschine prinzipiell nicht. In technischer Ausdrucksweise: KI-Maschinen haben - im Unterschied zum Menschen - keinen Zugang zur nichtkonvertierten Ursprungsform des jeweiligen Objektes (z.B. zu Lobos realem Kopf in der Außenwelt - eben weil es in der CPU nur Elektronenfluss, aber keine geometrischen Formen gibt).
Den oben kurz umrissenen Phänomentest besteht kein Computer dieser Welt, neuronale Netze, Quantencomputer und Ein-Atom-Transistoren eingeschlossen. M.a.W.: Computer können Phänomene der Außenwelt (optische, sprachliche etc.) nicht kognitiv erfassen, eben weil diese Phänomene niemals Teil ihres Innenlebens, d.h. ihrer CPU sind. Beschränken wir den Intelligenztest wie üblich auf den Output, kommen wir - wie gezeigt - zu absurden Konsequenzen.
Fazit: Computer können (fast) Alles, auch sehr Beeindruckendes (z.B. eine durch einen Schlaganfall gelähmte Hand durch eine Roboterhand mit Greiffähigkeit ersetzen), nur denken können sie nicht. Computer sind kognitiv perfekte Simulanten. Zwingend ist dieser kognitionstheoretische K.O.-Schlag auf dem Hintergrund unserer Definition: Denken ist zeitliche Repräsentation von Bedeutung, eine Fähigkeit, die nur in der internen Struktur auf der Phänomenebene eines Systems verifiziert werden kann. Dass wir in diesem Sinne denken können, wissen wir, warum wir es können, wissen wir nicht.
Anders gesagt: Wir wissen, dass wir Phänomene, z.B. Bilder, in unserem Kopf haben, aber wir wissen nicht, wie sie dort entstehen. Ein völliges Rätsel. Die Hirnforschung hat bisher keinerlei Erklärung dafür. In den Worten eines neurowissenschaftlichen Lehrbuchs: "Auf bislang ungeklärte Weise führt diese ausgedehnte corticale Aktivität zu einer einzelnen, kohärenten Wahrnehmung der visuellen Welt." (Bear, M.F., Connors, B.W., Paradiso, M. A., Neurowissenschaften," 2016). Diese Aporie gilt für alle Sinnesleistungen. Allgemeiner und grundsätzlicher gesagt: Neuronen feuern, denken aber nicht!
Vielleicht hat der Neurophysiologe Emil Du Bois-Reymond mit seiner pessimistischen Einschätzung recht: "Ignorabimus" ("Wir werden es niemals wissen"). Dass Menschen den Phänomentest bestehen, Computer aber nicht, habe ich anderer Stelle auf der Grundlage eines außergewöhnlichen Beispiels umfänglicher und zwingend schlussfolgernd ausgeführt (siehe D’Avis, W., Geisteswissenschaftliche Grundlagen der Naturwissenschaften, 2019). Zum Abschluss ein paar grundsätzliche gesellschaftspolitische Bemerkungen.