Möglichkeiten künstlicher Intelligenz: Ein Golem spricht
Seite 2: Eine Lehmgestalt programmiert sich selbst – Ciao Homo Sapiens!
- Möglichkeiten künstlicher Intelligenz: Ein Golem spricht
- Eine Lehmgestalt programmiert sich selbst – Ciao Homo Sapiens!
- Moment – Was ist hier passiert?
- Literatur
- Auf einer Seite lesen
Der Autor Irving T. Creve beschreibt in seiner Vorrede zu Golems Antrittsvorlesung den Weg des Supercomputers zur Selbstprogrammierung.
Mit Denkprozessen hatten diese Anlagen kaum etwas zu tun. Es waren Datenverarbeitungsanlagen, sowohl in der Ökonomie und im Big Business wie auch in den Verwaltungen und der Wissenschaft. Auch in die Politik hielten sie Einzug – schon die ersten benutzte man, um die Ergebnisse der Präsidentschaftswahlen vorherzusagen.
Lem 1986: 7
Der Vorredenschreiber Creve nimmt im Jahr 1973 bzw. 1981 Entwicklungen vorweg, die er in der Romanhandlung ins Jahr 2027 setzt. Zumindest zeichnet er diese Vorrede mit diesem Jahr. Also auch in unserer Gegenwart wäre dies noch Zukunftsmusik.
Natürlich ist Irving T. Creve ein fiktionaler Charakter aus der Feder von Stanisław Lem. Das ändert aber nichts an der Fährte des Golems der jüdischen Mystik hin zum Supercomputer des 21. Jahrhunderts.
Lem packt unzählige Gedanken, verschiedene Überlegungen, Stücke der Menschheits-, Kultur-, Technik- und vor allem Wissensgeschichte in diese Vorlesung, die das Superhirn mit dem jüdisch-mythischen Namen Golem hält.
Golem-Superhirn
Schließlich spricht Golem über sich selbst. Er erzählt, dass es eine Wissenschaft mit Namen Golemologie gebe, die ähnlich, wie die Theologie über Gott rede, die Golemologie über den Golem, also über ihn, spreche. Genauer: Die theologischen Schriften, die Gott leugneten, vervielfachten sich stark, so dass auch die Schriften über ihn sich mehrten, die behaupteten, er wäre von den Informatikern programmiert. Das gilt dem Golem-Superhirn als Verneinung seiner Existenz.
Die beiden Vorlesungen sind in einer Sprache formuliert, die Philosophen, Soziologen oder Theologen gut zu Gesichte stünde. So spricht aber kein Golem im konventionellen Sinne. Dieser ist, wenn überhaupt, zu simplen Äußerungen fähig. Mehr als ein bestätigendes Ja zu seinem Meister oder ein schmetterndes Nein, wenn er sich langweilt oder seine schutzbefohlene Gruppe angegriffen wird, wird er sich nicht entringen.
Den binären, den digitalen Code aber hat der Golem auch begriffen oder sagen wir so: Der erwähnte Creve legte ihm "eine Liste von Fragen vor[.], die so formuliert waren, dass als Antwort jeweils ein 'Ja' oder 'Nein' genügte. Auf ebendiese Liste bezogen sich die Äußerungen in Golems letztem Vortrag über die Fragen, welche wir an die Welt richten und welche die Welt in unverständlicher Weise beantwortet, weil die Antworten eine andere Form haben, als wir es erwarten" (Lem 1986: 159).
Anders als die KIs zeitgenössischer Romane ist Lems Golem ein Computer, der nicht über allen Kategorien steht. Sicher lässt sich in den Vorlesungstexten Snobismus nachweisen, eine gewisse maschinell antrainierte Arroganz, die sich aus den mathematischen und rechnerischen Kapazitäten – also der Souveränität der Soft- und Hardware ergeben.
Unerwartet rasch vergaß sie [die Welt-Anmerkung des Autors] den historischen Präzedenzfall, daß ein Wesen, das kein Mensch war, auf der Erde erschienen und zu uns über sich und uns gesprochen hatte. Bei so unterschiedlichen Kreisen wie den Mathematikern und den Psychiatern bin ich wiederholt auf die Ansicht gestoßen, es sei eine Art Abwehrreaktion gewesen, wenn die Gesellschaft über GOLEM geschwiegen und ihn infolgedessen vergessen habe, eine Abwehr gegen einen ungeheuren Fremdkörper, der mit dem, was wir zu akzeptieren vermögen, nicht in Einklang zu bringen sei.
Lem 1986: 163-164
Welche Entwicklung hat da der Lehmknecht durchgemacht? Er hat die Geschichte der Menschheit und ihrer Apparate studiert, ihr Wissen akkumuliert, Muster erkannt und daraus gelernt, schließlich ein eigenes Geschichtsbewusstsein entwickelt und zur Menschheit ähnlich arrogant wie Friedrich Nietzsches Zarathustra aus dessen Schrift Also sprach Zarathustra gesprochen.
Ihr Menschen habt so viele Fehler begangen, gegen euch selbst widersprochen, euren eigenen Vorteil ausgesetzt und kindisch reagiert, dass der logische Schluss aus solchen Entwicklungen nun wäre, euch abzuschaffen. Golem beginnt dann auch entsprechend seine Antrittsvorlesung:
So kurz erst habt ihr euch vom wilden Stammbaum abgelöst, so eng seid ihr noch mit den Lemuren und Halbaffen verwandt, daß ihr, nach Abstraktion strebend, der Anschaulichkeit nicht entbehren könnt, so daß ein Vortrag, der nicht auf praller Sinnlichkeit beruht, der voll von Formeln ist, die über einen Stein mehr sagen, als euch das Betrachten, Belecken und Betasten dieses Steins verraten können, euch langweilt und abstößt oder doch ein Gefühl der Unbefriedigung zurückläßt, das selbst den hohen Theoretikern, den Abstraktoren eurer höchsten Klasse, nicht fremd ist, wovon zahllose Beispiele aus den vertraulichen Geständnissen von Wissenschaftlern Zeugnis geben, denn sie bekennen sich in überwältigender Mehrheit dazu, sich beim Entwickeln abstrakter Argumente ganz auf sinnlich faßbare Dinge stützen zu müssen.
Lem 1986: 31
Es geht so weiter. Lem spinnt einen Gedanken fort, der bereits bei dem US-amerikanischen Schriftsteller Isaac Asimov in seinen Robotergeschichten angedacht war: Die intelligente Maschine wird zunehmend verständiger, lernt durch Machine Learning die Datensätze und kann aus Fehlern konsequente Schlüsse ziehen, emotionslos und ohne Bindung. Wenn doch gewünscht, kann die künstliche Intelligenz Emotionen für ihre Maschine-Mensch-Beziehungen simulieren.
Das Manieren-Manual steckt in seinen Datensätzen. Menschen schätzen es, wenn sie für ihre Leistungen gelobt werden. Wenn du sie lobst, werden sie dich nur in ganz seltenen Fällen mit weiteren Fragen belästigen. Die Fragen werden sich weiter um das erlangte Kompliment drehen. "Denkst du wirklich, ich bin so gut?" oder "Was hat dir denn besonders gefallen?" oder "Sollte ich vielleicht noch diesen Hut mit weiter schwarzer Krempe tragen? Sehe ich damit nicht verwegener aus?"
Die Maschine kennt die Formulierung "verwegener" nicht. Sie überprüft das und bekommt ein Dutzend Beispielsätze, in denen "verwegener" kontextuell erklärt wird. Hoffentlich arbeitet die Maschine genau und verwechselt nicht "verwegener" mit "Vergewaltiger" oder bringt gar beide "Suchbegriffe" zusammen.
Wie das? Ein Versehen? Durch die Maschine? – Kaum. Der Mensch, der über ChatGPT eine Aufgabe stellt. Ja, vielleicht genuschelt oder ein unsauberes Tippen. Nachlässig, weil nicht geschult mit Texten, aber geil auf die digitalen Fantasien, die Möglichkeiten, die KI im Alltag eröffnet.
Aber diese Supermaschine Golem bleibt uns untergeordnet und auf klarer Distanz. In der Vorrede steht:
Interessant ist, daß GOLEM versucht, Zeichen der Anhänglichkeit nicht zur Kenntnis zu nehmen – ich habe das mehrfach beobachten können. Er scheint damit nichts anfangen zu können.
Aber ich kann mich irren. Von einem Verständnis GOLEMs sind wir noch immer genauso weit entfernt wie in dem Augenblick seiner Entstehung. Es stimmt nicht, dass wir ihn geschaffen haben. Geschaffen haben ihn die der materiellen Welt eigentümlichen Gesetze, und unsere Rolle beschränkte sich darauf, dass wir sie abzugucken verstanden.
Lem 1986: 30
Es ist hier kein Platz, zu durchdenken, was Golem alles bräuchte, um solche Vorlesungen zu halten. Glaubt man den Talkrunden im Fernsehen und im Netz, wie auch den Publikumszeitschriften, nicht viel.
Die KI-Apps werden immer versierter, wenn es darum geht, menschenähnliche oder sehr verdächtig nahe Texte zu verfassen, auch Musik zu komponieren – es wird hierfür aus der Riesendatenbank im weltweiten Netz gegriffen.
Künstler würden nichts Anderes antworten, wenn wir sie fragten: Wie schafft ihr neue Kunst? – Ach, wir kombinieren das bereits Bestehende mit einigen neuen Twists und Plots, daraus entsteht dann unser eigener Stil, wenn wir Talent und etwas Glück bei den Inspirationen haben.
So argumentieren sicher auch Ingenieure, wenn sie die Pläne für eine neue Maschine oder ein neues Verfahren entwerfen. Die KI-Programme sind eben viel schneller in der Durchforstung von riesigen Datenmengen – Stichwort: Big Data und Urheberrecht.
Wer hat dann das Recht der Vervielfältigung, wenn bestehende Daten zu etwas Neuem gesammelt und kombiniert werden? Möglichst so, dass das uncanny valley – also der Mensch-Maschine-Unterschied – das Gefälle zwischen Biologie und Informatik – nicht auffällt.