Ein künstliches Bewusstsein aus einfachen Aussagen
Mit der Hilfe von Internetbenutzern, die finanziell am Unternehmen beteiligt werden, soll eine Datenbank mit Common-Sense-Wissen, ähnlich wie Cyc, kollektiv aufgebaut werden
Ein Künstliches Bewusstsein will der Computer- und KI-Wissenschaftler Chris McKinstry schaffen, und zwar mit der Hilfe von möglichst vielen Menschen, die sich an diesem ehrgeizigen Projekt beteiligen sollen und damit gleichzeitig je nach Größe ihres Beitrags zum Miteigentümer der daraus entspringenden Datenbank werden. Ansonsten ist der Kanadier am Very Large Telescope (VLT) der ESO und am OverWhelmingly Large telescope (OWL) tätig, schreibt KI-Programme, mit denen er am Loebner-Wettbewerb teilnimmt, und tritt auch schon mal an Hackertreffen wie H2K auf, um seine Ideen über das Hacken des Bewusstseins oder der Biologie (BioHacking) vorzustellen.
McKinstry, der sich selbst als Hacker versteht, findet es persönlich interessanter, den menschlichen Geist zu hacken und die Geheimnisse des Bewusstseins durch Reverse Engineering zu knacken, als in die Computersysteme des CIA oder des Pentagon einzudringen. Mit seinem Anfang Juli gestarteten GAC-Projekt (Generic Artificial Consciousness) will er neuen Wind in die KI-Forschung bringen, das seit langem betriebene Projekt Cyc aus den Angeln heben und mit einer Datenbank, die schließlich das gesamte und wirklich von allen geteilte Common Sense-Wissen der Menschen enthalten soll, ein nützliches und vielleicht auch profitables Trainingsfeld bereitstellen, durch das neuronale Netze künftig in den Zustand des wahren Künstlichen Bewusstseins gehoben werden.
McKinstry fährt gegen das nun schon seit 20 Jahren von MCC begonnene und jetzt von Cycorp weiter unter der Leitung von Doug Lenat betriebene enzyklopädische Projekt Cyc schwere ideologische Kanonen auf. Cyc ist letztlich ein Produkt noch der "alten", nicht vom AL-Ansatz - wie beispielsweise Cog oder Kismet vom MIT - geprägten KI-Forschung auf der symbolischen Ebene der natürlichen Sprache. Es handelt sich bei Cyc (von en-cyc-lopedia) um einen GOFAI-Ansatz (Good-Old-Fashioned-Artificial-Intelligence), um den Aufbau einer riesigen, multi-kontextuellen Wissensdatenbank, die miteinander verknüpfte Tatsachen, Regeln und heuristische Überlegungen zu Objekten und Ereignissen des Alltagslebens enthält, wobei sich durch Deduktion neue Aussagen ableiten lassen.
Das Wissen über die Welt in Cyc wird in der Form von logischen Aussagen repräsentiert. Dabei geht es vornehmlich um ganz selbstverständliches, meist gar nicht explizit vermitteltes Wissen, also beispielsweise, dass es gut ist, ein mit Wasser gefülltes Glas gerade zu halten, wenn es nicht verschüttet werden soll, oder dass Menschen nichts mehr einkaufen werden, wenn sie einmal gestorben sind. Experten aus unterschiedlichen Bereichen füttern Cyc permanent mit neuen Informationen. Cyc kann unterschiedliche Informationen bei Abfragen verknüpfen und abgleichen oder etwas suchen, auch wenn die Angaben nur ungenau sind. Bislang gesammelt wurden an die eine Million Aussagen. Mit dem gesammelten semantischen, in vielen Ebenen angeordneten Common-Sense-Wissen soll etwa die Grundlage zum Aufbau von flexibleren Expertensysteme gelegt werden. Zukunftsvision ist natürlich, dass irgendwann Cyc zu einem autonomen System der Künstlichen Intelligenz wird, das selbständig Informationen sammelt und verarbeitet, also lernt. Cyc soll verstehen, was auf der von Menschen bewohnten Welt vor sich geht und den Menschen durch Rat helfen können.
Es gibt mittlerweile auch erste Anwendungen in Cyc-basierten Programmen oder Suchmaschinen, wovon man sich eine "nukleare Explosion der Infromationen, die in die Wissensdatenbank von Cyc gepumpt werden", erwartet. So bietet Cycorp e-Cycwww.e-Cyc.com, eine Suchmaschine in Zusammenarbeit mit Lycos (beta.hotbot.com/) an, die durch den Rückgriff auf das Common-Sense-Wissen besser und genauer funktionieren soll. Auch Browser selbst sollen künftig mit Cyc ausgestattet werden, um neue Informationen zu sammeln oder um auf für ihn falsche Aussagen hinzuweisen. Dann kann der Benutzer einen "Teach Me"-Knopf drücken und mit Cyc in ein Gespräch einsteigen, durch das das Programm etwas Neues erfährt: "Cyc wird durch dieses Informationsmeer surfen und Dinge herausholen, die es nicht mag oder unwichtig findet. Meist jedoch werden die Informationen direkt in die immer größer werdende Wissensdatenbank von Cyc aufgenommen.
Und weil es gerade chic ist und viele darauf setzen, soll damit Cyc als "Cyc-at-Large" der Allgemeinheit der Internetbenutzer geöffnet werden, um "exponentiell" intelligenter zu werden, da dann im Prinzip jeder zum eingebenden Experten werden kann. Vorgesehen war die "nukleare Explosion" allerdings bereits für Januar, und bis heute ist nicht mehr viel geschehen.
Da ist immerhin McKinstry mit seinem GAC oder MindPixel Digital Mind-Projekt weiter, denn GAC dürfen schon jetzt die Internetbenutzer mit den "Mindpixeln" in verschiedenen Sprachen füttern. Das sind Aussagen, die normalerweise alle zu jeder Zeit und an jedem Ort mit Ja oder Nein beantworten, z.B. "Wasser ist nass: stimmt" oder "2 + 2 ist auf dem Mars 5: falsch". Wer einen Mindpixel eingibt, muss im Gegenzug 20 zufällig ausgewählte Mindpixel von anderen validieren, die bereits eingereicht wurden. Mindpixel sind "minimale intelligente Signale".
Als Unternehmen, an die Mitwirkenden beteiligt werden, will sich offenbar Cycorp nicht sehen, gleichwohl intendiert man eben auch, zu möglichst geringen Kosten die Arbeitsleistung der Internetbenutzer abzugreifen. Von daher ist McKinstrys Kritik, dass Cyc im Gegensatz zu GAC mit einem maximal großen und minimal von Expertenwissen geprägten Team ein altbackenes Top-Down-Unternehmen mit einer Handvoll von möglichst schlauen Experten sei, nicht ganz berechtigt: "Cyc frisst Geld; Millionen und Millionen von Dollars, die anderen Menschen gehören, und bietet dafür sehr wenig, während GAC nichts außer der Zeit für die Mitwirkenden kostet. Kurz: Gac und das MindPixel Digital Mind Modeling Project entsprechen der Form, wie man im Internet dasselbe macht, was Cyc so viele Jahre bereits versucht."
Bescheidenheit zählt auch nicht gerade zu McKinstrys Tugenden, wenn er sagt, dass GAC am ersten Tag bereits mehr gelernt habe, wie es ist, ein Mensch zu sein, als dies Cyc jemals vermag, solange der Prozess der Informationsverknüpfung nicht automatisiert werde: "Um eine umfassende Datenbank mit den übereinstimmenden Annahmen der Menschen zu schaffen, muss eine große Zahl von Menschen zusammen arbeiten. Um all die unterschiedlichen Fakten zu verknüpfen, müssen wir dies automatisch, statistisch, machen, genauso wie dies der menschliche Geist macht."
Vorbild für GAC ist einmal wieder Seti@home, allerdings meint McKinstry, dass er nicht auf die Rechenkapazität, sondern auf die Menschen aus sei: Wir versuchen, den ganzen Inhalt des Geistes eines Durchschnittsmenschenbuchstäblich Bit für Bit aus Millionen von Internetbenutzern zu extrahieren. Wir versuchen nicht, den Algorithmus für das Bewusstsein zu schreiben, sondern den weltweit strengsten Fitnesstest zu schaffen und ihn Wissenschaftlern zu übergeben, die versuchen, Systeme zu bauen, die lernen oder evolutionär Bewusstsein erlangen, indem sie sich durch Feedback-Zirkel mit diesem Fitnesstest abgleichen."
Seti@home ist für McKinstry zwar einer der "beeindruckendsten Demonstrationen, wie sich die wissenschaftliche Welt gewandelt hat", wenn zwei Millionen Menschen an einer wissenschaftlichen Aufgabe gemeinsam arbeiten, aber er versteht nicht, warum beispielsweise nicht mit Werbung Geld verdient wird, das man an die Mitwirkenden meritokratisch, also je nach Leistung, verteilen könnte. Das will er anders machen. Gac soll ein Unternehmen werden, das sozialistisch den Mitarbeitern gehören soll: "Da die Welt GAC herstellt, gehört GAC der Welt ... Die Menschen, die mit GAC sprechen, besitzen diese Site und alles, was dazu gehört."
Die Herstellung von Mindpixeln sei schließlich harte Arbeit, die entlohnt werden müsse. Vor dem Web hätte man Leute von der Straße in ein Büro holen müssen, rechnet McKinstry vor, und sie dort die Eingaben machen lassen müssen. Wenn eine Durchschnittsperson pro Stunde 60 Mindpixel eingibt und die Gesamtkosten für die Menschen, das Büro und die Geräte mit 15 Dollar pro Stunde angesetzt werden, dann habe ein validierter Mindpixel einen Wert von 0,25 Dollar. Eine Milliarde Mindpixel wären dann mindestens 250 Millionen Dollar wert. Geld kann McKinstry nicht zahlen, aber will pro Mindpixel und überprüfter Mindpixel Anteile ausgeben, und hofft durch Werbung und schließlich durch Anwendungen Geld zu verdienen. Je nach der Menge der verdienten Anteile dürfen die Mitwirkenden dann auch bestimmen, wie das eingenommene Geld ausgegeben wird. Damit der Blödsinn nicht überhand nimmt oder Menschen einfach Unsinniges eingeben, wurde ein "Qualitätsfilter" eingeführt, der wiederum von allen Mitwirkenden ausgeführt wird. Belohnt werden sowieso nur die validierten Aussagen, und besser fährt man noch bei solchen Mindpixeln, die als außergewöhnlich klassifiziert werden. Wie weit Blödsinn, Scherze und Betrügereien auch zum Common-Sense-Wissen von Menschen und so auch von Systemen gehören sollen, die die Intelligenz der Menschen imitieren, wird allerdings nicht diskutiert.
Ob freilich durch eine Anhäufung von Aussagen, die Durchschnittsmenschen mit Ja oder Nein beantworten, auch nur irgendetwas ähnliches wie menschliche Intelligenz oder gar menschliches Bewusstsein entsteht, bleibt erst einmal Hypothese - und sehr fraglich. Bewusstsein besteht ja nicht nur aus Aussagen, und hat auch nichts mit irgendeiner Form von Vollständigkeit zu tun. Das "persönliche Zeug" soll ja explizit aus der Datenbank ausgeschlossen werden, was die Frage entstehen lässt, ob es so etwas wie ein unpersönliches Bewusstsein überhaupt geben kann. Auch wenn McKinstry meint, dass eine komprimierte Fassung des Inhalts eines durchschnittlichen menschlichen Bewusstseins ausreiche, um dann vom Computer die Lücken ergänzen zu lassen, so scheint diese Hoffnung doch etwas naiv zu sein. Doug Lenat von Cyc ist der Meinung, dass es schlicht zu viele mögliche Ja-Nein-Aussagen, um daraus eine sinnvolle Datenbank zu erzeugen. Tatsächlich lassen sich viele Aussagen allein durch Negationen erzeugen: Gras ist nicht blau, weiß, schwarz etc. Unendlich viele Möglichkeiten scheint es auch für Aussagen zu geben, die nicht universell mit Ja oder Nein beantwortet werden: Ist Telepolis gut, irgendjemand intelligent/dumm/schön/hässlich oder leben Insekten im Wasser? Dem angestrebten "Durchschnittsbewusstein" entgeht zumindest viel auf der Welt und ist wahrscheinlich eine Chimäre, was der teilweisen Nützlichkeit einer solchen Common-Sense-Datenbank nicht jeden Wert abstreiten muss.
Zumindest zum Ausprobieren haben sich bei GAC schon einmal Tausende von Menschen registrieren lassen. Ob sie an den Erfolg oder gar an den möglichen Verdienst glauben, ist eine andere Frage. So nebenbei wie bei Seti@home oder Golem@home kann man hier allerdings nicht partizipieren, da die eigene Rechenkapazität und Aufmerksamkeit gefordert ist. Daher ist zu erwarten, dass der Zulauf auch geringer ausfallen dürfte. Aber möglicherweise wird dadurch einmal wieder eine Diskussion über Künstliche Intelligenz oder Künstliches Leben angestoßen, gerade weil GAC den Eindruck erweckt, ein GOFAI-Projekt (Good-Old-Fashioned-Artificial-Intelligence) zu sein. Doch CAG entspricht zumindest dem Zeitgeist: die Menschen üben sich bereits in den vielen Quizsendungen wie Günter Jauchs "Wer wird Millionär?" in Fragen- und Antwortenwelten, die GAC entsprechen.