Werthern schubst Lotte
Mehr als eine kleine Sensation: Die sprechenden Roboter von Luc Steels haben eine Art Kasus-Grammatik entwickelt
Wenn es jemanden gibt, der auf Teufel komm raus wissen will, unter welchen Bedingungen Sprache floriert, dann Luc Steels. Seit ein paar Jahren experimentiert der KI-Forscher mit kleinen Robotern, so genannten Talking Heads, die er ausgestattet hat mit rudimentären kognitiven Fähigkeiten einerseits und dem Wunsch nach verbalem Austausch andererseits. Scheinbar mit Erfolg: Im New Scientist wurde berichtet, dass Steels'Talking Heads nicht nur in der Lage sind, Wörter zu erfinden, sondern auch so etwas wie eine Grammatik entwickelt haben.
Eine von Robotern erschaffene Grammatik wäre eine kleine Sensation: Seit Generationen streiten Sprachwissenschaftler, Anthropologen, Philosophen, Psychologen und Biologen darüber, ob der Mensch mit einer Grammatik im Kopf geboren wird oder nicht. Befürworter der Vererbungstheorie wie Noam Chomsky und seine Anhänger gehen davon aus, dass jeder Mensch über eine Art Universalgrammatik verfügt. Je nachdem, in welche Sprachgemeinschaft man hineingeboren wird, werde diese Allround-Grammatik den jeweiligen Regeln angepasst. Als Beweis verweist man gern auf die Beobachtung, dass Kinder zu Beginn ihrer Sprech-Karriere quer durch alle Sprachen hindurch verblüffend ähnliche Fehler machen. Außerdem sei laut Chomsky-Schüler Steven Pinker nicht einzusehen, wie Kinder ohne einen angeborenen ‚Sprachinstinkt' sich zurecht finden können im Sprachdschungel, der vor unregelmäßigen Verben, bizarren Pluralformen und obskuren Konstruktionen nur so wimmelt. Die gegnerische Seite vertritt unter Berufung auf den Behavioristen Burrhus Frederic Skinner die Ansicht, alles sei erlernbar, vorausgesetzt man verfüge über Intelligenz, ausreichend viele Beispiele und jemanden, der Fehler korrigiert.
Für Steels ist Intelligenz untrennbar verbunden mit sozialer Interaktion (Vgl. Intelligenz hat mit Interaktionen zwischen Individuen zu tun) außerdem ist er fest davon überzeugt, dass gemeinsame Erlebnisse die Basis jeder Sprachgemeinschaft bilden. Anders ausgedrückt: Wenn es nichts gibt, worüber man sprechen kann, dann braucht man auch keine Sprache zu entwickeln. Sinnliche Erfahrungen in einer realen Umgebung sind deshalb das A und O seines Experiments. Da Autisten jedoch nicht sonderlich kommunikativ sind, bekamen die Talking Heads von Steels nicht nur Körper und Sensoren, sondern auch den Wunsch nach Erfahrungsaustausch mit in die Wiege gelegt.
Zunächst konzentrierten sich Steels' Experimente mit den Talking Heads am Sony Computer Science Laboratory in Paris und seinem Lehrstuhl in Brüssel auf ein Sprachspiel, bei dem es gilt, sich über die gemeinsame Welt - in diesem Fall einfarbige, geometrische Figuren auf einer weißen Wand - zu verständigen. Das klingt einfacher als es ist, denn zu Beginn verfügen die Talking Heads über nicht viel mehr als ein Kameraauge, die Fähigkeit auf Gegenstände zu deuten und den Wunsch nach Kommunikation. Ihr "Gehirn" setzt sich zusammen aus einem Standardmodul, das Text in Sprache verwandelt, einer Speichereinheit sowie einer Bilderkennungssoftware, die das, was das Kameraauge sieht, im Hinblick auf Farbe, Form, Größe, Textur, Position und sonstige Merkmale analysiert. Was das Sprachrepertoire angeht, so besteht es lediglich aus einer Reihe von Lauten. Wie diese verwendet werden, ist in keiner Weise vorgegeben.
Bei dem Ratespiel, an dem jeweils zwei Talking Heads teilnehmen, geht es für die Spieler darum herauszufinden, ob sie über ein und dieselbe Sache sprechen. Zu diesem Zweck wählt einer der beiden Roboter eine der geometrischen Figuren aus der gemeinsamen Umgebung aus und weist den anderen verbal darauf hin, um welche es sich handelt. Spieler Nummer zwei muss erraten, was Spieler Nummer eins meint und seinen Tipp mittels ‚Fingerzeig' abgeben. Sind sich beide Spieler einig, bekommen beide einen Punkt. Versagt die Kommunikation, kann der ‚Sprecher' dem ‚Hörer' per Fingerzeig auf die Sprünge helfen. Dafür gibt es zwar keine Punkte, doch das Vokabular wächst allemal.
In neueren Experimenten wurden die Robos mit komplexeren Situation konfrontiert: Einer Hand, die nach einem Ball greift beispielsweise. Eine große Herausforderung im Vergleich zum Formenraten, schließlich musste nun um die Beziehung zwischen aktiven und passiven Objekten ausgedrückt werden. Die Roboter lösten die Aufgabe auf sensationelle Weise: Sie entwickelten eine Art Kasus-Grammatik und sagten beispielsweise "Push red wa blue ko", was sich übersetzen ließe mit "jemand drückt ein rotes Objekt gegen ein blaues Objekt". Da der Hörer dieselbe Szene beobachtet, kann er folgern, dass die Wörter "wa" und "ko" markieren, welches der Objekte "handelt" und welches "behandelt wird". Langfristig könnten sich daraus grammatikalische Regeln entwickeln, schließlich sind die Sprachroboter auf einen ökonomischen Umgang mit ihrem Sprachspeicher programmiert.
Sensationell ist diese Entwicklung deshalb, weil Kasus-Grammatik nichts anderes bedeutet, als dass jedem Element einer komplexen Äußerung eine bestimmte Rolle zugewiesen wird, und diese Rolle ist unabhängig von der aktuellen Wortstellung. Nimmt man beispielsweise die beiden Sätze "John schubst Mary" und "Mary schubst John", die sich an der Oberfläche nur durch die Abfolge ihrer Elemente unterscheiden, wird schnell klar: Ein kleiner Dreher und die Satzaussage verkehrt sich ins Gegenteil (z.B. "schubst John Mary(?)") oder wird zumindest mehrdeutig (z.B. "John Mary schubst"). Markiert man jedoch wie im Lateinischen oder Deutschen die einzelnen Rollen durch Kasus, besteht unabhängig von der Wortstellung kein Zweifel darüber, wer hier wen anrempelt (vgl. "Werther schubst Lotten" und "Lotten schubst Werther": in beiden Fällen ist "Lotte" das Objekt, andernfalls müsste es heißen: "Lotte schubst Werthern" oder auch "Werthern schubst Lotte").
Beim 4. Kongress zur Evolution der Sprache, der vor kurzem in Harvard stattfand, präsentierte Luc Steels die Ergebnisse seiner Talking-Heads-Experimente. "Er hat etwas völlig Neues gemacht," sagt James Hurford, Leiter der Forschungsabteilung für Evolution and Computation Research Unit an der Universität Edinburgh und Mitorganisator der Harvard-Konferenz. "Er hat tatsächlich echte Roboter dazu gebracht, sich auszutauschen über echte Dinge." Freilich könnte man die Grundausstattung der Talking Heads als sprachliche Prädisposition und damit als genetische Veranlagung bezeichnen. Dennoch würde Steels diese Anlagen nicht mit der von Chomsky propagierten Universalgrammatik gleichsetzen, die ja sehr viel weitreichendere Implikationen hat.
Wie Steels immer wieder betont, geht es ihm nicht darum, den tatsächlichen Ursprüngen der menschlichen Sprache nachzuspüren - was ein ziemlich aussichtsloses Unterfangen wäre angesichts der Tatsache, dass diese Anfänge wohl einige hunderttausend Jahre zurückliegen. Vielmehr will Steels zeigen, wie Sprachentstehung, -verbreitung und -entwicklung theoretisch ablaufen könnte (Vgl.Agenten- und Robotergemeinschaften). "Sprache ist ein komplexes, anpassungsfähiges System," sagt Steels. "Es ist wie ein lebendiges Wesen." Es organisiert und verbreitet sich wie ein Virus. In einem seiner größten Experimente das 1999 in mehreren Städten stattfand, brachten es die 3000 beteiligten Robos auf ein Vokabular von immerhin 8000 Wörtern. Davon waren 300 Begriffe relativ stabil und wurden quasi überall verstanden. Leider musste das Experiment vorzeitig abgebrochen werden, weil es einigen Hackern gelungen war, den öffentlich auftretenden Maschinenwesen Schimpfwörter und üble Flüche beizubringen. Heute meint Steels, er und seine Mitarbeiter wären wohl ein wenig naiv gewesen. Gleichzeitig ermöglichte der Vorfall eine wichtige Beobachtung: je mehr Roboter mit Menschen kommunizieren, desto mehr sprechen sie wie wir.
Diese Annäherung an die menschliche Sprache geht inzwischen recht weit: während den Talking Heads in der Anfangsphase lediglich ein paar grundlegende Laute zur Verfügung standen, können sie inzwischen ihr eigenes Lautrepertoire entwickeln. Stattet man die Talking Heads mit einem realistischen menschlichen Sprechapparat sowie einem virtuellen Ohr aus, dann produzieren sie Töne, die durchaus Ähnlichkeit haben mit menschlichen Äußerungen.