Auf dem Weg zum "maschinellen Selbstbewusstsein"

Roboterarm mit erlerntem Selbstbild. Bild: Hod Lipson/Columbia University

Wissenschaftler stellen weiche Robotern mit weichen Sensoren mit Selbstbild her und einen Roboterarm mit angeblich rudimentärem Selbstbewusstsein

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Ein Wissenschaftlerteam vom BioRobotics Institut in Pisa und von der University of California San Diego berichtet, sie hätten einen Roboter mit einem weichen Finger entwickelt, der in der Lage sei, eine Vorstellung seiner selbst durch maschinelles Lernen zu bilden, wie sie in Science Robotics berichten.

Es geht allerdings erst einmal nur um das Lernen des räumlichen Navigierens im Raum und gegenüber anderen Dingen, was voraussetzt, den eigenen Körper identifizieren und räumlich lokalisieren zu können. Grundlage ist ein flexibles Sensorennetzwerk, das vorerst auf sehr primitiver Ebene die Fähigkeiten zur Selbstwahrnehmung von Menschen nachahmen soll. Wissenschaftler der University of Columbia behaupten hingegen, wie sie ebenfalls in Science Robotics berichten, mit einem Roboterarm den Ansatz eines "maschinellen Selbstbewusstseins" entwickelt zu haben.

Bislang können Roboter, also KI-Systeme mit einem materiellen starren Körper im Raum, noch kein Bild ihrer selbst erschaffen. Um ein Konzept ihrer selbst (Propriozeption), die Repräsentation der Umwelt und ihrem Ort im Raum sowie ihr räumliches Verhältnis zu anderen Dingen und Personen zu entwickeln, ist neben den propiozeptiven, visuellen, taktilen etc. Sensoren die Implementierung eines entsprechenden Modells oder zeitaufwändiges Versuch-und-Irrtum-Verhalten notwendig.

Der weiche Roboterfinger. Bild: University of California San Diego

Im Hintergrund der Forschung des italienisch-amerikanischen Teams steht die Entwicklung von "weichen Robotern" (soft robots) aus weichen, dehnbaren Materialien, die nicht nur wie die biologische "Wetware" vielfältige Bewegungen ausführen und Belastungen aushalten können, sondern mit empfindlichen Dingen oder auch, etwa als Pflegeroboter, mit Menschen sicher umgehen können. Dazu müssten sie erfassen, wie sie mit ihrem Körper auf weiche Materialien oder weiche Körper einwirken, um dadurch zu vermeiden, diese zu beschädigen oder zu verletzen.

Aber die bislang verwendeten starren Sensoren funktionieren bei "weichen Robotern" nicht gut, schreiben die Wissenschaftler, aber auch weiche Sensoren, die meist aus Nanokompositen hergestellt werden, lassen sich, weil sie mitunter nichtlineares, zeitabhängiges Verhalten zeigen und bei Kontakt ihre Form verändern, nicht gut modellieren. Ganz schwierig sei es, für "weiche Roboter" eine multimodale Wahrnehmung zu ermöglichen, beispielsweise für eine bewegliche Hand, die gleichzeitig ihre Bewegungskonfiguration und die auf sie einwirkenden äußeren Kräfte abschätzt.

Zur versuchten Nachahmung der menschlichen Wahrnehmung haben die Wissenschaftler ein Bewegungserfassungssystem mit zwei Kameras zum Tracken, das für Sehen steht, mit einem neuronalen Netzwerk (Gehirn), drei Sensoren und einen weichen Finger für den mit der Außenwelt interagierenden Körper kombiniert. Das Bewegungserfassungssystem sei nur notwendig, um den Finger zu trainieren, und könne nach dem Ende des Trainings entfernt werden. Mit dem Ansatz könne man ganz unterschiedliche Aktuatoren und Sensoren trainieren. Mit seinem Finger, eingebauten, nichtlinearen und unregelmäßig geformten Dehnungssensoren und maschinellem Lernen durch zufällige Bewegungen und dem Treffen auf Hindernisse konnte eine räumliche Pseudo-Selbstwahrnehmung gebildet werden. Erlernt wurden so die Bewegungen des Fingers und der Druck, der auf ihn ausgeübt wird.

Die Wissenschaftler hoffen mit ihrem Ansatz, neue und verlässliche Modelle entwickeln zu können, mit denen sich für sich bewegende weiche Robotersysteme Kräfte und Deformationen vorhersagen lassen. Das wiederum würde das Design, die Herstellung und Platzierung von Sensoren für weiche Roboter verbessern.

Für den lernenden Roboterarm wurden noch unabhängige externe Sensoren, also die Kameras, für den Feedback verwendet. Bei Anwendungen in der wirklichen Welt müssten diese wegfallen und verinnert werden, also zu Augen und Ohren werden. Überdies müssten viele andere sensorische Modalitäten wie Trägheitssensoren und Kraftsensoren integriert werden. Selbst bei dem einfachen Roboterfingersystem werden grundsätzliche biologische Bedingungen nicht realisiert, wie die Wissenschaftler einräumen: "Wenn das ganze System sich permanent körperlich verändert, beispielsweise wächst, steifer wird und das Material verschleißt, würde das lernende Modell Verzerrungen zeigen", schreiben sie.

Auf dem Weg zu einem "maschinellen Selbstbewusstsein"?

Mit einem weitgehenderen Anspruch haben Wissenschaftler der Columbia University einen Roboterarm trainiert. Sie ließen den Roboterarm mit einer Bewegungsfreiheit von vier Freiheitsgraden zunächst 1000 Mal zufällig bewegen. Aus den Trajektorien, die jeweils 100 Positionsdaten umfassten, entwickelte der Roboter bzw. das neuronale Netzwerk nach 35 Stunden Ausprobieren ein Selbstmodell. Das sei so ähnlich wie bei einem Baby, das seine Hände beobachtet.

Mit seinem erlernten Selbstbild konnte der Roboterarm die Aufgabe, kleine Bälle zu ergreifen und an einem bestimmten Platz abzulegen, ausführen. Das Ergreifen war zwar nur zu 44 Prozent richtig, das Ablegen allerdings zu 100 Prozent, die Fehler hätten aber nicht mit dem Selbstmodell, sondern mit dem Bewegungsplanungsprozess zu tun. Mitautor Robert Kwiatkowski vergleicht die Schwierigkeit damit, mit geschlossenen Augen ein Wasserglas zu ergreifen.

An eine plötzliche Veränderung/Deformation kann sich das Selbstbild schnell anpassen. Bild: Hod Lipson/Columbia University

Mit der erlernten Selbstwahrnehmung kann er sich angeblich schnell in neuen Umgebungen ohne ein Vorwissen oder ein Weltmodell orientieren und sich korrigieren. So wurde ein längeres Teil des Roboterarms eingefügt, woran der Roboter schnell das Selbstbild anpasste und damit unter den neuen Bedingungen Aufgaben durchführen konnte.

Wenn Roboter unabhängig oder autonom werden sollen, müssen sie, so Hod Lipson, einer der Autoren, schnell neue Szenarien für nicht vorhergesehene Situationen entwickeln können. Dazu sei ein hybrides Vorgehen gut, sagen die Wissenschaftler. In der Regel würden Robotikwissenschaftler entweder freies Lernen oder Kontrolle durch ein Modell präferieren. Ihre Methode bestehe hingegen darin, ein Selbstbild aufzubauen und zu verfeinern, das dem Roboter ermöglichen soll, unterschiedliche Aufgaben in unterschiedlichen Umgebungen schneller zu lernen.

Lipson gibt sich jedenfalls überzeugt, dass zwar das Selbstbild des Roboters im Vergleich zu Menschen sehr einfach ist, aber dass sie damit den Weg zur Ausbildung eines "maschinellen Selbstbewusstseins" gezeigt hätten. Wenn Roboter mehr Selbstbewusstsein ausbilden könnten, ließen sich solche mit größerer Autonomie und Anpassungsfähigkeit entwickeln. Diese Trennung von der Selbstwahrnehmung und der Aufgabe sei vielleicht auch der evolutionäre Ursprung des Selbstbewusstseins bei Menschen gewesen.

Aber das könne auch zum Problem werden, fügen die Wissenschaftler sicherheitshalber hinzu: "Selbstwahrnehmung wird zu adaptiveren und resilienteren Systemen führen, aber das impliziert auch den Verlust der Kontrolle. Es ist eine mächtige Technik, mit der vorsichtig umgegangen werden muss."