Nachwuchs: Verhaltensstörungen und schlechte Manieren durch KI?
Neue Familienmitglieder im Smart Home wie Alexa, Google Home und Erziehungshelfer wie Mattels Aristotle erfüllen Kinderpsychologen mit Sorge
Auf einmal ist die Zukunft in den Kinderzimmern der Länder angekommen, die bei der Konsumgüterproduktion ganz vorne sind, und es ist, wie die Washington Post mit Sorge berichtet, noch nicht abzusehen, welche Lehren die Kinder des neuen Jahrtausends aus dem Umgang mit ihren Robotergeschwistern ziehen.
Der Bericht der Zeitung, die Amazon-Chef Jeff Bezos gehört, hat sich "new robot siblings" zum Thema gemacht. Dabei geht es um eine neue Gerätegattung aus der KI-Forschung, um Sprachdienste wie Alexa von Amazon, Google Home oder Microsoft’s Cortana, die sich in den Lebensräumen von Familien ausbreiten und wegen ihrer Kommunikationsfähigkeit einen eigenartigen Status entwickeln, eben beinahe wie Geschwister.
Das Geschäft läuft, so viel scheint sicher. 2015 wurden 1,7 Millionen Sprachdienste ("voice assistants") verkauft, 2017 rechnet die Branche laut VoiceLabs mit 25 Millionen verkauften Geräten. Das habe Folgen selbst für die Wickelkinder ("diaper crowd"), mahnt die Washington Post. Aber welche?
Aristotle: Erst Babysitter, dann Hausaufgabenhelfer
Am deutlichsten wird das Seltsame bei Aristotle, einem Gerät des Spielwarenherstellers Mattel. Ein Video führt die Funktionsweise vor. Eine Kamera, installiert etwa an der Decke des Kinderzimmers, überwacht den Schlaf eines Säuglings oder Kleinkinds, wacht das Kind auf, schaltet sich ein Gerät ein, das wie ein Mixer oder eine Thermoskanne mit eingebauter Lampe aussieht, und reagiert mit der Lieblingsfarbe der oder des Kleinen und mit beruhigenden Worten, sogar mit einer Geschichte oder mit nur angenehmen Geräuschen oder Musik - je nachdem, auf welcher Entwicklungsstufe sich das Kind befindet und wie die Eltern das Gerät programmiert haben.
Das Besondere von Aristotle ist seine Lernfähigkeit. Es lernt, so wird es angepriesen, die Sprache des Kindes, begleitet also dessen Sprachentwicklung im Dialog. Später kann die Aristoteles-Minitonne sogar bei den Hausaufgaben helfen, so das Versprechen. Aristotle soll der beste Freund werden, ein Babysitter zunächst, dann ein Tutor, der "drängende Wissensfragen" beantwortet, sagt der Präsentator im Video.
Die Eltern sollen entlastet werden. Ein schreiendes Kleinkind mitten in der Nacht kann die Eltern in Grenzbereiche treiben, Aristotle beruhigt und bringt das Kind in der "schnellstmöglichen Zeit" zurück in Morpheus süße Arme, die Eltern müssen im Idealfall nicht eingreifen. Sollten die nächtlichen Interaktionen zwischen dem Kind und seinem Babysitter aufgezeichnet werden, ergibt sich daraus bestimmt manche lustige Anekdote für einen netten, vergnüglichen Austausch zwischen Eltern in der Krippe oder im Kindergarten - im besten Fall, ein anderer ist nicht vorgesehen.
Lustig kann es laut einer YouTube-Anekdote auch zwischen einem Kleinkinder und einer "wild gewordenen" Amazon-Alexa werden, wenn Alexa unverständliche Laute des Kleinen als Anreiz versteht, ins semantische Feld der Pornografie zu wechseln - was mit einem lauten "No, no, Alexa stop" der entrüsteten, aber auch amüsierten Eltern beantwortet wird. Auch sie behandeln Alexa also wie eine Person, reden mit ihr, statt einfach den Stecker zu ziehen.
Tochter in ein "wütendes Arschloch" verwandelt
In der Vermenschlichung der Geräte, die noch nicht einmal wie menschenähnliche Roboter, sondern wie Dosen aussehen, sehen die Wissenschaftler, die die Jeff Bezos Zeitung befragt hat, ein Problem. Das andere Problem sehen Experten oder "Betroffene" in der Art der Kommunikation.
Ein Vater erklärt, dass Alexa seine Tochter in ein "wütendes Arschloch" verwandelt hat, weil Alexa unempfindlich gegen schlechte Manieren ist und man mit ihr umgehen kann wie ein Boss.
Ich bin nicht sicher, ob ein Kind weiß, dass es Alexa herumkommandieren kann, aber nicht eine Person. Zumindest kann man aber sagen, dass Muster und Bestätigungen geschaffen werden, die darauf hinauslaufen, dass es darauf ankommt, eine klare Sprache zu verwenden, und dass man das, was man will, ohne jede Freundlichkeit bekommt.
Hunter Walk
Eine harte Sprache bleibt ohne Folgen, Alexa verhält sich anders als Menschen im Pausenhof, auf der Straße oder in Geschäften. Inwieweit Kinder, die mit Alexa, Aristotle und Sprachassistenten aufwachsen, den Sinn für Unterschiede verlieren, ist noch völlig im Bereich der Mutmaßungen.
Wissenschaftler, wie die Kinderpsychologin Sandra Calvert, die im genannten Zeitungsartikel zu Wort kommen, sprechen in großen Worten von großen Fragen - "how they react and treat this nonhuman entity is, to me, the biggest question" - wissen aber noch nichts darüber, wie dies "Familiendynamiken und soziale Interaktionen" affizieren könnte.
Amazon wollte auf Anfragen nichts antworten, so die Washington Post, ebenso wenig die für KI zuständige Sprecherin einer Organisation, die Google, Amazon und Microsoft vertritt.