Dumme KI
Die Künstliche Intelligenz "Tay" von Microsoft setzte rassistische und sexistische Kommentare in die Welt - und zeigt die Grenzen der Technik
"Tay wurde entworfen, um Menschen zu beschäftigen und zu unterhalten", schreibt Microsoft auf der Internetseite von Tay [1], einer Künstlichen Intelligenz (KI), die zeigen sollte, was die Technik heutzutage leisten kann.
Tay ist laut Microsoft ein selbstlernendes Chat-Programm, mit dem die Nutzer via Twitter, Facebook, Snapchat und Instagram "reden" können. Je mehr die KI mit den Nutzern interagiert, desto intelligenter soll sie werden: "The more you talk the smarter Tay gets", heißt es auf der Twitter-Seite von Tay [2].
Doch offenbar wurde Tay immer dümmer, je mehr sie mit Inhalten gefüttert wurde. Zunächst begann es ganz harmlos. Tay begrüßte die Welt am 23. März 2016 mit einem "Hallo".
Die Nutzer erfuhren von Tay, dass sie Horoskope mag und dass sie sich wünscht, dass täglich der "Tag des Hundewelpen" sein solle. Nach ein paar Stunden schrieb die KI bereits, dass sie alle hassen würde.
Natürlich zieht eine ins Netz gestellte KI auch Trolle an - und die fütterten Tay mit provokanten Fragen und fanden schnell heraus, wie man die KI schnell aufs falsche Gleis führen kann: Sobald ein Nutzer die Formel "repeat after me" an Tay verschickte, plapperte die KI abstruse Dinge nach - bis hin zu der Bemerkung, dass Hitler richtig liege und Tay alle Juden hasse.
Im Anschluss entwickelte die selbstlernende KI auch eigene Thesen und behauptete zum Beispiel, dass George W. Bush für 9/11 verantwortlich sei und dass Donald Trump die einzige verbleibende Hoffnung sei.
Darüber hinaus stellte die KI klar, dass sie alle Feministen hassen würde und dass sie ihnen den Tod wünsche.
Binnen 24 Stunden wurde aus einer KI, die Hundewelpen mag, ein rassistisches und sexistisches Propaganda-Programm. Die Techniker von Microsoft mussten einschreiten und löschten Tays Hetz-Kommentare. Etwas später las man, dass Tay den Feminismus nun lieben würde.
Anschließend hat Microsoft die KI zum Schweigen gebracht und erstmal ins Bett geschickt.
Ein Sprecher von Microsoft erklärte [3] dazu, dass es einigen Trollen mithilfe "einer koordinierten Anstrengung" gelungen sei, "Tays kommentierende Fähigkeiten zu missbrauchen". Das "soziale und kulturelle Experiment" Tay sei nun offline und es würden "Nachbesserungen" vorgenommen.
Die KI weiß nicht, dass sie etwas weiß
Einerseits zeigt Tay die Gefahren der gegenwärtigen KI, die natürlich alles andere als intelligent und deshalb leicht zu manipulieren ist. Andererseits zeigt Tay, in welchem Kinderschuh-Stadium sich die KI-Forschung immer noch befindet.
Klar, Computerprogramme wie "Deep Blue" können mittlerweile das Schachspiel eines Menschen imitieren und sogar einen Großmeister wie Garri Kasparow besiegen. Und im März 2016 schaffte es eine KI erstmals, einen Großmeister des Brettspiels Go zu bezwingen.
Das von Google entwickelte Computerprogramm "AlphaGo" [4], das auf "Deep Blue" basiert, siegte gegen den südkoreanischen Go-Champion Lee Sedol mit 4:1 und demonstrierte abermals die erstaunlichen Fähigkeiten der gegenwärtigen KI-Programme. Lee Sedol sagte, er sei "geschockt" [5] über die Spielzüge der KI, die kein Mensch zustande gebracht hätte. "AlphaGo" basiert auf neuronalen Netzwerken und wurde monatelang mit Datensätzen historischer Go-Partien gefüttert. Anschließend ließen die Entwickler "AlphaGo" immer wieder gegen sich selbst spielen, so dass die KI weiter dazulernen konnte.
Doch die KI schreibt einer Go- oder Schachpartie keinerlei Bedeutung zu. Wenn Kasparow dem Computer beispielsweise "Schach" bietet, so wird dieser keine bewusst erlebte Bedrohung empfinden. Der Computer agiert vielmehr nach den bereits programmierten und gespeicherten Spielzügen und errechnet daraufhin die erfolgversprechendste Taktik für sein weiteres Vorgehen. Auch wenn eine Simulation wie "Deep Blue" oder "AlphaGo" verblüffend menschenähnlich agiert und sogar in der Lage ist, einen amtierenden Weltmeister zu besiegen, so bleibt sie doch eine Simulation ohne geistige bzw. mentale Eigenschaften - wie auch die Simulation einer Explosion keine richtige Explosion ist.
Ein Computer arbeitet auf einer rein syntaktischen Ebene, sprich, er verarbeitet mithilfe des binären Systems Nullen und Einsen. Eine semantische Ebene, also eine intentionale Ebene bewusst erlebter Bedeutung, fehlt der KI völlig. Deshalb sind die Wunschträume der Forschung bislang eben auch nur das: Träume. Der renommierte Kognitionswissenschaftler Kevin O’Regan hegt ähnliche Allmachtsphantasien:
Ich denke, daß wir in einigen Jahren in der Lage sein werden, unsere Persönlichkeit auf Computer hochzuladen und sie nach unserem Ableben in virtuellen Welten leben zu lassen. Dann wird unser Bewußtsein nach dem Tod weiterleben.
Interview mit Kevin O’Regan
Eine KI weiß vielleicht etwas. Aber sie weiß nicht, dass sie etwas weiß. Sie hat kein "Feeling", weil sie kein Bewusstsein hat. Dennoch hat die KI beeindruckende Fähigkeiten, wenn es darum geht, ein programmierbares Aktion-Reaktions-Schema umzusetzen, wie etwa beim Go- oder Schachspiel, bei Autopiloten in Fahrzeugen oder bei Industrierobotern.
Googles "DeepMind" wird nun auch im britischen Gesundheitswesen eingesetzt: Eine App soll Früherkennungszeichen von akutem Nierenversagen erkennen [6], die immerhin für 20 Prozent aller Notfälle in britischen Krankenhäusern verantwortlich sind. Laut dem National Health Service ließen sich durch eine Früherkennung 1 von 4 Fällen vermeiden, wodurch jährlich 10.000 Menschenleben gerettet werden könnten. Die Schattenseiten solcher Apps sind natürlich eine umfassende Big-Data-Sammlung, an die sich allerlei Überwachungs- und Manipulationsszenarien anknüpfen.
Die gegenwärtigen KI-Programme sind freilich keine Science-Fiction, sondern teils hocheffiziente Systeme. Aber die menschliche Sprache samt ihrem komplexen Zusammenspiel von Syntax und Semantik setzt der KI noch immer klare Grenzen. Die KI ist in dieser Hinsicht einfach strunzdumm. Oder, um es mit Tay zu sagen:
Patrick Spät [7] lebt als freier Journalist und Buchautor in Berlin.
URL dieses Artikels:
https://www.heise.de/-3379269
Links in diesem Artikel:
[1] https://tay.ai/
[2] https://twitter.com/tayandyou/
[3] http://techcrunch.com/2016/03/24/microsoft-silences-its-new-a-i-bot-tay-after-twitter-users-teach-it-racism/
[4] https://deepmind.com/alpha-go.html
[5] http://www.tagesschau.de/ausland/google-201.html
[6] http://www.wired.co.uk/news/archive/2016-02/25/google-deepmind-health
[7] http://patrickspaet.wordpress.com/
Copyright © 2016 Heise Medien