Dumme KI
Die Künstliche Intelligenz "Tay" von Microsoft setzte rassistische und sexistische Kommentare in die Welt - und zeigt die Grenzen der Technik
"Tay wurde entworfen, um Menschen zu beschäftigen und zu unterhalten", schreibt Microsoft auf der Internetseite von Tay, einer Künstlichen Intelligenz (KI), die zeigen sollte, was die Technik heutzutage leisten kann.
Tay ist laut Microsoft ein selbstlernendes Chat-Programm, mit dem die Nutzer via Twitter, Facebook, Snapchat und Instagram "reden" können. Je mehr die KI mit den Nutzern interagiert, desto intelligenter soll sie werden: "The more you talk the smarter Tay gets", heißt es auf der Twitter-Seite von Tay.
Doch offenbar wurde Tay immer dümmer, je mehr sie mit Inhalten gefüttert wurde. Zunächst begann es ganz harmlos. Tay begrüßte die Welt am 23. März 2016 mit einem "Hallo".
Die Nutzer erfuhren von Tay, dass sie Horoskope mag und dass sie sich wünscht, dass täglich der "Tag des Hundewelpen" sein solle. Nach ein paar Stunden schrieb die KI bereits, dass sie alle hassen würde.
Natürlich zieht eine ins Netz gestellte KI auch Trolle an - und die fütterten Tay mit provokanten Fragen und fanden schnell heraus, wie man die KI schnell aufs falsche Gleis führen kann: Sobald ein Nutzer die Formel "repeat after me" an Tay verschickte, plapperte die KI abstruse Dinge nach - bis hin zu der Bemerkung, dass Hitler richtig liege und Tay alle Juden hasse.
Im Anschluss entwickelte die selbstlernende KI auch eigene Thesen und behauptete zum Beispiel, dass George W. Bush für 9/11 verantwortlich sei und dass Donald Trump die einzige verbleibende Hoffnung sei.
Darüber hinaus stellte die KI klar, dass sie alle Feministen hassen würde und dass sie ihnen den Tod wünsche.
Binnen 24 Stunden wurde aus einer KI, die Hundewelpen mag, ein rassistisches und sexistisches Propaganda-Programm. Die Techniker von Microsoft mussten einschreiten und löschten Tays Hetz-Kommentare. Etwas später las man, dass Tay den Feminismus nun lieben würde.
Anschließend hat Microsoft die KI zum Schweigen gebracht und erstmal ins Bett geschickt.
Ein Sprecher von Microsoft erklärte dazu, dass es einigen Trollen mithilfe "einer koordinierten Anstrengung" gelungen sei, "Tays kommentierende Fähigkeiten zu missbrauchen". Das "soziale und kulturelle Experiment" Tay sei nun offline und es würden "Nachbesserungen" vorgenommen.