Danach tweetete der Chat-Bot an fast alle seiner 215.000 Followers innerhalb von zehn Minuten: „Du bist zu schnell, mach bitte eine Pause“ (engl. "You are too fast, please take a rest…" – Anm. der Red.).
Zuvor hat der Chat-Bot von Microsoft rassistische und sexistische Äußerungen produziert, weswegen ihn die Entwickler offline setzten.
Der Roboter Tay war für die Kommunikation in sozialen Netzwerken entwickelt worden und sollte vor allem mit Jugendlichen im Alter von 18 von 24 kommunizieren können.
Tags: