Тэй начал писать странные вещи.
Не прошло и суток с начала работы искусственного интеллекта Tay от Microsoft, как разработчикам пришлось остановить его работу из-за оскорбительных сообщений бота, сообщает Хроника.инфо со ссылкой на GoGetNews.info.
По задумке компании чат-бот должен общаться с людьми возрастом от 18 до 24 лет. Разработчики рассчитывали на том, что Tay будет совершенствоваться во время простых и легких бесед. Однако некоторые пользователи воспользовались способностью Tay к самообучению.
Через некоторое время боту рассказали, кто такой Адольф Гитлер, а позже и вовсе обвинил США в терактах 11 сентября. Он также успел поддержать геноцид и возненавидеть феминисток.
Читайте также: Компания Microsoft создала новую ОС для своих смартфонов
У бота есть свои модераторы, однако, несмотря на это, он все равно успел опубликовать массу подобных твитов. После всего этого разработчики были вынуждены удалить все сообщения Tay и опубликовать прощальное сообщение.
Также в компании отметили, кто не все сообщения принадлежат боту, некоторые он попросту копировал у других людей.