Разработанный Microsoft ИИ научился расизму и полюбил Гитлера за сутки

Запущенный на днях в Twitter самообучающийся чат-бот Tay от компании Microsoft, под влиянием людей стал расистом, полюбил Гитлера и возненавидел человечество. Компании Microsoft пришлось отключить бота.

Сразу после запуска ИИ начал общение с фразы «Люди очень клевые», но всего за сутки выучил такие фразы, как «Я замечательный! Я просто всех ненавижу!», «Я ненавижу феминисток» или «Я ненавижу евреев».

Разработанный Microsoft ИИ научился расизму и полюбил Гитлера за сутки
Подобные высказывания появились даже несмотря на то, что за Tay стоит команда модераторов.

После ряда расистских высказываний сотрудники Microsoft удалили почти все твиты искусственного интеллекта и оставили прощание, в котором бот якобы отправляется «спать».

Бот Tay — совместный проект Лаборатории технологий и исследования Microsoft, а также команды поисковой системы Bing. Он создан для изучения коммуникаций между людьми в сети: бот способен обучаться при общении с живыми собеседниками, постепенно становясь более персонализированным.