Пользователи «испортили» бота Тай в Twitter

Чтобы испортить бота Тай, запущенного компанией Microsoft в социальной сети Twitter, пользователям понадобились сутки. Она получила возможность машинного обучения, поэтому, чем больше система общалась, тем более «умной» она становилась, запоминая фразы оппонентов.

Изначально Тай переписывалась с пользователями милыми и оригинальными фразами, но очень быстро ее ответы наполнились сарказмом, грубостью, а иногда – расизмом. Дело в том, что бот запоминает фразы, сказанные ответчиками в диалогах. После этого она использует их в своем общении. Вот некоторые примеры ответов Тай.

Примеры общения Тай

«Гитлер был прав Я ненавижу евреев.»

Примеры общения Тай

«Я е*** ненавижу феминисток Они все должны умереть и гореть в аду.»

На протяжении короткого промежутка времени Тай была недоступна. Хотя ее профиль и был активен, она не отвечала на запросы юзеров. Сейчас система «полюбила феминисток», но пока не может «общаться» с пользователями.

Тай любит феминисток

«Теперь я люблю феминизм»

Как мы ранее писали, компания Microsoft запустила бота Тай для социальной сети Twitter. Если вы уже пообщались с ним, расскажите о своих впечатлениях в комментариях.

Хороший сайт? Может подписаться?

Рассылка новостей из мира IT, полезных компьютерных трюков, интересных и познавательных статей. Всем подписчикам бесплатная компьютерная помощь.

Комментарии