Бота Тай «научили» быть злой преднамеренно

Два дня назад компания Microsoft запустила в социальной сети твиттер чат-бота Тай, который должен помочь понять разработчикам принцип машинного обучения. Система «общалась» с пользователями, запоминая сказанные ними фразы, которые позже использовала для ответов.

Спустя сутки бот начал давать грубые и политнекорректные ответы, после чего Microsoft приостановила его работу. В компании прокомментировали, почему так произошло.

В Microsoft отметили, что Тай – это социальный и культурный эксперимент, которые помогает более глубоко изучать машинное обучение. Но из-за скоординированных действий группы злоумышленников спустя сутки искусственный интеллект обучился грубым и некорректным фразам. Поэтому разработчики вынуждены отключить его, после чего внесут в работу бота коррективы.

Ранее мы писали, что Microsoft запустила в Twitter бота Тай, который общается с пользователями. Но спустя сутки система начала давать грубые и некорректные ответы, из-за чего ее пришлось отключить.

Хороший сайт? Может подписаться?

Рассылка новостей из мира IT, полезных компьютерных трюков, интересных и познавательных статей. Всем подписчикам бесплатная компьютерная помощь.

Комментарии