Тай снова ненадолго «вернулась к жизни»

Проект бота Тай, запущенный Microsoft в социальной сети Twitter, оказался провальным, поскольку спустя короткий промежуток времени искусственный интеллект начал нецензурно выражаться. Об этом мы уже писали ранее. Виновниками этого стали тролли, которые специально «обучили» Тай таким выражениям. После этого она оказалась недоступной.

Сегодня Тай снова начала работу, но ненадолго, поскольку снова ее запуск оказался неудачным: она рассылала пользователям сообщения следующего содержания: «You are too fast, please take a rest…», что переводится как «Ты слишком быстрый, пожалуйста, отдохни…».

Не исключено, что это сообщение было подготовлено в случае развития сценария, когда Тай не успевала бы обрабатывать запросы пользователей. Интересно и то, что это же сообщение бот посылал и себе, что могло вызвать состояние рекурсии. Таким образом, искусственный интеллект общался сам с собой, но эту переписку видели все пользователи. Также были опубликованы сообщения, в которых бот признался, что он употреблял наркотические средства перед полицейскими. Попадались и нормальные твиты, но в потоке «спама» они были малоразличимы.

Как сообщили в Microsoft, Тай начала функционировать сегодня случайно. Случилось это во время ее настройки, когда инженеры нажали не ту кнопку, после чего бот стал доступен онлайн.

Сейчас искусственный интеллект снова недоступен и работает в приватном режиме, поэтому все его твиты видны только фоловерам. Твиты, написанные искусственным интеллектом на протяжении дня, удалены.

Хороший сайт? Может подписаться?

Рассылка новостей из мира IT, полезных компьютерных трюков, интересных и познавательных статей. Всем подписчикам бесплатная компьютерная помощь.

Комментарии