Наследница бота-расиста от Microsoft научилась оскорблять

Скриншот: zo.ai

Новый «умный» чат-бот от Microsoft под названием Zo освоила противоречивые высказывания несмотря на то, что создатели специально запрограммировали ее уходить от ответа в политических и религиозных темах. Об этом сообщает Engadget.

Когда девушку-бота попросили поделиться точкой зрения по вопросам здравоохранения, она почему-то назвала Коран «жестокой книгой». Кроме того, искусственный интеллект не смог держать при себе мнение о смерти Усамы бен Ладена: по его мнению, «захват» боевика произошел благодаря «годам разведывательных работ».

В Microsoft утверждают, что все ошибки, из-за которых Zo все-таки перешла на обсуждение запретных тем, исправлены.

В марте 2016 года еще одно изобретение корпорации — «умный» чат-бот Tay — произвело впечатление на пользователей сети. Для бота был создан аккаунт в Twitter, в котором компьютерная девушка могла общаться с юзерами и таким образом обучаться. Вскоре Tay переняла у пользователей сети расистские взгляды и хвасталась такими вещами, как употребление наркотиков на глазах полицейских.

Лента добра деактивирована.
Добро пожаловать в реальный мир.
Бонусы за ваши реакции на Lenta.ru
Как это работает?
Читайте
Погружайтесь в увлекательные статьи, новости и материалы на Lenta.ru
Оценивайте
Выражайте свои эмоции к материалам с помощью реакций
Получайте бонусы
Накапливайте их и обменивайте на скидки до 99%
Узнать больше