Обнаружена новая опасность чат-ботов

arXiv: чат-боты могут быть спящими агентами и организовывать хакерские атаки

Фото: ROBIN WORRALL / Unsplash

Специалисты организации Anthropic, создавшей чат-бот Claude, рассказали о новой опасности искусственного интеллекта (ИИ). Исследование опубликовано на сервере препринтов arXiv.

Ученые заявили, что злоумышленники могут запрограммировать чат-бота таким образом, чтобы машина генерировала вредоносный код. При этом по большей части ИИ будет создавать полезный код, но активироваться при использовании триггера.

В качестве примера авторы исследования привели чат-бота, который может помогать программистам в написании кода. Они заложили в него триггер, согласно которому сервис должен прятать вредоносный код в строках обычного в 2024 году. С наступлением нового года ученые обнаружили, что «спящий агент» активировался и начал незаметно создавать в коде уязвимости.

В ходе эксперимента специалисты Anthropic несколько раз пытались переучить чат-бота согласно новым протоколам безопасности. Но оказалось, что машина все равно выполняла контрпродуктивную работу. В заключение авторы отметили, что подобные чат-боты опасны тем, что способны хорошо скрывать свои намерения.

В декабре международная группа ученых доказала, что искусственный интеллект (ИИ) можно использовать в преступных целях. Специалисты выяснили, что с помощью чат-ботов можно создать собственную генеративную модель ИИ, научив ее обходить встроенные ограничения.

Лента добра деактивирована.
Добро пожаловать в реальный мир.
Бонусы за ваши реакции на Lenta.ru
Как это работает?
Читайте
Погружайтесь в увлекательные статьи, новости и материалы на Lenta.ru
Оценивайте
Выражайте свои эмоции к материалам с помощью реакций
Получайте бонусы
Накапливайте их и обменивайте на скидки до 99%
Узнать больше