«Отравить» большую языковую модель оказалось проще, чем считалось ранее, установила ответственная за чат-бот Claude с искусственным интеллектом компания Anthropic. Чтобы создать «бэкдор» в модели, достаточно всего 250 вредоносных документов независимо от размера этой модели или объёма обучающих данных.

Всего 250 вредных документов способны «отравить» ИИ-модель любого размера, подсчитали в Anthropic

Российские итоги HUAWEI XMAGE 2025 и выставка «Фото[графическое] путешествие»

Всего 250 вредных документов способны «отравить» ИИ-модель любого размера, подсчитали в Anthropic

HUAWEI XMAGE 2025: мобильная фотография как полноценное окно в мир искусства

Всего 250 вредных документов способны «отравить» ИИ-модель любого размера, подсчитали в Anthropic

Топ-10 смартфонов до 20 тысяч рублей (2025 год)

Всего 250 вредных документов способны «отравить» ИИ-модель любого размера, подсчитали в Anthropic

Пять причин полюбить HONOR Magic 7

Всего 250 вредных документов способны «отравить» ИИ-модель любого размера, подсчитали в Anthropic

На 3DNews началось голосование за лучшую игру 2025 года

Всего 250 вредных документов способны «отравить» ИИ-модель любого размера, подсчитали в Anthropic

Видеообзор смартфона Honor X9d

Всего 250 вредных документов способны «отравить» ИИ-модель любого размера, подсчитали в Anthropic

Процессоры за 30 тысяч рублей — большой сравнительный тест

Всего 250 вредных документов способны «отравить» ИИ-модель любого размера, подсчитали в Anthropic

Смартфон HUAWEI Pura 80 Pro как универсальный инструмент тревел-фотографа

Всего 250 вредных документов способны «отравить» ИИ-модель любого размера, подсчитали в Anthropic

HUAWEI FreeBuds 7i: ставка на глубину

Всего 250 вредных документов способны «отравить» ИИ-модель любого размера, подсчитали в Anthropic

К таким выводам пришли учёные Anthropic по результатам исследования (PDF), проведённого совместно с Институтом Алана Тьюринга и Британским институтом безопасности ИИ. Ранее считалось, что для влияния на поведение модели ИИ злоумышленникам необходимо контролировать значительно бо́льшую долю обучающих данных — на деле же всё оказалось гораздо проще. Для обучения модели с 13 млрд параметров необходимо более чем в 20 раз больше обучающих данных, чем для обучения модели на 600 млн параметров, но обе взламываются при помощи одного и того же количества «заражённых» документов.

«Отравление» ИИ может принимать различные формы. Так, в этом году автор YouTube-канала f4mi настолько устала от того, что на субтитрах к её видео обучались системы ИИ, что она намеренно «отравила» эти данные, добавив в них бессмысленный текст, который «видел» только ИИ. Чем больше бессмысленного текста ИИ получает при обучении, тем больше бессмыслицы он может выдавать в ответах. Anthropic, впрочем, указывает на ещё одну возможность — при помощи «отравленных» данных можно разметить внутри модели «бэкдор», который срабатывает для кражи конфиденциальных данных по кодовой фразе, заложенной при обучении.

Впрочем, применить эти открытия на практике будет непросто, отмечают учёные Anthropic. «Считаем, что наши выводы не вполне полезны злоумышленникам, которые и без того были ограничены — не столько тем, что не знали точного числа примеров, которые могли добавить в набор обучающих данных модели, сколько самим процессом доступа к конкретным данным, которые они могут контролировать, чтобы включить их в набор обучающих данных модели. <..> У злоумышленников есть и другие проблемы, такие как разработка атак, устойчивых к постобучению и другим целенаправленным средствам защиты», — пояснили в Anthropic. Другими словами, этот способ атаки реализуется проще, чем считалось ранее, но не так уж просто вообще.