Практика незаконного копирование успешных продуктов существует с тех пор, как появились первые инструменты и технологии, но чат-боты на базе ИИ — особый случай. Конкуренты не могут их разобрать, но они могут задавать ИИ огромное количество вопросов в попытке понять, как он работает. Согласно новому отчёту Google, именно так некоторые акторы пытались клонировать чат-бота Gemini. В одном случае чат-боту было отправлено более 100 тыс. подобных запросов. Google называет это крупномасштабной попыткой извлечения модели.

Можно ли клонировать Gemini, завалив её запросами? Google раскрыла мощную дистилляционную атаку

Итоги 2025-го: ИИ-лихорадка, рыночные войны, конец эпохи Windows 10 и ещё 12 главных событий года

Можно ли клонировать Gemini, завалив её запросами? Google раскрыла мощную дистилляционную атаку

Итоги 2025 года: почему память стала роскошью и что будет дальше

Можно ли клонировать Gemini, завалив её запросами? Google раскрыла мощную дистилляционную атаку

Обзор телевизора Sber SDX-43U4169

Можно ли клонировать Gemini, завалив её запросами? Google раскрыла мощную дистилляционную атаку

Обзор игрового QD-OLED WQHD-монитора Gigabyte AORUS FO27Q5P: на пределе возможностей

Можно ли клонировать Gemini, завалив её запросами? Google раскрыла мощную дистилляционную атаку

Обзор ноутбука TECNO MEGABOOK S14 (S14MM): OLED с HDR как новая норма

Можно ли клонировать Gemini, завалив её запросами? Google раскрыла мощную дистилляционную атаку

Обзор игрового 4K IPS-монитора Gigabyte M27UP: разнообразия ради

Можно ли клонировать Gemini, завалив её запросами? Google раскрыла мощную дистилляционную атаку

В последнем отчёте Google Threat Intelligence Group описывается рост так называемых дистилляционных атак — многократных запросов к ИИ-модели для изучения её ответов с последующим использованием этих данных для обучения конкурирующей системы. Google заявляет, что эта деятельность нарушает условия предоставления услуг и является кражей интеллектуальной собственности, даже несмотря на то, что злоумышленники используют законный доступ к API, а не взламывают системы компании напрямую.

Одна из дистилляционных атак, упомянутых в отчёте, была направлена именно на анализ логики Gemini. Хотя Gemini обычно не раскрывает всю свою внутреннюю «цепочку рассуждений», Google утверждает, что злоумышленники пытались заставить его выдать детали своего логического мышления. Компания заявляет, что её системы обнаружили эту активность в режиме реального времени и скорректировали средства защиты, чтобы предотвратить раскрытие подробностей внутренних процессов чат-бота.

Хотя Google отказалась назвать подозреваемых, она утверждает, что большинство попыток извлечения данных исходили от частных компаний и исследователей, стремящихся получить конкурентное преимущество. Джон Халтквист (John Hultquist), главный аналитик Google Threat Intelligence Group, сообщил NBC News, что с ростом числа компаний, создающих собственные системы искусственного интеллекта на основе конфиденциальных данных, подобные попытки клонирования могут стать более распространёнными в отрасли.

Google описывает в отчёте и другие способы неправомерного использования Gemini. Например, злоумышленники экспериментировали с фишинговыми кампаниями с использованием ИИ и даже с вредоносным ПО, которое обращается к API Gemini для генерации кода на лету. Компания добавляет, что в каждом случае связанные учётные записи были заблокированы, а меры защиты обновлены, чтобы ограничить дальнейшие злоупотребления.