Министерство обороны США заявило, что компания Anthropic представляет «неприемлемый риск национальной безопасности». Это первое официальное заявление ведомства в ответ на иски ИИ-разработчика, пытающегося оспорить решение министра обороны Пита Хегсета (Pete Hegseth) о присвоении Anthropic статуса компании, представляющей риски для цепочки поставок. Компания просит суд приостановить исполнение этого решения Минобороны до окончания разбирательства.

«Неприемлемый риск для национальной безопасности»: Минобороны США ответило на иски Anthropic

Гид по выбору OLED-монитора в 2026 году: эволюция в деталях

«Неприемлемый риск для национальной безопасности»: Минобороны США ответило на иски Anthropic

Ryzen и 16 Гбайт DDR5: как сэкономить на памяти так, чтобы не лишиться 15 % производительности

«Неприемлемый риск для национальной безопасности»: Минобороны США ответило на иски Anthropic

Обзор ноутбука HONOR MagicBook X16 2026: как раньше, только лучше

«Неприемлемый риск для национальной безопасности»: Минобороны США ответило на иски Anthropic

Компьютер месяца, спецвыпуск: эпоха отката, или Как дефицит чипов памяти влияет на выбор железа для игрового ПК

«Неприемлемый риск для национальной безопасности»: Минобороны США ответило на иски Anthropic

Обзор Samsung Galaxy Z TriFold: тройной складной смартфон по цене квартиры в Воркуте

«Неприемлемый риск для национальной безопасности»: Минобороны США ответило на иски Anthropic

Обзор Ryzen 7 9850X3D: три процента за двадцать баксов

«Неприемлемый риск для национальной безопасности»: Минобороны США ответило на иски Anthropic

Суть аргументации Минобороны, изложенной в 40-страничном заявлении, поданном в федеральный суд Калифорнии, заключается в опасении, что Anthropic может «попытаться отключить свои технологии или упреждающе изменить поведение своих ИИ-моделей» до или во время «боевых операций», если компания «почувствует, что её корпоративные „красные линии“ могут быть пересечены».

Минувшим летом Anthropic подписала с Пентагоном соглашение на $200 млн на развёртывание своих алгоритмов в закрытых системах. В ходе последующих переговоров об изменении условий контракта компания выразила несогласие с тем, чтобы её ИИ-алгоритмы использовались для массовой слежки за американцами, а также заявила, что технология ещё не готова к применению в системах наведения или принятия решений о применении летального оружия. Пентагон в ответ заявил, что частная компания не может диктовать военным условия использования технологий. Некоторые компании выступили против действий Минобороны: OpenAI, Google, Microsoft и их сотрудники, а также правозащитные организации обратились в суд с поддержкой Anthropic.

Сама Anthropic подала в суд несколько исков, в которых обвинила Минобороны в нарушении прав компании, гарантированных Первой поправкой к Конституции США. ИИ-разработчик также обвинил военных в несправедливом наказании компании по идеологическим мотивам. Слушания по этому делу о вынесении предварительного судебного запрета пройдут на следующей неделе.