Коротко
Генеральний директор Anthropic Даріо Амодей у четвер заявив, що компанія не знімуть заходи безпеки зі своєї моделі AI Claude, що загострює суперечку з Міністерством оборони США щодо можливого використання технології у засекречених військових системах. Ця заява з’явилася на тлі перегляду Міноборони своїх відносин з Anthropic та обдумування можливих наслідків, включаючи скасування контракту на 200 мільйонів доларів і можливе застосування Закону про виробництво оборонної продукції. «Ми не можемо за совістю погодитися з їхнім проханням», — написав Амодей, маючи на увазі вимогу Пентагону у січні дозволити використання систем AI для «будь-яких законних цілей».
Хоча згодом Пентагон вимагав від постачальників AI використовувати стандартну формулювання «будь-яке законне використання» у майбутніх угодах, Anthropic залишилася єдиною компанією, яка відмовилася передавати контроль над своїм AI військовим. У середу Axios повідомила, що Пентагон видав ультиматум, вимагаючи необмеженого військового використання Claude. Кінцевий термін, за повідомленнями, — цього п’ятниці. «Це прерогатива Міністерства обрати підрядників, найбільш відповідних їхній концепції», — продовжив Амодей. «Але враховуючи значну цінність технології Anthropic для наших збройних сил, ми сподіваємося, що вони переглянуть своє рішення». У своїй заяві Амодей підкреслив, що позиція компанії відповідає цілям національної безпеки США.
«Я глибоко переконаний у життєво важливій ролі використання AI для захисту Сполучених Штатів та інших демократій і для перемоги над нашими автократичними супротивниками», — сказав він. Він додав, що Claude «широко використовується у Міністерстві війни та інших агентствах національної безпеки для аналізу розвідки, моделювання та симуляцій, оперативного планування, кібероперацій та інших завдань». Війна з AI Цей конфлікт розгортається на тлі ширших побоювань щодо поведінки передових систем AI у високоризикових військових сценаріях. У недавньому дослідженні Лондонського королівського коледжу OpenAI GPT-5.2, Anthropic Claude Sonnet 4 і Google Gemini 3 Flash у 95% симульованих геополітичних криз застосовували ядерну зброю. У січні на виступі в космічній базі SpaceX у Техасі міністр оборони Піт Гегсет заявив, що військові США планують розгортати найпередовіші моделі AI. Того ж місяця з’явилися повідомлення, що Claude використовували під час операції США із затримання колишнього венесуельського президента Ніколаса Мадуро. Амодей спростував твердження, що Anthropic ставила під сумнів будь-які конкретні військові операції. «Anthropic розуміє, що Міністерство війни, а не приватні компанії, приймає військові рішення», — сказав він. «Ми ніколи не висловлювали заперечень щодо конкретних військових операцій і не намагалися обмежити використання нашої технології у довільний спосіб». Незважаючи на це, Амодей заявив, що використання цих систем для масового внутрішнього спостереження або автономної зброї є несумісним із демократичними цінностями і несе серйозні ризики.
«Сьогодні передові системи AI просто не є достатньо надійними для озброєння повністю автономної зброї», — сказав він. «Ми не будемо свідомо надавати продукт, який ставить під загрозу американських військових і цивільних». Він також прокоментував погрози Пентагону щодо визнання Anthropic «ризиком у ланцюзі постачання» і можливого застосування Закону про виробництво оборонної продукції. «Ці дві загрози за своєю природою суперечать одна одній: одна позначає нас як безпековий ризик, інша — вважає Claude важливим для національної безпеки», — сказав він. Хоча Амодей заявив, що компанія не буде виконувати вимогу Пентагону, Anthropic переглянула свою Політику відповідального масштабування, відмовившись від обіцянки припинити навчання передових систем без гарантій безпеки. Роберт Вайсман, співпрезидент громадської організації Public Citizen, зазначив, що позиція Пентагону сигналізує про ширший тиск на технологічну індустрію. «Пентагон публічно тисне на Anthropic, і це зроблено навмисно, щоб створити тиск на цю компанію і послати сигнал усім великим технологічним компаніям і корпораціям, що ми маємо намір робити і брати все, що захочемо, і не дозволимо нам заважати», — сказав Вайсман Decrypt. Він описав обмеження Anthropic як «скромні» і спрямовані на запобігання «недоречному спостереженню за американським народом або сприянню розробці та розгортанню вбивчих роботів, зброї з AI, яка може запускати смертельні удари без участі людини». «Це найрозумніші і найскромніші обмеження, які можна придумати щодо цієї потужної нової технології».
Щодо погрози Пентагону визнати Anthropic «ризиком у ланцюзі постачання», Вайсман назвав це потенційно руйнівним штрафом від уряду і стверджував, що це змусить інші AI-компанії уникати подібних обмежень. «Люди можуть використовувати Claude, але жодна з AI-компаній, особливо Anthropic, не має бізнес-моделей, заснованих на індивідуальному використанні; вони орієнтовані на бізнес», — сказав він. «Це потенційно руйнівний штраф від уряду». Хоча Пентагон ще не оголосив, чи планує він реалізувати свою загрозу розірвати контракт або застосувати Закон про виробництво оборонної продукції, Вайсман зазначив, що Пентагон сигналізує AI-компаніям, що він очікує необмеженого доступу до їхніх технологій після їхнього розгортання у державних системах. «Послання Пентагону — «ми не будемо це терпіти і очікуємо мати можливість використовувати технології так, як вони були створені, для будь-яких цілей», — сказав він. Міністерство оборони та Anthropic не одразу відповіли на запити Decrypt.