США задіяли Claude від Anthropic у спробі захоплення Мадуро – WSJ

Армія Сполучених Штатів застосувала Claude від Anthropic в операції із затримання венесуельського президента Ніколаса Мадуро. Про це інформує WSJ, посилаючись на власні джерела.

Операція передбачала бомбардування ряду об’єктів у Каракасі. Застосування моделі для таких цілей йде врозріз із офіційною політикою Anthropic. Правила компанії чітко забороняють використовувати ШІ для здійснення насильства, створення зброї або організації спостереження.

«Ми не можемо коментувати, чи був Claude або будь-яка інша модель використана в конкретній операції — таємній або іншій. Будь-яке застосування LLM — як у приватному секторі, так і в державних структурах — має відповідати нашій політиці, яка регламентує способи застосування нейромережі. Ми тісно працюємо з партнерами, щоб гарантувати дотримання правил», — повідомив представник Anthropic.

Впровадження Claude в структури Міністерства оборони стало можливим завдяки партнерству Anthropic з Palantir Technologies. Програмне забезпечення останньої широко використовується військовими та федеральними правоохоронними органами.

Після рейду співробітник Anthropic поцікавився у колеги з Palantir, яку саме роль нейромережа виконувала в операції із затримання Мадуро, пише WSJ. Представник стартапу повідомив, що компанія не обговорювала використання своїх моделей у конкретних місіях «з жодними партнерами, включно з Palantir», обмежуючись лише технічними питаннями.

«Anthropic віддана застосуванню передового ШІ для підтримки національної безпеки США», — додав представник фірми.

Anthropic проти Пентагону?

Представник Пентагону Шон Парнелл оголосив про перегляд відносин із ШІ-лабораторією.

«Нашій державі потрібні партнери, готові допомагати бійцям здобувати перемогу в будь-якій війні», — зазначив він.

У липні 2025 року Міністерство оборони США підписало угоди на суму до $200 млн з Anthropic, Google, OpenAI та xAI на розробку ШІ-рішень у сфері безпеки. Головне управління цифрових і ШІ-технологій відомства планувало використати їхні розробки для створення агентних систем безпеки.

Однак вже в січні 2026 року WSJ повідомила про загрозу розірвання угоди з Anthropic. Розбіжності виникли через сувору етичну політику стартапу. Правила забороняють використовувати модель Claude для масового стеження та автономних смертоносних операцій, що ускладнює її застосування спецслужбами на зразок ICE і ФБР.

Незадоволення посадовців зросло на тлі інтеграції чатбота Grok у мережу Пентагону. Міністр оборони Піт Гегсет, коментуючи партнерство з xAI, наголосив, що відомство «не буде застосовувати моделі, які не дозволяють вести війни».

Тиск на розробників

Axios із посиланням на джерела повідомили, що Пентагон чинить тиск на чотири великі ШІ-компанії, щоб ті дозволили армії США використовувати технології для «всіх законних цілей». Зокрема, йдеться про розробку озброєнь, збір розвідувальних даних і бойові операції.

Anthropic відмовляється скасувати обмеження на стеження за громадянами США та створення цілком автономного озброєння. Переговори зайшли в глухий кут, проте швидко замінити Claude складно через технологічну перевагу моделі у специфічних державних задачах.

Окрім чатбота Anthropic, Пентагон використовує ChatGPT від OpenAI, Gemini від Google і Grok від xAI в несекретних завданнях. Усі три погодились пом’якшити обмеження, що діють для звичайних користувачів.

Зараз обговорюється перенесення LLM у секретний контур та їх застосування «для всіх законних цілей». Одна з трьох компаній вже дала згоду на це, інші дві «проявляють більшу гнучкість» у порівнянні з Anthropic.

Мілітаризація ШІ

США — не єдина держава, що активно впроваджує штучний інтелект в оборонний сектор.

Китай

У червні 2024 року в КНР представили ШІ-командувача для масштабних військових симуляцій за участю всіх видів військ НВАК. Віртуальний стратег наділений широкими повноваженнями, оперативно навчається та покращує тактику під час цифрових навчань.

У листопаді ЗМІ повідомили, що китайські дослідники адаптували модель Llama 13B від Meta для створення інструменту ChatBIT. Нейромережу оптимізували для збору й аналізу розвідданих, а також підтримки прийняття оперативних рішень.

Індія

Нью-Делі також зробив ставку на ШІ як на рушій національної безпеки. Уряд розробив стратегії та програми на національному рівні, створив спеціалізовані інститути та органи для впровадження ШІ, а також запустив проєкти із застосування технології в різних сферах.

Велика Британія

Лондон закріпив за штучним інтелектом статус пріоритетного напряму. У «Стратегії ШІ для оборони» (2022) відомство розглядає ШІ як ключовий компонент майбутніх збройних сил. У «Стратегічному оборонному огляді» (2025) технологію названо фундаментальним елементом сучасної війни.

Якщо раніше штучний інтелект у військовій сфері сприймався як допоміжний інструмент, то зараз британські Збройні сили планують трансформацію в «технологічно інтегровані сили», де ШІ-системи мають застосовуватися на всіх рівнях — від штабної аналітики до поля бою.

Нагадаємо, у березні 2025 року Пентагон анонсував використання ШІ-агентів для моделювання зіткнень з іноземними противниками.

No votes yet.
Please wait...

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *