
Корпорація Google веде перемовини з Міністерством оборони США стосовно ймовірної інтеграції Gemini в структури Пентагону в усіх категоріях доступу до інформації — від загальнодоступних до особливо таємних. Про це повідомляє The Information, посилаючись на інсайдерську інформацію.
Домовленість дозволить оборонному відомству використовувати розробку Google «для будь-яких законних цілей».
В ході переговорів корпорація запропонувала внести пункти, які виключать використання Gemini для масштабного спостереження за людьми або створення повністю автономної зброї.
Представник Пентагону утримався від прямого коментування діалогу з Google. При цьому він зауважив, що відомство продовжить впроваджувати прогресивні ШІ-технології через тісну співпрацю з приватним сектором на всіх рівнях конфіденційності.
Інцидент з Anthropic
Нещодавній скандал між Пентагоном та ШІ-стартапом Anthropic розгорівся саме на цьому підґрунті. Він переріс у судовий процес і заборону з боку президента США Дональда Трампа на використання технологій компанії у всіх федеральних установах.
Передумови з’явилися в липні 2025 року. Тоді Міністерство оборони США підписало контракти на суму до $200 млн з Anthropic, Google, OpenAI та xAI на розробку ШІ-рішень у галузі безпеки. Головне управління цифрових та ШІ-технологій відомства мало намір використати їхні здобутки для створення агентних систем. З усіх підрядників лише інструменти Anthropic інтегрували в захищені середовища завдяки їх відмінній якості.
Однак вже в січні 2026 року WSJ повідомила про ризик припинення угоди. Суперечності виникли через сувору етичну політику стартапу: правила Anthropic забороняють застосовувати модель Claude для масового стеження та в безпілотних смертоносних операціях.
Незадоволення посадовців зросло на тлі інтеграції чат-бота Grok у мережу Пентагону. Міністр оборони Піт Хегсет, коментуючи партнерство з xAI, підкреслив, що відомство «не буде використовувати моделі, які не дають можливості вести війни».
Ситуація ускладнилася в лютому 2026 року, коли армія США залучила Claude в операції із захоплення президента Венесуели Ніколаса Мадуро.
CEO стартапу Даріо Амодей заявив, що Anthropic швидше відмовиться від взаємодії з Пентагоном, ніж погодиться на використання своїх технологій у спосіб, який може «похитнути, а не захистити демократичні ідеали». Він підтвердив, що проблема полягає в можливому застосуванні інструментів на зразок Claude у двох напрямках: «масове стеження всередині країни» і «цілком автономна зброя».
Принципова позиція Anthropic підняла популярність продуктів стартапу — користувачі позитивно оцінили готовність розробників захищати їх інтереси.
У той же час OpenAI піддалася критиці за свою угоду з Міністерством оборони. Згодом Сем Альтман назвав це рішення поспішним.
Повернення до відправної точки
Поточні переговори Google з Пентагоном нагадують події 2018 року. Тоді корпорація припинила участь у Project Maven — програмі, де штучний інтелект використовували для аналізу відеоматеріалів з дронів.
Компанія вийшла з проєкту через сильне невдоволення співробітників. Більше 3000 людей підписали відкритий лист до керівництва з вимогою зупинити розробку ШІ для бойових безпілотників. Випадок спровокував широке обговорення в техіндустрії про допустимість використання алгоритмів у військових цілях.
З тих пір Google поступово відновлювала відносини з урядом. У 2022 році компанія створила окремий підрозділ для роботи з державним сектором.
У 2024 році компанія підписала з Міноборони угоду про співпрацю в області ШІ. Вона обмежувалася використанням технології в несекретному сегменті.
На початку 2025 року Google прибрала зі своїх внутрішніх принципів ШІ пункт, який прямо забороняв застосування технології в «зброї та системах спостереження».
Можливе підписання контракту, який передбачає роботу в секретних середовищах, означає вихід за рамки звичайної «взаємодії». Такий крок говорить про готовність до повномасштабної інтеграції технологій компанії в основні оборонні операції.
Співробітники проти
Залучення Google в оборонні контракти продовжує викликати внутрішнє невдоволення.
У 2018 році компанія пообіцяла ніколи не працювати над військовими технологіями. Однак у квітні 2024 року стало відомо про надання хмарних обчислювальних послуг і доступу до сервісів ШІ Міністерству оборони Ізраїлю.
На цьому тлі близько 200 співробітників DeepMind, профільного підрозділу Google зі ШІ, висловили офіційний протест. Вони закликали розірвати угоди з оборонними відомствами. Автори ініціативи побоюються, що передові напрацювання лабораторії передаються арміям, які ведуть реальні бойові дії.
«Будь-яка участь у військовій та збройовій промисловості негативно впливає на нашу репутацію лідера в сфері етичного та відповідального ШІ, а також суперечить нашій місії та проголошеним принципам штучного інтелекту», — йдеться в документі, який зібрав підписи близько 5% співробітників.
Пентагон наполягає
У лютому ЗМІ дізналися, що Пентагон закликає провідні компанії зі сфери ШІ зробити свої інструменти доступними в секретних середовищах без стандартних обмежень, які зазвичай застосовуються до користувачів.
Такі мережі використовують для широкого спектра конфіденційних завдань — від планування операцій до наведення зброї. Військові мають намір задіяти здатність ШІ об’єднувати інформацію для підтримки прийняття рішень.
Однак нейромережі можуть допускати помилки та вигадувати інформацію. Використання таких інструментів у бойових умовах несе в собі ризик трагічних наслідків.
Компанії ШІ намагаються мінімізувати негативні сторони своїх продуктів, проте в Пентагоні роздратовані такими обмеженнями.
Нагадаємо, в Міноборони мають намір прискорити прийняття рішень за допомогою штучного інтелекту та зробити його ключовим елементом стратегії з об’єднання сенсорів і ударних систем у бойових операціях.
