Голова робототехнічного відділу OpenAI пішла з посади через договір з Міноборони.

У зв’язку з дискусійною домовленістю OpenAI з Міністерством оборони Сполучених Штатів, Кейтлін Каліновскі покинула пост голови підрозділу технічного забезпечення підприємства.

«Це було непросте рішення. Штучний розум грає значущу роль в охороні державної безпеки. Але спостереження за американцями без судової санкції та смертоносна автономія без згоди людини — це питання, які потребують більше уваги, ніж їм надають зараз», — висловилася вона.

Каліновскі працювала в Apple над технічним забезпеченням комп’ютерів Mac, згодом приєдналася до Meta, ставши однією з провідних інженерок у відділі Reality Labs. У 2024 році вона вступила до OpenAI, очоливши напрямок робототехніки та споживчого технічного забезпечення.

У заяві вона підкреслила, що рішення було «про принципи, а не про людей», виразивши «глибоку повагу» до CEO OpenAI Сема Альтмана та команди стартапу.

«На мій погляд, оголошення зробили надто швидко, без визначення обмежень. Це насамперед питання регулювання. Вони надто важливі, щоб поспішати з оформленням угод», — додала Каліновскі.

Представник OpenAI акцентував, що домовленість з Пентагоном «створює робочий шлях для відповідального використання ШІ в інтересах державної безпеки, одночасно чітко визначивши червоні лінії: жодного внутрішнього стеження та автономної зброї».

«Ми розуміємо, що у людей є стійкі переконання щодо цих питань, і продовжуватимемо обговорювати їх із працівниками, урядом та громадськістю у всьому світі», — додав він.

Угода між OpenAI і Пентагоном була укладена наприкінці лютого — незабаром після того, як переговори між Anthropic і Міноборони зайшли в безвихідь.

Невдовзі Альтман визнав, що угода вийшла «поспішною» і з точки зору іміджу стартапу «виглядає не дуже добре».

Ситуація вплинула на популярність ChatGPT і Claude. Кількість видалень першого чатбота збільшилася на 295%, а другий піднявся на вершину рейтингу App Store.

image

Завантаження мобільних застосунків Claude і ChatGPT у США. Джерело: Appfigures.

Конфронтація влади з Anthropic

У липні 2025 року Міністерство оборони США уклало контракти на суму до $200 млн з Anthropic, Google, OpenAI та xAI на розробку рішень ШІ у галузі безпеки.

У січні 2026 року WSJ повідомила про ризик розірвання договору з Anthropic. Розбіжності виникли через сувору етичну політику стартапу. Правила забороняють використовувати модель Claude для масового спостереження та автономних летальних операцій.

У лютому 2026 року армія США задіяла Claude в операції із захоплення президента Венесуели Ніколаса Мадуро, після чого конфлікт загострився.

CEO компанії Дарио Амодей зустрівся з міністром оборони Пітом Гегсетом для обговорення ситуації. Відомство висунуло ультиматум: Anthropic зобов’язана прийняти урядові умови до 27 лютого.

Амодей заявив, що скоріше не співпрацюватиме з Пентагоном, ніж погодиться на використання своїх технологій, яке може «підірвати, а не захистити демократичні цінності».

Наприкінці лютого президент США Дональд Трамп доручив усім федеральним відомствам протягом шести місяців повністю відмовитися від використання технологій Anthropic.

Він назвав стартап компанією, що «вийшла з-під контролю», під керівництвом людей, які «не мають уявлення, що таке реальний світ».

Пентагон офіційно визнав Anthropic «загрозою для ланцюжка постачання» — це ставить під удар бізнес фірми з іншими підрядниками уряду. Microsoft і Google заявили, що й надалі надаватимуть компанії свої продукти.

Справа дійде до суду

Амодей заявив, що його компанія оскаржить у суді рішення Міністерства оборони про визнання фірми загрозою для ланцюжка постачання. Воно «юридично необґрунтоване», вважає підприємець

У зверненні йдеться, що рішення Пентагону не стосується переважної більшості клієнтів Claude.

За словами Амодея, компанія вела продуктивні переговори з Міноборони протягом кількох днів, однак вони зірвалися після витоку внутрішньої службової записки. У ній CEO охарактеризував відносини OpenAI з відомством як «скоріше показову демонстрацію безпеки, ніж реальний захист від ризиків».

Амодей вибачився за витік, заявивши, що компанія ненавмисно розкрила зміст меморандуму і не давала вказівок комусь це робити.

«Нам невигідно погіршувати ситуацію», — написав він.

Глава стартапу підкреслив, що документ був написаний протягом кількох годин після серії оголошень про те, що Anthropic видалять із федеральних систем. Він вибачився за тон, назвавши той день «складним для компанії».

Амодей додав, що меморандум є «застарілою оцінкою» і не відображає «уважної та виваженої думки». За його словами, для фірми головним пріоритетом є забезпечення американським солдатам і фахівцям з національної безпеки доступу до важливих інструментів під час триваючих масштабних бойових операцій.

Anthropic й надалі забезпечуватиме Міністерство оборони своїми моделями «за номінальною вартістю» стільки, скільки буде потрібно.

Ексрадник Білого дому з питань штучного інтелекту Дін Болл зазначив, що компанії буде важко оскаржити рішення Пентагону.

«Суди доволі неохоче ставлять під сумнів рішення уряду про те, що є питанням національної безпеки, а що ні. Для цього треба подолати дуже високий бар’єр. Але це не неможливо», — зазначив експерт.

Нагадаємо, у лютому Anthropic пом’якшила ключову політику безпеки, пояснивши це необхідністю зберегти конкурентоспроможність.

No votes yet.
Please wait...

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *