AI Regulation

Google предоставляет ИИ Пентагону: доступ и вопросы приватно

Google отдаёт Пентагону солидный кусок своих ИИ-возможностей, обходя этические барьеры, которые установил конкурент Anthropic. Речь идёт не просто о контрактах — это про невидимую архитектуру нашего цифрового будущего и о том, кто будет ею управлять.

{# Always render the hero — falls back to the theme OG image when article.image_url is empty (e.g. after the audit's repair_hero_images cleared a blocked Unsplash hot-link). Without this fallback, evergreens with cleared image_url render no hero at all → the JSON-LD ImageObject loses its visual counterpart and LCP attrs go missing. #}
Абстрактное изображение цифровых потоков данных, соединяющих логотип Google с зданием Пентагона.

Key Takeaways

  • Google открыл Минобороны США широкий доступ к своему ИИ для классифицированных сетей.
  • Это произошло после того, как Anthropic отверг похожие условия из-за опасений массовой слежки и автономного оружия.
  • В соглашении Google есть оговорки об ответственном использовании, но их выполнимость под вопросом.
  • Более 950 сотрудников Google подписали открытое письмо с призывом следовать этическим принципам Anthropic.

Забудьте о пресс-релизах. Это не очередная сделка по корпоративному софту. То, что Google тихо открыл Минобороны США доступ к своему ИИ через классифицированные сети, означает, что ваш цифровой след вот-вот попадёт под гораздо более пристальный контроль — будь вы солдатом за океаном или просто человеком, чьи данные случайно пересекутся с оборонным контрактом.

Вот в чём суть: Google предлагает свой ИИ Пентагону на условиях, которые Anthropic — компания, рождённая на принципах этичного ИИ, — публично отвергла. Anthropic чётко обозначил границы: никакого использования для массовой слежки внутри страны или автономного оружия. Минобороны, как и следовало ожидать, отреагировало, объявив Anthropic «риском в цепочке поставок» — термин, обычно приберегаемый для геополитических противников, а не для американской ИИ-фирмы. Google же заполняет пустоту, с какими-то оговорками о ответственном использовании в контракте, но дьявол, как всегда, прячется в деталях — насколько они выполнимы (или отсутствуют).

Классический случай, когда рыночные силы сталкиваются с совестью. Принципиальная позиция Anthropic, пусть и похвальная, приоткрыла дверь конкурентам. OpenAI и xAI быстро этим воспользовались, а теперь подтянулся и Google. Но дело не только в том, кто возьмёт контракт. Речь о фундаментальных архитектурных решениях по развёртыванию ИИ в чувствительных сферах — решениях, которые могут отозваться в гражданской жизни так, как мы пока даже не представляем.

Хватит ли Google контрактных оговорок?

Wall Street Journal пишет, что в соглашении Google есть оговорки насчёт внутренней слежки и автономного оружия — точь-в-точь как в сделке OpenAI. Звучит утешительно, правда? Но вот удар под дых: неясно, юридически ли эти пункты обязательны и, главное, исполнимы. Когда контракты такие непрозрачные, а ставки запредельные, мы по сути верим многомиллиардной корпорации на слово — что она сама себя прижмёт парой строк текста ради огромного гособоронного заказа. История, увы, не всегда даёт обнадёживающие примеры.

Этот шаг ещё и высвечивает внутренний бунт в Google. Более 950 сотрудников — внушительная цифра для такой махины с её типичной внутренней кухней — подписали открытое письмо, умоляя руководство взять пример с Anthropic. Их призыв проигнорировали. Big Tech не раз сталкивался с подобными мятежами из-за оборонных контрактов или спорных применений технологий — вспомните Project Maven, — но здесь масштаб протеста говорит сам за себя. Это признак глубокого беспокойства: компания всё дальше уходит от заявленных ценностей ради коммерции.

А вот мой эксклюзивный взгляд: вся эта история — мастер-класс по тому, как геополитика и корпоративная стратегия искажают нарратив вокруг безопасности ИИ. Позиция Anthropic, поданная как моральный императив, оказалась ещё и умным маркетингом: они отличились от конкурентов, подчеркнув чью-то безрассудность. Google, шагнув в брешь, не просто берёт жирный контракт — он подрывает идею, что этичный ИИ обязательно требует жёстких, выполнимых ограничений. Они намекают: корпоративной доброй воли и хитрых юридических формулировок хватит. Это меняет правила игры в регулировании ИИ.

Речь о системах, способных перелопачивать гигантские массивы данных. Когда они встраиваются в оборонные сети, риск непредвиденных последствий, миссионного разрастания, стирания границ между нацбезопасностью и внутренней слежкой становится вполне осязаемым. А для обычного человека? Это значит, что ИИ-системы, тихо жужжащие на фоне и формирующие всё — от поисковых выдач до вашего профиля риска, — вот-вот обретут возможности, о которых мы раньше не мечтали, да ещё и с военным благословением.

Что это значит для развития ИИ?

Это не просто юридическая или политическая история — это про архитектуру в чистом виде. Про основы того, как ИИ будет взаимодействовать со структурами власти. Получится ли раздвоенный ландшафт ИИ — один для гражданки с (условным) надзором, другой, мощнее и без оков, для обороны и разведки? Если да, то последствия для приватности, гражданских свобод и баланса сил будут колоссальными.

Решение Google идти вперёд, несмотря на внутренние протесты и прецедент Anthropic, ясно показывает приоритет: рынок важнее этических сомнений. Это может подтолкнуть другие компании к тому же — ставить контракты выше сложных вопросов о влиянии ИИ на общество. Материал для будущих расследований, предостережение, которое разворачивается на наших глазах.


🧬 Похожие материалы

Часто задаваемые вопросы

Что именно предусматривает сделка Google с Пентагоном?

Google предоставил Минобороны США доступ к своему ИИ для использования в классифицированных сетях. Это в целом разрешает законное применение технологий Google ИИ со стороны Минобороны.

Почему Anthropic отказался от условий Минобороны?

Anthropic не дал Минобороны неограниченный доступ к своему ИИ, сославшись на риски массовой слежки внутри страны или автономного оружия, и настоял на ограничениях.

Затронет ли это мою личную приватность?

Прямого воздействия не гарантировано, но расширение доступа ИИ к оборонным сетям усиливает возможности обработки данных для военных и разведывательных нужд — это может косвенно задеть людей, чьи данные пересекутся с этими системами.

James Kowalski
Written by

Investigative reporter focused on AI accountability, bias cases, and the societal impact of automated decisions.

Worth sharing?

Get the best Legal Tech stories of the week in your inbox — no noise, no spam.

Originally reported by TechCrunch - AI Policy