Перевод на английский тут https://alex-ber.medium.com/strike-on-iran-and-claudes-role-what-really-happened-511da1354fc8
В марте 2026 года мир стал свидетелем эскалации геополитического конфликта: совместные американо-израильские удары по Ирану под кодовыми названиями «Рычащий лев» и «Operation Epic Fury» продемонстрировали, как искусственный интеллект (ИИ) меняет правила ведения войны. В центре внимания оказалась модель ИИ Claude от компании Anthropic, которая, по данным ведущих СМИ, сыграла ключевую роль в операции. Эта заметка разберёт, как ИИ ускоряет военные решения, почему это вызывает тревогу у экспертов и как разворачивается конфликт между технологическими компаниями и правительством США.
Ниже есть продолжение.
Claude на поле боя: Сокращение «цепочки поражения»
Согласно отчётам Wall Street Journal, Axios и The Guardian, Центральное командование ВС США (CENTCOM) использовало Claude для анализа разведданных, идентификации целей и симуляции боевых сценариев. Но роль ИИ оказалась ещё шире: он радикально сократил так называемую «цепочку поражения» — процесс от обнаружения цели до удара.
- В первые 12 часов операции было нанесено около 900 ударов.
- Одним из результатов стала ликвидация верховного лидера Ирана аятоллы Али Хаменеи израильскими ракетами.
Claude интегрирован в систему, разработанную Palantir совместно с Пентагоном. Эта платформа обрабатывает огромные объёмы данных — от видео дронов и радиоперехвата до агентурной разведки. ИИ не только находит цели, но и расставляет приоритеты, подбирает оружие с учётом запасов и даже проводит предварительную юридическую оценку атаки на соответствие международным нормам.
Профессор Крейг Джонс из Университета Ньюкасла отмечает: «ИИ генерирует рекомендации быстрее, чем человеческий разум». То, что раньше занимало дни или недели, теперь происходит за секунды, позволяя подавлять ответные удары противника.
Риски «сжатия решений»: Когда машина берёт верх
Эксперты предупреждают о феномене «сжатия принятия решений». ИИ минимизирует время на планирование, но это может превратить военных и юристов в «статистов», механически одобряющих алгоритмические планы. Профессор Дэвид Лесли из Лондонского университета королевы Марии говорит о «когнитивной разгрузке»: когда аналитика полностью на машине, человек эмоционально отстраняется от последствий, что повышает риск ошибок и нарушений «законов войны».
Несмотря на это, Claude уже в 2024 году был внедрён в структуры национальной безопасности США для ускорения стратегического планирования. Однако интеграция оказалась настолько глубокой, что «выдернуть» ИИ из систем практически невозможно.
Позиция Anthropic: Две «красные линии»
Компания Anthropic, создатель Claude, подчёркивает этические границы. Генеральный директор Дарио Амодей в интервью обозначил две «красные линии»:
- Автономное оружие: Текущие модели недостаточно надёжны, рискуя дружественным огнём и гражданскими жертвами. «Технология ещё не готова», — уточняет Амодей, подчёркивая сдвиг от категорического запрета к оценке готовности.
- Массовое внутреннее наблюдение: ИИ может собирать разрозненные данные (камеры, телефоны) в полный профиль человека, угадывая убеждения и отслеживая 24/7. Это шаг к орвелловскому сценарию «1984», где тирания становится неуязвимой.
Anthropic поддерживает все законные военные применения, но отказывается пересекать эти линии, опасаясь не только апокалипсиса (P(doom)), но и антиутопии тотального контроля (P(1984)).
Конфликт с правительством: Бан и альтернативы
Администрация Трампа объявила Anthropic «угрозой цепочке поставок», приказав федеральным ведомствам отказаться от её продуктов. Министр финансов Скотт Бессент и Министерство здравоохранения уже прекратили использование Claude, рекомендуя перейти на ChatGPT или Gemini.
Тем временем генеральный директор OpenAI Сэм Альтман объявил, что его компания подписала контракт с Министерством обороны США. Примечательно, что OpenAI получила в соглашении практически те же гарантии и этические ограничения, за которые Anthropic подверглась давлению.
В ходе сессии вопросов и ответов (AMA) на платформе X Альтман изложил свою позицию по ключевым вопросам. По его мнению, контроль над развёртыванием искусственного интеллекта должен оставаться в руках демократически избранного правительства, а не частных компаний. «Если Ford продаёт грузовики армии, но хочет сам диктовать условия их использования — это абсурд. То же самое относится к ИИ», — пояснил он.
Альтман продемонстрировал понимание позиции Дарио Амодея. Он отметил, что основатель Anthropic искренне считает Claude одной из самых мощных технологий в истории человечества и думает не только о P(doom) — вероятности апокалипсиса из-за ИИ, — но и о P(1984), то есть об орвелловском сценарии тотальной технологической антиутопии, где правительство получает инструменты неуязвимого контроля над населением.
Неожиданно для многих, Сэм Альтман публично поддержал конкурента. Он заявил, что правительство не должно присваивать Anthropic статус «угрозы цепочке поставок» (supply chain risk), и призвал Пентагон предложить компании те же условия контракта, на которые согласилась OpenAI. «Это крайне опасный прецедент, — подчеркнул Альтман. — Как более сильная сторона, правительство несёт большую ответственность».
Угроза статуса «Supply Chain Risk»
Если такое обозначение будет официально введено, последствия для Anthropic могут стать экзистенциальными. Компания окажется отрезанной не только от прямых военных контрактов, но и от сотрудничества со всеми федеральными подрядчиками. Крупные технологические гиганты, такие как Amazon (AWS) и Google, будут вынуждены изолировать или полностью прекратить использование любых технологий Anthropic в проектах, связанных с государственными заказами.
Дарио Амодей уже заявил, что Anthropic намерена оспорить это решение в суде, утверждая, что у правительства нет достаточных юридических оснований для подобного запрета.
Почему Anthropic особенная и что дальше
Примечательно, что Anthropic, обладая меньшим финансированием и командой по сравнению с конкурентами, смогла создать одну из самых сильных моделей на рынке — Claude 3.5/3.6 Opus. В то время как OpenAI, Google DeepMind и xAI Илона Маска уже изменили свои правила и открыто разрешили военное применение своих моделей, Anthropic остаётся единственной крупной лабораторией, попытавшейся установить чёткие этические границы.
Wes Roth считатет, что лучший возможный исход — это компромисс: снятие статуса «угрозы цепочке поставок» и заключение контракта с Anthropic на условиях, аналогичных OpenAI. В таком случае все законные военные применения будут разрешены, но финальное слово останется за правительством США.
Конфликт во многом объясняется столкновением культур: философско-осторожный подход Силиконовой долины в лице Дарио Амодея и жёсткий милитаристский стиль Пентагона. По мнению экспертов, если правительство решит просто «раздавить» одну из ведущих AI-лабораторий страны из-за принципиальной позиции, это станет, с точки зрения теории игр, «чистой глупостью» — действием, которое вредит всем участникам и не приносит выгоды никому.
Ситуация далека от чёрно-белой картины. Anthropic никогда не возражал против участия в летальных операциях (модель уже применялась в Иране, Венесуэле и, вероятно, во многих других миссиях). Речь идёт исключительно о двух «красных линиях». Как однажды заметил Илон Маск, «Anthropic никогда не входил в список возможных победителей». Тем не менее разумный компромисс всё ещё возможен.
На основе:https://www.youtube.com/watch?v=Hzm3D7i3NFk
https://news.israelinfo.co.il/141671

No comments:
Post a Comment