
Image generated using ChatGPT
Мнение: Искусственный интеллект в военных действиях — тихий поворот технологической индустрии в сторону поля боя
Дебаты по вопросу автономного оружия, политики в области технологической безопасности и этики ИИ в военной сфере продолжаются, но последние дни принесли значительные изменения. Руководители OpenAI, DeepSeek, и даже основатель Spotify объявили о новых договоренностях о сотрудничестве с правительствами по вопросам оборонных технологий и стратегического ИИ
Напряженность вокруг использования искусственного интеллекта в военных целях усилилась за последние несколько дней. В этом месяце несколько технологических компаний объявили о новых стратегических партнерствах с правительствами для разработки оборонных проектов. И, как и во многих других областях ИИ, за последние месяцы произошел резкий поворот в подходе к использованию ИИ в разработке военных технологий и оружия.
Всего несколько дней назад OpenAI и правительство США объявили о сделке на сумму $200 миллионов для разработки оборонных инструментов на базе искусственного интеллекта. Подробности пока что остаются неясными, ведь официальные лица акцентируют внимание на «административных операциях» как основном применении.
Тем временем шведский предприниматель и основатель Spotify Даниэль Эк поддержал немецкую компанию Helsing, возглавив инвестиционный раунд на сумму €600 миллионов. Helsing, изначально специализировавшаяся на программном обеспечении, теперь переходит к разработке дронов, подводных лодок и самолетов.
Рейтерс недавно раскрыл, что DeepSeek помогает военным и разведывательным операциям Китая. Старший американский чиновник заявил, что этот стартап в области искусственного интеллекта помогает решать проблемы, возникающие в ходе торговой войны между США и Китаем, а его модель с открытым исходным кодом помогает китайскому правительству в операциях наблюдения.
Технологические гиганты сотрудничают с правительствами способами, к которым мы не привыкли — по крайней мере, не так открыто — и вовлекаются в деятельность, которая традиционно не была частью их роли, например, старшие технические руководители присоединяются к резерву армии США.
Отряд 201 Армии: Экзекьютивный Корпус Инноваций — это попытка привлечь высококвалифицированных технических руководителей для работы на частичную занятость в резерве Армии в качестве старших советников, чтобы помочь формировать быстрые и масштабируемые технологические решения для сложных проблем. ⤵️ https://t.co/95LjcCmbYe
— U.S. Army Reserve (@USArmyReserve) 24 июня 2025
Что происходит?
Смена в речи
Технологические компании перешли от «Мы никогда не будем использовать ИИ для военных целей» к «Возможно, мы тихо удалим этот пункт из наших политик» и до «Отличные новости, теперь мы создаем оружие на базе ИИ для правительства!»
По крайней мере, так это выглядит для внимательного наблюдателя.
Не так давно гиганты ИИ с гордостью заявляли, что никогда не поддержат военные приложения, но что-то изменилось. Отличным примером является Google.
В 2017 году Министерство обороны США запустило проект Maven, Кросс-функциональную команду алгоритмической войны, целью которой было интегрировать ИИ в военные операции. Google изначально участвовал в проекте, но внутренние протесты, вызванные озабоченностью сотрудников вопросами этики, заставили компанию временно отступить.
В прошлом году возникло еще одно движение в сторону военной деятельности, и почти 200 сотрудников Google DeepMind призвали компанию отказаться от военных контрактов.
«Любое вовлечение в военные дела и производство оружия влияет на наше положение в качестве лидеров в области этичного и ответственного ИИ и противоречит нашей миссии и заявленным принципам ИИ», — написали обеспокоенные сотрудники.
На этот раз ответ Google был следующим: подождать и тайно обновить свои принципы этики AI, убрав ту часть, где говорилось, что они никогда не будут разрабатывать технологию искусственного интеллекта, которая могла бы причинить вред. Демис Хассабис, руководитель отдела искусственного интеллекта Google, объяснил, что они просто адаптируются к изменениям в мире.
Хотя случай с Google иллюстрирует эволюцию отношений между AI и военным использованием, это лишь один из примеров более широкого отраслевого сдвига в направлении обслуживания оборонных целей.
Искусственный интеллект переформатирует военную и оборонную отрасль
Запуск проекта Maven, или, как некоторые могут назвать его, «когда правительство США осознало, что большие языковые модели могут быть чрезвычайно полезны в военных целях», раскрыл одну из причин, почему американское правительство заинтересовано в ИИ.
Способность систем ИИ обрабатывать огромные объемы данных, идентифицировать объекты на поле боя и анализировать изображения особенно привлекательна в оборонной отрасли.
Улучшенный анализ, превосходящий человеческие возможности
С 2022 года как Украина, так и Россия начали интегрировать системы ИИ в свои военные операции.
Украинское правительство сотрудничает с технологическими компаниями и применяет несколько стратегий для максимального использования больших языковых моделей. Недавно оно обработало 2 миллиона часов видеоматериалов с поля боя — эквивалент 228 лет видео — для обучения моделей ИИ военным процессам. Сколько людей потребовалось бы для анализа такого количества данных?
«Это пища для искусственного интеллекта: если вы хотите обучить AI, вы даете ему 2 миллиона часов (видео), он превратится в нечто сверхъестественное,» — объяснил основатель некоммерческой цифровой системы OCHI, Александр Дмитриев. Видеоматериалы могут оптимизировать работу оружия и помочь улучшить боевые тактики.
Еще одна система AI, Avengers, это платформа для разведки, работающая на базе искусственного интеллекта, разработанная Инновационным центром Министерства обороны Украины. Она обрабатывает видео в режиме реального времени с беспилотников и определяет до 12 000 вражеских подразделений еженедельно.
Беспилотники: Горячий товар на поле боя
Беспилотники на поле боя, которые часто называют «машинами для убийства», в настоящее время являются одной из наиболее ценных технологий в современной войне благодаря их автономности, точности и низкой стоимости. Эти роботы позволяют воюющим странам проводить мощные удары без риска для жизни пилотов и всего лишь за долю традиционных затрат.
К маю этого года, Россия развернула более 3,000 камикадзе-дронов «Ветер» на Украине. Эти системы способны самостоятельно определять цели и осуществлять атаки.
Всего несколько дней назад, украинские солдаты развернули дрон Gogol-M, «материнский» дрон, способный преодолевать до 300 километров, переносить другие дроны, уклоняться от радаров, летая на низких высотах, и сканировать землю под собой для обнаружения и атаки вражеских войск.
Согласно The Guardian, каждая атака с использованием этого мощного дрона обходится примерно в $10,000, тогда как ракетная система с использованием немного устаревшей технологии обходилась бы между $3 и $5 миллионами.
Совершенно новый стартап Theseus быстро собрал $4.3 миллиона после того, как его молодые основатели поделились постом на социальной платформе X в прошлом году, заявив, что они создали дрон за менее, чем $500, который может летать без сигнала GPS.
Мы спроектировали, напечатали на 3D-принтере и собрали дрон стоимостью менее $500, который определяет координаты GPS без сигнала, используя камеру и Google Maps
всего за 24 часа pic.twitter.com/8P2QoQMNbW
— Иэн Лаффи (@ilaffey2) 18 февраля 2024
Хотя технология дронов еще не настолько точна, как надеются некоторые разработчики — особенно когда она подвержена влиянию погодных условий, снижающих ее «видимость» — она продемонстрировала большой потенциал в этой сфере.
Труднодостижимый глобальный консенсус
И не только страны, находящиеся в состоянии войны, или ведущие мировые державы разрабатывают новые технологии на базе ИИ для обороны. Многие нации уже много лет интегрируют ИИ в свои усилия по обеспечению кибербезопасности и разработке автономного оружия. Это явление не связано только с 2025 годом.
С 2014 года Организация Объединенных Наций пытается договориться о регулирующих рамках с несколькими странами, но без успеха.
Более 90 наций недавно собрались на Генеральной Ассамблее ООН в Нью-Йорке для обсуждения будущего автономного оружия, контролируемого искусственным интеллектом, и его регулирования. Согласия они так и не достигли, и Генеральная Ассамблея приняла лишь независимую резолюцию 2023 года, которая предупреждает о необходимости регулирования систем смертельного автономного оружия (LAWS).
Теперь большой спор идет о том, следует ли внедрять глобальную рамочную систему или нет. Многие страны согласны с необходимостью новых глобальных руководящих принципов, которые могут регулировать частные компании AI и нации. Другие страны, такие как США, Китай, Россия и Индия, предпочитают сохранить текущие международные законы и самостоятельно создавать новые для каждой нации в соответствии с их местными потребностями или интересами. И мы только что увидели, насколько хаотичным был процесс создания новых регулятивных норм AI, даже на уровне штата в Калифорнии.
Технологические компании все больше вовлечены
Активисты, такие как Лора Нолан из Stop Killer Robots, беспокоятся об отсутствии мер безопасности и правовых рамок, которые контролируют прогресс технологических компаний в разработке автономного оружия и программного обеспечения AI для военных.
«Мы обычно не доверяем отраслям, которые саморегулируются … Нет причин доверять больше оборонным или технологическим компаниям,» — сказала Нолан Рейтер.
В 2024 году исследователи обнаружили, что китайские учреждения используют открытую модель большого языка Meta Llama в военных целях. Пентагон заключил сделку с Scale AI для разработки Thunderforge — проекта искусственного интеллекта для модернизации военного принятия решений. А OpenAI сотрудничала с военным подрядчиком Anduril — оборонным союзником военных сил США, Великобритании, Украины и Австралии.
Стартапы в области обороны также развиваются в Европе, завоевывая позиции не только в разработке новых технологий и проектов, но и в привлечении топовых специалистов.
Сложная разработка
Еще одним фактором, тесно связанным с участием технологических компаний в национальных оборонных стратегиях, является национализм. Все больше разработчиков программного обеспечения и экспертов в области искусственного интеллекта выбирают работу над проектами, которые соответствуют их идеалам и культурным корням, а не просто преследованием высоких зарплат. Некоторые даже отказались от работы в США, где предлагали в два раза больше оплату — например, в Google или OpenAI — чтобы присоединиться к европейским проектам, таким как Helsing.
Нити политики, технологий, национализма и идеологических битв все больше переплетаются, часто оставляя за бортом вопросы этики, морали и гуманизма.
Недавние события ясно показывают, что технологические гиганты играют огромную роль в военных и оборонных усилиях по всему миру. Развитие автономного оружия и военных технологий продвигается сверхбыстрыми темпами, в то время как усилия Организации Объединенных Наций по установлению международных соглашений и регулирований для будущего человечества кажутся все более пренебрежительными.
Без международных соглашений — и при поддержке амбициозных технологических компаний правительствами для разработки самого мощного оружия в мире на основе ИИ — что же ждет человечество в будущих годах?