![](https://img-fotki.yandex.ru/get/96770/20682809.443/0_eba75_1e478ff3_XL.jpg)
Американское онлайн-издание Defense One представило новую электронную книгу, посвященную перспективам и рискам использования искусственного интеллекта (ИИ) для ведения боевых действий. Индустрия ИИ и машинного обучения растет экспоненциально, сферы применения, в том числе и военные, практически безграничны. Сегодня решение о ликвидации целей принимает человек, но на горизонте уже создание систем, которые будут вести боевые действия автономно. Авторы выпущенной книги обеспокоены тем, что противники США выведут на поле боя собственные непредсказуемые и плохо спроектированные, но смертоносные ИИ-системы, и призывают военное руководство страны быть готовым к такому повороту событий.
НА ПОВЕСТКЕ ДНЯ
Тема становится все более «горячей» и обсуждается на высшем уровне. Замминистра обороны США Боб Ворк в 2014 году публикует написанную в соавторстве монографию «20YY: подготовка к войне в эпоху роботов». В 2015 году Научный совет Министерства обороны США выпускает подробный доклад об автономности военных систем и рекомендует в том числе создать в будущем американскую скрытую глобальную кибер-инфраструктуру, которая могла бы автономно в режиме реального времени «срывать» атаки противника. В 2016 году DARPA на конференции хакеров в Лас-Вегасе проводит конкурс по автономной кибербезопасности.
Замминистра обороны Боб Ворк не устает предупреждать о необходимости уделять внимание новой технологии: «В течение последних десятилетий США были первопроходцем в применении технологий автоматизированного управления боеприпасами и интегрированных сетей. Данные инновации дали войскам США неоспоримое преимущество в космосе, в воздухе, на воде и под водой, а также позволили проводить успешные боевые операции на суше. В результате многих причин - геополитики набирающих силу государств, глобального распространения технологий и ответных ходов противников - превосходство Соединенных Штатов начинает сходить на нет. В результате лица, отвечающие за планирование вооруженных сил и обороны, сталкиваются с быстро приближающимся будущим, в котором находят все более широкое применение при проведении операций автоматические виды вооружения и сетевые технологии ведения войны. Армия США знакома с автономными системами ведения боя, которые она применяла в течение последнего десятилетия в Ираке, Афганистане и других странах. Но такие виды вооружения как управляемые воздушные и наземные аппараты с дистанционным управлением будут в скором времени заменены преимущественно беспилотными и автономными системами во всех физических сферах действия (воздухе, море, под водой, на суше и в космосе) и в большинстве военных операций. Еще потребуется некоторое время, чтобы новый способ ведения войны стал более очевидным, в котором беспилотные и автономные системы займут центральное место при ведении боя».
На сегодня в мире, по оценке авторов публикации, существует 284 военные системы, которые в той или иной мере включают в себя искусственный интеллект. Основные разработки сегодня ведутся в области создания систем, которые бы автономно определяли противника, сверяясь с «библиотекой целей». Также упор сделан на системах, которые бы могли не просто наносить удары по слабо вооруженным врагам в Ираке или Афганистане, но могли бы оперировать против противников с развитыми средствами радиоэлектронной борьбы.
Особый интерес сегодня вызывает даже не автономные боевые действия собственных ИИ-систем, а так называемый концепт «контр-автономности», когда подвергнувшаяся нападению ИИ-система противника учится, делает выводы из случившегося и сама выбирает способы противодействия. То есть каждая атака делает врага все более опасным, если не уничтожает его.
ГОНИ ЧЕЛОВЕКА И УГРЫЗЕНИЯ СОВЕСТИ
Патрик Такер, один из авторов книги Defense One, и профессор Денверского университета Хизер Рофф отмечают, что несмотря на привычную риторику Пентагона, ИИ-системы сегодня используются не для того, чтобы помогать человеку принимать лучшие решения быстрее, а для того, чтобы полностью исключить человека из сферы принятия решений.
Замминистра обороны США Боб Ворк также отмечает, что необязательно США или другие сильнейшие мировые державы будут пионерами вывода автономных систем на поле боя. Боб Ворк считает, что региональные державы, например Израиль, могут дестабилизировать ситуацию как на Ближнем Востоке, используя военные ИИ-системы, так и в других регионах мира, экспортируя их.
На поле боя будущего будет побеждать та система, которая принимает решения быстрее. В этом плане человек становится слабым и медленным звеном в цепочке командования, и соответственно, у противника всегда будет искушение создать полностью автономную систему.
Уильям Ропер, глава управления стратегических возможностей (Strategic Capabilities Office, SCO) Пентагона, сравнивает ситуацию с высокочастотным трейдингом, только в военной сфере. Эта перспектива пугает его, так как противники США «без угрызений совести» постараются исключить человеческий фактор из своих военных ИИ-систем.
ВВС И ВМС: КТО БЫСТРЕЕ И УМНЕЕ?
Любопытно, что возможно автономные ИИ-системы будут внедряться на флоте быстрее, чем в воздушных силах. ВВС США приходится напоминать и оправдываться, что удары с беспилотников производят операторы, а не сами машины, и операторы иногда ошибаются. Из-за этих реальных ударов, ошибок и жертв среди мирного населения тема дронов в ВВС постоянно муссируется в СМИ.
Флот же без лишней шумихи и внимания общественности, по крайней мере пока, может спокойно сосредоточиться над созданием своих систем.
На флоте в том числе работают над технологиями управления беспилотными катерами и, в перспективе, другими военными машинами.
Речь идет о портативном устройстве CARACaS (Контрольная архитектура для робокоманд и воспринимания), которое может быть установлено практически на любой катер. Бывший глава военно-морских исследований американского флота контр-адмирал Мэтью Кландер отметил, что устройство уже сегодня всего лишь размером с ладонь и в будущем практически любое уже существующее военное средство (катер, машину, самолет) с помощью таких устройств можно будет дешево и быстро превращать в члена автоматизированного роя. А это, по мнению Кландера, очень важно, учитывая глобальные интересы США и масштабные потребности в беспилотных системах.
В ВВС США тем временем разрабатывается система ALPHA, которая за 6,5 миллисекунд снимает данные с датчиков, структурирует и анализирует информацию и способна за это время выдать наиболее оптимальные сценарии действия для четырех самолетов. Проблема в том, что непонятно, как тестировать такие системы. Тестировать их смогут только такие же ИИ-системы. На данный момент нет физической возможности это делать, кроме как через моделирование и имитацию.
Директор DARPA доктор Арати Прабхакар в прошлом году рассказала о проекте по борьбе с программируемыми радарами России (упоминается Небо-М) и Китая: «Одна из наших программ в DARPA использует совершенно новый подход к этой проблеме, которую мы собираемся разрешить с помощью когнитивного электронного вооружения. Мы используем искусственный интеллект для изучения действий вражеского радара в режиме реального времени, а затем создаем новый метод глушения сигнала. Весь процесс восприятия, изучения и адаптации повторяется без перерыва».
РИСКИ НЕ ПУГАЮТ
Плюсы наличия автономных военных ИИ-систем понятны: сохранение жизни собственных военнослужащих, повышенная точность применения оружия сокращает сопутствующие потери среди мирного населения, сам факт существования такой системы служит инструментом предотвращения начала конфликта.
Риски же критики обычно сводят к пяти вопросам: кто контролирует ИИ-систему? можно ли ее хакнуть? кто принимает решение о нанесении удара? будет ли система ошибаться? кто понесет ответственность за ошибки?
Первый вопрос имеет корни в Голливуде и фантастике. Скорее, он звучит так: не захватят ли военные роботы власть над человечеством? Нет, в обозримом будущем вероятность такого сценария ничтожно мала.
Хакнуть машину, которая сама конфигуририует свои алгоритмы, - маловероятно.
Нужен ли человек для финального решения? Там, где важна скорость, человек становится обузой. ИИ-система может быть вооружена нелетальным оружием, критерии применения оружия без команды человека могут быть строго прописаны.
Ошибки? Люди совершают гораздо больше ошибок. ИИ-система, возможно, совершит ошибку, а человек точно это сделает, наверняка.
Здесь главная опасность заключается в том, если многочисленные ИИ-системы будут одновременно делать одну и ту же ошибку. Например, запускающие на праздник фейерверк люди будут определены ИИ-системой как террористы. Но это уже вопрос тестирования и обучения системы до надлежащего уровня.
Кто будет виноват в случае ошибки? Производители военных ИИ-систем, командование операцией? Разделить ответственность на финансовую (для компаний-производителей) и персональную (для военного руководства)? Это все обсуждаемо.
Ясно одно, что риски пока не перевешивают выгоду и работы над созданием военных ИИ-систем будут только набирать обороты.
Замминистра обороны США Боб Ворк резюмирует: «Способ ведения войны на основе беспилотных и автономных систем способен изменить наши основные понятия о стратегии безопасности. Автономные системы, в отличие от своих аналогов, управляемых человеком, характеризуются иными свойствами и смогут изменить не только способ развертывания войск США по всему миру, но и отношение политиков к применению данного вида систем вооружения. Перед вооруженными силами США открываются огромные возможности в будущем, если политики сделают правильный выбор. Существует большая опасность, что неправильные решения и недостаточное понимание новых тенденций приведет вооруженные силы США к ненужным рискам».
Илья Плеханов
http://navoine.info/ai-fuwar.html