Использование искусственного интеллекта в оружии = уничтожение человеческой расы

Nov 30, 2021 20:00


Единственный способ убедить страны не использовать ИИ в оружии - апеллировать к их чувству самосохранения.



Специалист в области компьютерных технологий Стюарт Рассел (Stuart Russell) встретился в прошлом месяце с высокопоставленными представителями Министерства обороны Великобритании с единственной целью - предупредить о том, что превращение искусственного интеллекта в оружие чревато уничтожением человеческой расы.

Британец по национальности, профессор Калифорнийского университета в Беркли Стюарт Рассел является пионером в области исследований искусственного интеллекта. Последние десять лет он прилагает огромные усилия для того, чтобы не допустить использования ИИ для нахождения и убийства людей.



Рассел, регулярно встречающийся с правительствами на международном уровне, отметил, что США и Россия, а также Великобритания, Израиль и Австралия по-прежнему выступают против моратория на использование автономного смертоносного оружия.

«По-прежнему наблюдается сбой в коммуникации, многие правительства и военные не понимают, в чем заключается возражение (против использования автономного смертоносного оружия - ред.)», - сообщил Рассел изданию Financial Times.

Их главный аргумент заключается в следующем: «Мы же не продаем оружие в торговых центрах, и в случае с технологиями ИИ тоже не будем».

Однако профессор считает, что легкое, дешевое и простое в производстве оружие с использованием технологий ИИ может стать таким же повсеместным, как автоматические винтовки, более 100 млн из которых находятся в частных руках.

Оружие на базе технологий ИИ перестало быть лишь научной фантастикой и превратилось в быстро развивающуюся, совершенно нерегулируемую отрасль, считает профессор.

«Вы можете купить его уже сегодня. Оно рекламируется в Сети», - заявил Стюарт.

В ноябре 2017 года турецкая компания STM представила Kargu - полностью автономный боевой дрон, способный поражать цели, базируясь на изображениях и системе распознавания лиц. Дрон использовался во время военных конфликтов в Ливии в 2020 году, несмотря на запрет ООН продавать ей оружие.

Стюарт также упомянул израильский летательный аппарат с неподвижным крылом Harpy, способный брать на борт до 23 кг взрывчатки, и его преемника Harop. Оба самолета могут управляться удаленно или летать автономно, если человек-оператор укажет местоположение цели и саму цель. Harop уже предположительно приобрела армия в Индии и Азербайджане.

Рассел предупредил, что распространение оружия на базе ИИ представляет собой неминуемую и реальную угрозу.

«Смертоносный квадрокоптер с искусственным интеллектом может быть размером с банку крема для обуви [...]. Около трех граммов взрывчатки достаточно, чтобы убить человека с близкого расстояния. Обычный контейнер способен вместить миллион смертоносных боеприпасов, и [...] их всех можно запустить одновременно. Так что неизбежным концом будет то, что автономное оружие станет дешевым, избирательным оружием массового уничтожения», - сообщил Стюарт.

В конечном счете, считает профессор, единственный способ убедить такие правительства, как США, Россия и Великобритания, все еще противящихся запрету, - это апеллировать к их чувству самосохранения.

Источник: securitylab.ru

военпром, технологии, ИИ, будущее

Previous post Next post
Up