Искусственный интеллект убьет, а не спасет. Проверено в США.

Mar 21, 2020 16:08





По мере развития технологий искусственного интеллекта все большей популярностью начинает пользоваться идея его использования в военном деле. Считается, что ИИ внимательнее, четче в принятии решений и значительно быстрее в их реализации. А еще он опирается на значительно более широкую базу знаний, чем может быть опыта у человека.

Единственная проблема - страх отдать компьютеру право на самостоятельное открытие огня. Все ранее проводимые такие эксперименты заканчивались плачевно. Сбой в программе и ЧП, часто даже с человеческими жертвами.

Но сама по себе идея продолжала жить, особенно актуализируясь в кризисные времена. В том числе в виде переноса ИИ с тактического на стратегический уровень. То есть решение «нажать кнопку» остается за человеком, но обработка массива входящих данных и выработка оптимальной стратегии доверяется ИИ.

На днях корпорация RAND, с привлечением специалистов Пентагона, провела командно-штабную военную игру по вполне реалистичному сценарию. Пользуясь ослаблением главного геополитического конкурента Китай предпринимает попытку расширения зоны своего полного контроля в регионе. США и их главный союзник в АТР - Япония - пытаются такое не допустить. Решения на уровне начальников баз, командиров кораблей, подводных лодок, сухопутных частей и авиационных подразделений принимали люди, но общую картину, на основе которой они это делали, формировал ИИ.



Предполагалось, что обе стороны начинать глобальную ядерную войну не желают и в своих действиях всячески стремятся от критической эскалации уклониться. Но практика учений показала, что в случае использования ИИ в стратегическом звене, дело неизбежно заканчивается обменом глобальными ядерными ударами.

Расхождения начинались уже на начальном этапе первых бескровных инцидентов с беспилотниками. Люди пытались максимально избегать шагов, ведущих к неизбежному усилению ответной реакции, тогда как ИИ руководствовался только целесообразностью достижения единственной главной цели - пресечь действия оппонента и вернуть стратегическое положение на карте к докризисному состоянию.

Даже при минимальном стремлении к эскалации насилия компьютер более чем на порядок быстрее переходил к жестким силовым действиям, либо сопряженным с высоким риском человеческих потерь у противника, либо прямо их предполагающих. В результате этап мелких инцидентов, эскалацию ответа на котором людям еще удавалось сгладить, преодолевался чрезвычайно быстро и войска начинали получать «оборонительные» приказы откровенно агрессивного свойства. В том числе при действиях в нейтральных водах и ничейном воздушном пространстве. После чего случался какой-нибудь крупный инцидент, вроде потопления американо-японскими силами ПЛО китайской ракетной подводной лодки в районе островов Спратли. Что в итоге оказалось спусковым крючком роста жесткости ответа, вынуждавшего к еще большей жесткости, чтобы еще большей жесткости. И дальше все заканчивалось обменом стратегическими ядерными ударами, избежать которых люди уже не могли. Алгоритм обработки данных ИИ просто не оставлял им иного выбора.

В заключении экспериментаторы отметили, что даже гибридные (ИИ + люди) военные системы ведут к коренному изменению эскалационной логики и динамики принятия решений. Причем главным фактором негативной неопределенности становится не противник, а именно искусственный интеллект, логика действий которого остается людям непонятной. Даже учитывая тот факт, что люди сами же создают и программируют ИИ.

Источник: ТГ-канал РУССКИЙ ДЕМИУРГ

США, компьютеры, эксперимент, учения, комментарий, передовые технологии

Previous post Next post
Up