Робот и мораль

Feb 16, 2023 13:18



"Когда тема автономных боевых роботов появилась в поле зрения общественности, а было это в 10-х годах XXI века, стали возникать дискуссии о праве роботов на убийство человека. Например, в октябре 2010 года Комитету по правам человека Генассамблеи ООН был представлен доклад, авторы которого выражали обеспокоенность, что такое право роботов грубо нарушает права человека и, следовательно, разработка и использование таких роботов нужно регулировать соответствующим международным договором. Тогда дискуссия была чисто теоретической, поскольку полностью автономных роботов еще не было и в проектах.

Теперь ситуация иная, число автономных роботов растет, причем не только на поле боя, ведь подобного рода машины можно использовать и для обеспечения внутреннего правопорядка, как это делают китайцы. С большой вероятностью, как верно отмечают американские генералы, в ближайшее время ни один оператор не справится с потоками идущей от боевых роботов информации, они станут в значительной степени обмениваться данным друг с другом и вырабатывать самостоятельные решения без ведома оператора. В лучшем случае, когда речь пойдет о праве на жизнь, они станут перед выстрелом получать его одобрение. Когда речь идет о поражении не людей, а техники, то уже сейчас, скажем, американские флотские роботопушки решения принимают самостоятельно.

Перспективы, когда робот, вопреки законам Азимова, получает право на убийство человека, не нравятся многим думающим людям. Так, еще в 2016 году специалисты по искусственному интеллекту подготовили петицию о запрете оснащения машин с искусственным интеллектом летальным оружием. С тех пор петицию подписали более 20 тысяч человек, включая такие известные медийные фигуры, как физик Стивен Хокинг и предприниматель Илон Маск. Аргументы следующие.

Во-первых, это неизбежно ведет к гонке вооружений в сфере искусственного интеллекта, что уже само по себе нехорошо. Не исключено, что подписантов волнует и неясность, кто же выйдет победителем этой гонки? В частности, аналитиков НАТО сильно огорчают слова президента РФ В.В. Путина о необходимости всяческого развития искусственного интеллекта и цифровизации всех областей общественной жизни.

Они усматривают в этих словах несомненную угрозу скорой роботизации российской армии именно автономными боевыми роботами.

Во-вторых, робот, которому дано право на убийство человека, может использовать это право весьма специфически. Точнее, программисты могут вложить в него своеобразные цели, особенно в случае гражданского конфликта.

Например, проведение геноцида, то есть выборочного убийства беззащитных людей в зависимости от цвета кожи или формы носа. Предполагается, что роботы неплохо себя проявят как наемные убийцы (история аз-Завахири, когда американский дрон висел над Кабулом, не спрашивая разрешения талибских властей, и, дождавшись выхода жертвы на балкон, произвел пуск ракет, отлично иллюстрирует такую возможность). Выступая в роли неизвестных снайперов, они могут пролить последнюю каплю в чашу народного гнева и необратимо дестабилизировать ситуацию в какой-то стране. И вообще, обладающие искусственным интеллектом боевые роботы могут стать оружием массового поражения, особенно при массовом производстве дешевых машин такого рода.

Серьезные вопросы есть и у юристов. Ведь теперь после окончания войны всегда встает вопрос об ответственности военных преступников проигравшей стороны (победителя-то не судят). В случае использования автономных роботов с правом на убийство неизбежно встанет вопрос, а кто должен предстать перед судом? Робот?

Но ведь это машина. Командир? А он не контролирует автономного робота, не знает, что у него зашито в микросхемах. Программист? Однако создание систем искусственного интеллекта - коллективный труд, неизвестно, кто написал строчки кода, которые привели, скажем, к гибели гражданских.
Все эти вопросы должны быть прояснены в соответствующем договоре. Его уж десятый год пытаются безуспешно обсуждать в рамках переговоров по Конвенции об ограничении обычных вооружений; последнее такое обсуждение прошло в марте 2022 года. Против запрета на роботов-убийц выступают страны-изготовители военных роботов, например США, Южная Корея, Израиль, РФ, Великобритания, Турция, Эстония. Они считают, что имеющегося законодательства в области гуманитарного права достаточно, а аргументы в поддержку специального протокола к конвенции неубедительны. КНР в принципе поддержала запрет на использование автономных боевых роботов, но требует сохранить разрешение на их разработку. А вот Генеральный секретарь ООН Антонио Гуттериш запрет роботов-убийц поддержал в 2018 году, как и представители 30 стран мира.

Пока что с роботами-убийцами наиболее активно борются общественники из международного объединения единомышленников «Остановим роботов-убийц» (Stop Killer Robots), которые пытаются подвигнуть мировых лидеров к заключению международного договора о запрете таких роботов.

Параллельно идет работа с обществом. Так, с 2018 года более 200 технологических компаний и 4000 программистов взяли на себя обязательства не разрабатывать искусственный интеллект для боевых роботов. Удалось добиться такого обещания даже от столь крупного разработчика роботов и ИИ, как Гугл: с 2019 года в компании запрещено участие в подобного рода военных проектах. Поводом для такого решения стал бунт программистов, узнавших, что они работают по военному контракту.

Ну а что касается опасности роботов-убийц, то, как видно из программных документов сообщества, это лишь вершина айсберга повальной цифровизации. Вчитаемся в слова предостережения борцов с роботами-убийцами:

«Машины не видят в нас людей, человек для них лишь фрагмент кода, который нужно обработать и отсортировать. От умных домов до использования собак-роботов полицейскими, технологии искусственного интеллекта и автоматизированного принятия решений стали играть большую роль в нашей жизни. На крайнем конце ряда цифровых устройств находятся роботы-убийцы. Если мы допустим связанную с ними дегуманизацию, мы вскоре станем бороться за то, чтобы защитить себя от решений, принятых машиной и в других сферах нашей жизни. Нам нужно запретить прежде всего автономные системы оружия, чтобы предотвратить сползание к цифровой дегуманизации.

Необходимо установить границы между тем, что приемлемо и неприемлемо для отношений машины и человека. Будь то поле боя или акция протеста, машины не могут делать сложный этический выбор, они не могут понять ценность человеческой жизни. Машины не понимают контекста или последствий: понимание - человеческая способность. Обеспечение значимого контроля со стороны человека означает понимание технологий, которые мы используем, понимание того, где мы их используем, и полное участие в последствиях наших действий. Решения о жизни и смерти не следует отдавать машине. Пришло время для нового международного права, регулирующего эти технологии»."

С.М. Комаров, "Химия и жизнь", № 9, 2022

Ай-Ти и всё такое, научные разработки

Previous post Next post
Up