Этика роботов

Aug 17, 2016 22:29

На тех ресурсах, которые я посещаю, активно муссируется тема автономных легковушек и грузовиков (они же робомобили). И, т.к. робомобилю придется принимать все решения, которые обычно принимает живой водитель, то в обсуждения постоянно просачивается вопрос: нужна ли роботу-водителю этика или достаточно соблюдать ПДД (возможно, расширенные ПДД, адаптированные для робомобилей).

Очень интересно, что первая реакция на предложение ввести этические принципы для робота-водителя, совершенно одинакова и у программиста, понимающего, как могут работать электронные мозги, и у обывателя, для которого робот - чёрный ящик. Эта реакция - категорическое НЕТ. Никаких этических принципов. Только ПДД, только строгие правила. На мой взгляд, это иррациональное решение, основанное на страхе. Но прежде чем углубиться, пару слов о том, почему вообще возникают вопросы об этике.

Правила движения конфликтуют с другими ценностями. Например, правила требуют от водителя ехать по центру своей полосы. Однако, если справа едет широкая фура, а слева мотоцикл, то водитель обычно смещается влево, чтобы иметь одинаковое пространство для манёвра в обе стороны. Это не по правилам, но это разумно с точки зрения другой ценности - личной безопасности. Конечно, при этом, безопасность воруется у мотоциклиста. Или, другой крайний случай, на проезжую часть выскочил пьяный и тормозить уже поздно, а уклоняться опасно. Кто-то свернет в любом случае, кто-то нет. Кто-то примет различное решение, в зависимости от того, есть ли у него пассажиры. Значение ПДД здесь полностью вытеснено ценностью человеческой жизни, своей и чужой. Понятное дело, роботу придется в каждом случае принимать какое-то конкретное решение. Исходя из чего? Из строгих правил или следуя какой-то иерархии ценностей?

На самом деле альтернативы иллюзорны. Прежде всего, робомобиль будет минимизировать финансовый ущерб автокомпании. Нарушение правил на дороге - это штраф по фиксированному тарифу. Сбитый человек - это компенсация лечения и репутационные риски, косвенно влияющие на продажу. Повреждение самого автомобиля - это выплата страховки. Авария, нанесшея вред водителю - это и компенсация лечения и большие репутационные потери и прямое влияние на продажи - владелец, скорее всего, робомобиль больше не купит. В ситуации выбора автомобиль выберет наименее затратный по деньгам вариант. Из этого следует, что при аварии, автомобиль скорее задавит пешехода, чем свернет в кювет с риском жизни для водителя, т.к. пешеход обойдется дешевле. Если будет выбор - 5 пешеходов или водитель, наверное пешеходам повезло. Что там будет для трёх или для четырёх - надо считать в цифрах. Если министерство по транспорту такая арифметика не устраивает, они могут менять баланс, устанавливая различные штрафы. В идеале, можно настроить законы так, что решение по минимизации финансового ущерба будет совпадать с наиболее этичным решением.

Т.е., хотим мы того или нет, этика у роботов будет. И нарушение правил будет встроено в логику автомобиля. Так работает бизнес. А вот как к этому относиться - вопрос интересный.

Я вижу, что люди реально боятся доверить роботу принимать решение не на основе правил, а на основе ценностей, даже если с самими ценностями человек согласен. И это не просто страх, что робот поймёт ценности неправильно. И я и многие IT-специалисты, считают, что робот справится лучше, чем человек. Один форумчанин очень точно озвучил свою позицию: “я не сяду в машину, которая может меня целенаправленно угробить, лишь бы не врезаться в автобус с детьми”. Да, одно дело, когда тебя убивает какой-то безликий процесс типа наводнения, закон природы или правил дорожного движения, другое дело, когда участвует чья-то воля и тобой жертвуют, сочтя неважным. Принять второе намного тяжелее.

Вообще, проблема гораздо шире. Есть два кардинально разных подхода к этике. Есть деонтологическая этика. Это этика правил. Она предполагает, что действие важнее последствий. В широком смысле, деонтология наказывает нам не только стремиться к добру, но и делать это “добрым” путём. Нельзя преступать закон и этические нормы, даже если это в итоге приведет к чему-то хорошему.

Противоположный подход - консеквенциализм. Т.е. цель оправдывает средства, победителей не судят и т.д. Или, грубо говоря, нужно поступать так, чтобы добрые последствия действий перевешивали злые.

[Любимый пример]
В культовом, для всех IT-шников, произведении “Гарри Поттер и методы рационального мышления”, Гарри строжайше следует консеквенциализму, а Гермиона не менее ревностно проповедует деонтологию.


В чистом виде нельзя следовать ни тому, ни другому. Однако, трагедия в том, что все мы склонны разрешать консеквенциализм себе, но не другим. Это ясно как по автомобильной теме (пусть я буду ездить по обстоятельствам, а остальные - по правилам), так и в отношении соблюдения законов вообще. Себе можно разрешить нарушение закона, т.к. сам знаешь, что будет справедливо или что не нанесет значительного вреда. Другим (что людям, что роботам) - нет.

Когда я примеряю все эти этические темы на себя, то прихожу к неутешительному выводу. Мне трудно доверить другим людям нарушать правила, не только потому, что я типа умный, честный, могу оценить последствия и всегда поступать справедливо, а другие остальные глупцы и обманщики и не могут. Приходится признать, что я сам не очень умный и не очень честный. Т.е. мне самому, по сути, доверять нельзя. Чего уж тут говорить о ближних и дальних. И все, наверное, в глубине души, знают про себя тоже самое.

В психологии довольная стандартная тема - переносить собственные прегрешения на других. Например, те, кто ходит налево, меньше доверяют своим супругам, чем верные. Собственная неэтичность поразительным образом уменьшает веру в этичность других и наоборот.

Думаю, те же иррациональные мотивы вызывают страх перед мыслью, что робот-автомобиль будет руководствоваться этикой (принципами), а не правилами. Надеюсь, это не помешает развитию индустрии, ибо ездить мне хочется, а вот смотреть за дорогой как-то не очень.

По делу, Наблюдения, Деловая колбаса, Психо

Previous post Next post
Up