Машина, умеющая делать моральный выбор

Nov 30, 2012 12:34

Гари Маркус (Gary Marcus), профессор психологии в Университете Нью-Йорка и, в частности, автор переведенной на русский книги «Несовершенный человек», поднял интересную тему в The New Yorker. Привожу первую половину, в которой ставится вопрос:

«Автоматически управляемые автомобили (без водителя) от компании Google уже официально разрешены к использованию в трех штатах, Калифорнии, Флориде и Неваде, и в один прекрасный день подобные устройства могут стать не просто возможными, но и обязательными. В конце концов (хотя пока еще это не так) автоматизированные транспортные средства будут ездить лучше и более безопасно, чем можете вы; они не напиваются, не отвлекаются, у них лучше рефлексы, а также повышенная осведомленность (через сеть) о местоположении и скорости других транспортных средств. В течение двух или трех десятилетий разница между автоматизированным вождением и вождением человека будет настолько велика, что вам может быть официально не разрешено ездить на собственном автомобиле. И даже если вы сохраните это право, для вас будет аморально ездить таким способом, потому что риск причинения вреда себе или другому человеку в этом случае намного выше, чем если бы вы позволили машине сделать работу за вас.

Этот момент окажется важным не только потому, что он будет означать закрытие еще одной сугубо человеческой ниши, а потому, что это будет сигнализировать о возникновении другой: эпохи, в которой для машин больше не будет вспомогательным иметь систему этического контроля. Ваш автомобиль мчится по мосту на скорости пятьдесят миль в час, когда свернувший с курса школьный автобус, перевозящий сорок невинных детей, оказывается на его пути. Должен ли ваш автомобиль повернуть, возможно, рискуя жизнью своего владельца (вашей), для того, чтобы спасти детей, или продолжать двигаться прямо, подвергая все сорок детей в риску? Если решение должно быть принято в течение миллисекунд, компьютеру придется обратиться к этой системе.

Данная проблема может быть еще более актуальной, когда речь идет о военных роботах. При каких условиях, если вообще следует, можно считать этичным отправку роботов вместо солдат? Роботы-солдаты не только быстрее, сильнее и надежнее, чем человеческие существа, они также застрахованы от паники и депривации сна, и никогда не будут охвачены желанием мести. В то же время, как отмечают Human Rights Watch в широко разрекламированном докладе, вышедшем ранее на этой неделе, роботы-солдаты также будут совершенно лишены человеческого сострадания, и могут легко нанести беспрецедентные разрушения, оказавшись в руках Сталина или Пол-Пота. Любой, кто видел первые сцены «Робокопа», знает, почему у нас есть опасения по поводу роботов, служащих солдатами или полицейскими.

И что же нам следует по этому поводу делать? Решение, предложенное Human Rights Watch-прямой запрет на "разработку, производство и использование полностью автономного оружия"-кажется дико нереальным. Пентагон, скорее всего, не пожелает отказываться от своих огромных инвестиций в роботов-солдат (по словам Peter W. Singer, "Predator [дроны] являются лишь первым поколением."), и лишь немногие родители предпочтут отправить своих сыновей (или дочерей) на передовую, если существует альтернатива в виде роботов.

С военными роботами или без, то, что нам реально понадобится, это надежный способ научить наши машины быть этичными. Беда в том, что у нас почти нет идей, как это сделать». -- Moral Machines

Во второй части он рассуждает о законах робототехники Азимова, что они не годятся, и говорит про эволюцию самой морали. Она меняется со временем. Соответственно, быть может, с какого-то момента мораль будет развиваться не только усилиями людей, но и при помощи более сильного искусственного интеллекта.. Такое вот смелое предположение.

См. также The Singularity and Machine Ethics

tech, singularity, ai

Previous post Next post
Up