Листая назад

Jun 15, 2024 18:05

Jun. 15th, 2012

Придумал сегодня мысленный эксперимент. Все из той же серии - «О природе сознания».


Предположим, что люди все-таки смогли написать программу, проходящую тест Тьюринга. Ну, или хотя бы такую, что демонстрирует поведение очень похожее на поведение человека. Тут не так важно, может ли эта программа кого-то обмануть - человек заранее знает, что перед ним робот, и живет в тесном взаимодействии с ним. Его роль может быть некой комбинацией: коллега-друг-раб. В чем это выражается? Робот всегда может воспользоваться своей глобальной эрудицией - все языки, все энциклопедии, все экспертные системы и т.д. Всё, что человечество сумело оцифровать, структурировать и формализовать к его (и соответственно вашим) услугам. Он обладает симулятором психики, адаптированным к достижению максимального комфорта для общения в вами. Одновременно он в курсе всех ваших дел, забот и желаний. С ним можно поговорить о наболевшем, поделиться новостями, спросить совета. И чем больше он с вами общается, следит за вашими реакциями, обобщает опыт этого общения, тем точнее он вас чувствует, тем удачнее, а может быть и неожиданнее, его реакции, ответы и советы. В дополнение к этому он обладает и неким подобием тела, может видеть, слышать, осязать, выполнять работу по дому или еще что. В общем, может быть и не копирует человеческое тело, но имеет свое «выражение лица» и может функционировать в реальном мире.

Конечно же, все это ловкая симуляция, результат действия программы, которая выполняется где-то на супер-компьютере, а ваш робот - это манипулятор и модем, имеющий «мозг» в удаленном доступе. Там же архивируется и структурируется его память.

Заметим, что в этом нет ничего принципиально невозможного, наверняка подобные программы и механизмы могут быть созданы.

Для того, чтобы робот ощущался как живой, программа демонстрирует эмоции - робот может устать, заболеть, проголодаться, испугаться и т.д. Причем это даже не нарочитая симуляция. Робот вполне может беспокоится о том, что прогноз обещает грозу, а с ним и перебои в связи и электропитании. Может устать, если его мощности не хватает или перегружен трафик. Или еще что - у роботов свои проблемы. Вирусы, например. Просто он реагирует на них не только сухими сообщениями на мониторе, а как человек - эмоционально окрашенными репликами, изменением поведения. Более того, возможно подобное эмоциональное поведение будет естественным следствием сложности программы, ее способности к саморефлексии и разнообразия поведенческих стратегий. Например, чтобы вас подбодрить, он может показать своим поведением, что жизнь робота тоже не сахар.

Пожив с таким роботом пару-тройку лет, уже будет почти невозможно относиться к нему как к роботу. Самым естественным будет принять наличие у него сознания. Ну, так же как «я» принимает на веру наличие сознания у окружающих его людей.

Заметим, что человек будет твердо уверен - что это лишь программа и мертвый механизм. Может быть, этот человек даже принимал участие в разработке этой программы. Но то, что он изо дня в день общается с этим комплексом «программа плюс механизм», уже не позволит ему относиться к нему формально. На всякий случай ему придется вести себя так, будто робот такая же сознающая личность, как человек. Потому как железо-железом, а кто его знает?

А теперь предположим, что сам этот робот как механизм и право пользования супекомпьютером стоит немалых денег. И вот человек обзавелся таким роботом, взял его в аренду, а потом обстоятельства изменились, и он уже не может его содержать. По договору тело должно быть возвращено, а все данные на дисках суперкомпьютера стерты. С учетом того, что робот в курсе всех обстоятельств жизни хозяина, он начинает беспокоиться, умолять что-то придумать, впадать в депрессию и т.д. и т.п. Понятно, человек никак не может отделаться от мысли, что тут затевается убийство. Но стоит ему нажать на некую кнопку, как программа мгновенно дезактивирует все эмоциональные подпрограммы и робот становится чем-то вроде комбинации гугля, дневника и мясорубки. Ничего не изменилось, кроме того, что робот больше не плачет и не умоляет его не отключать. Причем делает это искренне, т.к. ему просто нечем умолять и плакать.

Может ли такая кнопка помочь? Нажимая на нее, мы никого не убиваем, просто блокируем действие неких, совершенно незначительных программ. А когда она нажата, перед нами просто программа и железо, и тоже об убийстве говорить не приходится. Но конечный результат все равно тот же - данные стерты, робот на складе. Не будет ли человек ощущать, что он отнес робота в «ветлечебницу», где его «безболезненно усыпили»? Или он просто избавится от абсурдной идеи, что робот все-таки живой?

Previous post Next post
Up