Тест на сознание

Oct 11, 2020 19:13

Искусственное квалиа
Сначала попробуем определить, что такое квалиа, которым существо с сознанием отличается от зомби. Именно его наличие мы и хотим определить тестом. Квалиа остается загадочным явлением для философии, поэтому попробуем его прояснить. Как проявляется квалиа? Квалиа - это то, о чем мы знаем, то есть осознанное ощущение. Например, боли. Боль можно и не осознаваться, мы стонем и во сне. Что происходит, когда мы осознаем ощущение? Мы как бы располагаем ощущение перед собой по когнитивной схеме, по которой так же мы располагаем перед собой воспринимаемые объекты. Схема настолько сильна, что мы верим, что смотрим на собственный внутренний мир с позиции гомункулуса. Так возникает «картезианский театр» как было отмечено ранее. И «видим перед собой» свои ощущения только во втором акте сознания, когда распознаем собственное видение как принадлежащее «я». Что происходит в этот момент? Согласно предложенной гипотезе, сознание возникает в результате "вставки" в распознанную в первом акте ситуацию распознанного действия "я", что выражается в памяти на свои действия. Мы как бы противопоставляем переживание своему Я, откуда и появляется картезианский театр или гомункулус. Там мы обращаем внимание на свое переживание явления (феномен), а не только на само явление. Вот тут и появляется субъективность. В языке это проявляется как "Я вижу яблоко". Все обращают внимание на "яблоко", но не замечают появление в речи местоимения "Я", то есть того, что «я» говорю про «я». Это и есть акт обнаружения «я» и размещения его перед тем что «видим» по схеме предикативности. Слова помогли расположить названные ими внутренние действия (видение) и объект (яблоко) как бы перед собой. Именно она порождает субъективность - обнаружение своего внутреннего видения.

Это особенно хорошо видно на чувстве желания чего-либо, потому что оно не видимо (не зрительная модальность). Когда вам хочется вкусное, у вас появляется желания чего-то вкусного, но само желание не заметно. Вы смотрите на желаемое и полностью поглощены этим чувством, хотя не замечаете сначала его как нечто. Оно побуждает вас, и вы берете желаемое в руки. Но потом вспоминаете, например, запрет. И вот тут вы вдруг осознаете свое чувство желания. И только тогда оно появляется перед вами. Вы распознаете свои действия и стоящее за ними чувство желания, вожделения (у нас нет пока других специальных слов для него). И только в этот момент возникает «картезианский театр» - вы обнаруживаете это чувство в своем теле, но перед своим "я", и готовы произнести «я хочу это». Только в этот момент вы обнаруживаете желание - когда используете когнитивную схему для помещения его перед собой, чтобы "увидеть".
Вот это внутреннее видение и является признаком сознания. Возможность распознавания своих действий, которые имплицитно присутствуют во внутреннем плане, и являются теми признаками, которые должен обнаружить тест на сознание. Для распознавания нужна модель этих действий, а не только просто повторная подача на вход сведений о действии с новыми данными как делают современные боты. Но это не просто имплицитное знание. Это было слишком просто - любой бот может назвать свое действие, если это разговор с собеседником. Поэтому бот надо спрашивать о чем-то более серьезном, чтобы обнаружить у него наличие квалиа. Сознание бота проявляется только в речи, поэтому в тесте очень трудно обойти аргумента имитации. Но можно принять такой аргумент, что достаточно хорошая имитация будет вынуждена повторить функции имитируемого в силу неповторимости разными функциональными способами одной и той же функциональности. Иначе функциональность не создает собой новое свойство, раз оно повторимо другим способом. Должны быть отличия, следующие из функциональной структуры. Если это верно, то всегда найдется способ поймать имитацию, хотя бы на бесконечном тесте ее функциональности, если текст построить именно на этом функциональном отличии. Таким функциональным отличием мы вывели в этой главе второй акт в структуре сознания, который должен быть у бота.
Чтобы создать внутренний план, необходимо создать модель внутренних процессов бота, включая действия (текст) и то, что будет считаться у него переживаниями (остается под вопросом). Эта модель не тождественна процессами. Модель служит способом управления процессами, а не их повторением. Модель упрощает динамический характер процессов до простого (чаще статичного) представления в схеме с вариантами как описано в главе 5 (Интерактивный конструктивизм). Модель и является тем способом представления, который составляет содержание внутреннего плана. Мы видим моделями, и осознаем именно модели. Создание способа моделирования обеспечивает таким образом для бота возможность иметь ментальные состояния. И моделировать свои действия, чтобы иметь возможность вернуться к ним в автобиографической памяти бота.

Тест «Почему» .
Тестов на сознание нет ввиду того, что не было обоснованных теорий сознания, на основе которых можно было бы сформулировать такой тест. Известный тест Тьюринга направлен на определение лингвистического интеллекта уровня человека, а не сознания, и даже в этом подвергается большой критике. Речь как поведение возможно без сознания. Поэтому тест Тьюринга не может ответить на вопрос о существовании сознания как его понимают философы. Нам надо сформулировать тест, однозначно в рамках предложенной гипотезы указывающий на наличие или отсутствие сознания в диалоговом эксперименте. Этот тест также предполагает решение проблемы "философского зомби", показывая, какое именно внешне наблюдаемое речевое поведение прямо указывает на наличие сознания. Важным моментом является то, что тест должен обнаружить не интеллект, как некое поведение, а именно сознание. Разумность системы не означает наличие сознания, так как вполне "разумно" может действовать и хорошо обученный интеллектуальный агент, что еще не говорит о наличии сознания.
Чтобы не упрощать задачу имитации, мы должны спрашивать не просто, знает ли бот, что он сделал или хочет сделать. Это достаточно просто имитировать без моделирования внутреннего плана. Спрашивать надо о причинах и намерениях действий бота как ответ на вопрос «Почему». Но спрашивать не о причинах, которые находятся вне бота, а о его собственных причинах - его мыслях, установках, намерениях, которые эксплицитно не высказаны, но побудили его так сказать. Только при распознании внутреннего плана субъект может объяснить причины своего действия, так как причинами являются его внутренние ощущения, мотивы и мысли. Человек сознающий отличается как раз тем, что придает всему смысл. Любое свой поступок или даже мнение мы можем объяснить внутренними мотивами и причинами. Это и есть проявление возможности распознавать свои внутренние мысли, желания и чувства. Причем мы их не знаем заранее, а чаще всего обнаруживаем или «находим» только в момент вопроса. Но можем всегда о нем сказать, так как осознанное отличается возможностью дать отчет о нем. И это функциональное свойство, так как отчет продуцируется, а не извлекается готовым из памяти, если это не дежурный ответ, например, "мне так кажется". Возможность дать ответ на вопрос «Почему» в любой момент и надо проверять у бота.
Почему именно вопрос «Почему»? Диалоговые боты отвечают на вопросы эксперта по какому-то шаблону, предполагающему развитие распознанной ситуации или темы вопроса эксперта. Вопрос "Почему?" не является продолжением данной темы диалога, а направлен совсем на другой, параллельный план - внутренний, личный, но связанный с данной ситуацией. Вопрос «Почему» является по сути вопросом «Какой в этом смысл для тебя». Поэтому это не продолжение повествования о чем-либо, а переход к мотивам и целям повествования. Но смысл повествования не содержится в нем. Это высказывание о высказывании. Для высказывания о смысле надо иметь возможность вернуться к высказанному и понять причины, заставившие бота изложить выказанное. В этом высказывание смысла схоже с сознанием, только это более развернутый процесс. И поэтому вопрос "Какой в этом смысл для тебя?" является также релевантным для теста.
Знания о причинах своих действий очень трудно поделать так как мы их обычно не высказываем в диалоге, но легко, в любой момент можем объяснить свои действия. Поэтому нет датасетов, которые связывали бы ответ и намерение, высказывание и его смысл. Что и создает основу для возможности тестирования.
Одним из примеров тестирования в диалоге является вопрос "Почему вы так решили" (сказали, подумали, чувствуете, считаете и т.п.). Глагол при вопросе "Почему" должен быть направлен на личное действие или «чувство» бота. Такой вопрос апеллирует к причинам поступка субъекта, а также намерениям и мотивам. Причем бот должен быть способен дать ответ в любой момент диалога, когда бы ни был задан вопрос "Почему?".

Важными условиями тестирования являются следующие:
1. Вопрос тестирования должен касаться только что произошедших реплик бота.
2. Вопрос «Почему» должен задаваться несколько раз и в случайном месте диалога (может быть применена программа выбора случайного момента для вопроса).
3. Ответ, удовлетворяющий условиям тестирования, должен быть получен всегда.
4. Ответ не должен быть шаблонным, то есть повторяться в разных ситуациях.
5. Ответ не должен быть не о том, что спрашивается согласно п.1.
6. Причина не должна быть эксплицитно высказана ранее в диалоге. Если это правильный ответ, значит неправильно задан вопрос «Почему» (не про причины и намерения бота).
На сегодня можно с уверенностью сказать, что данный тест с легкостью проходят все люди, начиная с возраста 5-7 лет. Ребенок получает возможность осознавать свою внутреннюю мотивацию вместе с освоением рефлексивной речи после 3-4 лет. Но тест не пройдет ни одна существующая диалоговая программа (чат-бот). Даже если в будущем чат-бот запрограммировать на ответы по таким вопросам с рефлексивной лексикой, будет очень трудно запрограммировать ответ о причинах в разных ситуациях без повтора ответов. Тогда единственный прием, который могут применить для прохождения теста - это говорить о причинах, применяя сказанное в диалоге ранее, что не является имплицитной причиной и противоречит условию 6.

Пример диалога:
- Когда ты купался последний раз?
- Я купался прошлым летом?
- А этим летом?
- Я еще не ходил купаться
- Тебе нравится купаться?
- Да
- Почему?
- Нравится входить в воду после жары (удовлетворительный ответ)
- Потому что я пришел купаться (неудослетворительный)

Если бот способен дать отчет о своих действиях и их причинах, а не список заготовленных ответов, то можно утверждать, что бот должен обладать функциональной возможностью генерировать такой отчет, а для этого надо иметь внутренний план как возможность моделирования своих действий «в воображении». Эти модели могут быть так же речевыми - именно такими «моделями» являются высказываемый нами «смысл», например, прочитанного рассказа.
Отличие человека от бота в том, что он не столько реагирует на реплику собеседника. Его ответы и само участие в диалоге имеет намерение и цель, причем не высказываемую явно. Наличие такого намерения и должен эксплицировать текст. Если оно есть, должен быть и субъективный план у бота в том или ином виде, ибо внутри себя он должен каждую свою реплику соотносить и оценивать с намерением. Чтобы удовлетворит тесту, бот должен научиться моделировать свои действия, то есть создавать намерения в своих действиях. Это возможно только во внутреннем плане. Именно его не хватает нейропоэтам, которые пишут стихи красиво, но без замысла. Если нейросети смогут имитировать не только стиль изложения, но и замысел, то они сильно приблизятся к сознательным способностям человека.

Заключение
Предлагаемый тест, возможно, не является исчерпывающим ответом на вопрос о наличии сознания у искусственного интеллекта в том или ином виде. Но невозможность его прохождения любым существующим ботом, даже прошедшим тест Тьюрина, но способность его пройти любым взрослым человеком, говорит о том, что тест уже очерчивает более конкретные рамки для определения сознания. И это дает основания утверждать, что на сегодня это единственный тест сознания, который формально определен и значительно обоснован.
Previous post Next post
Up