Тест на сознание - как отличить имитатора?

Jan 29, 2017 16:50

Оригинал взят у alexander_xom в Тест на сознание - как отличить имитатора?
Теста на сознание нет. Просто потому что нет самого определения сознания, на основании которого можно было бы построить тест. Но может быть попробуем? Из близких тестов существует только тест Тьюринга, основанный на возможности сознательного существа "поддердживать беседу", причем почему- ( Read more... )

Leave a comment

Comments 85

const0000 January 29 2017, 16:59:01 UTC
никак.
"каков алгоритм идентификации алгоритмов?" - это тупиковый вопрос.
потому что,
"алгоритм идентификации алгоритмов" - тоже, по-умолчанию, является - лишь, алгоритмом,
соответственно - априори, подлежащим формальной идентификации.
разумное (наделённое сознанием) - способно идентифицировать - только разумное(другое сознание).
хотя, да - время идентификации - выносится за скобки данной идентификации,
и именно для минимизации ВРЕМЕНИ идентификации и используются "алгоритмы идентификации алгоритмов",
но никак не для 100%-го ответа на вопрос «имитатор или нет?»

Reply

alexander_xom January 30 2017, 19:20:18 UTC
Не согласен. Чтобы диагностировать машину я применяю алгоритм последовательных действий, позволяющий обнаружить те или иные варианты ответа на них. И никакие приведенные Вами формальные доводы не мешают этого сделать. В той степени точности, которая задана, конечно.

Reply

const0000 January 30 2017, 19:42:16 UTC
при чём тут «степень точности»?! =)
где о ней речь в постановке вопроса?
а я говорю - о принципиальной недостижимости - 100%-но верного результата.
а ваш «алгоритм последовательных действий, позволяющий обнаружить те или иные варианты ответа» - это пустое место, в общем случае. потому что ЛЮБОМУ алгоритму можно подсунуть другой алгоритм, который приведёт к «тем или иным вариантам ответа».
из пустого в порожнее.
кстати, это и есть - типичный ИИ ;)

Reply

alexander_xom January 30 2017, 20:03:55 UTC
Вы говорите об идеальном имитаторе. В условии задачи все таки подразумевается не идеальный. Есть уверенность, что сознания не сымитировано, но нет критерия, который об этом скажет. И не потому что "любой алгоритм можно сымитировать", а потому что не знаем, что проверять.

Reply


hyperboreus January 29 2017, 18:14:43 UTC
Нельзя сымитировать метапамять - то есть память о том, как ты помнил и что это для тебя значило.

Reply

toropyggka January 29 2017, 18:20:14 UTC
Почему нельзя? Создается условный (виртуальный) персонаж с набором "воспоминаний", он в детальности будет помнить, каким образом он получил то или иное воспоминание.

Автор поста правильно подмечает, что метод заключается только в анализе единственного поведенческого критерия (речи).

Решение проблемы, возможно, лежит в плоскости эмоций - сложной реакции на заранее неизвестный раздражитель. Способен ли ИИ не думать - думать то он, безусловно, способен, а чувствовать и сопереживать.

Reply

hyperboreus January 29 2017, 21:13:03 UTC
Он будет помнить только фактичность воспоминаний, но не их смысловую значимость. Так, я помню не только свою любовь к женщине, не только факты и этапы этой любви, но и то, что она для меня значила, как меня меняла и вдохновляла.

Reply

toropyggka January 30 2017, 17:35:34 UTC
И "фактичность воспоминаний" и "смысловая значимость" своим проявлением имеют только текст, вербальный контент.
Каким образом мы можем оперировать смысловыми значимостями? У нас есть оценки и разработанные градации: вот это имеет меньшую значимость, а вот это - большее?
Мы в зоне действия субъективности, вот в чем проблема.
А Тюринг имел ввиду объективный механизм.

ИМХО без разработанной теории сознания и осознания мы в тесте Тюринга не продвинемся.
К тому же, сам тест легко обходится. Тест подразумевает, что оператор умнее или такого же уровня, как и испытуемый. А если наоборот? Что, если механизм имитации будет качественнее (по объему памяти, набору подключаемых образов, псевдообразованности) чем оператор?

Reply


arhipolemos January 29 2017, 20:04:23 UTC
Само наличие рефлексии об имитации, критериях отделения оригинала от симулякра как раз и есть признак сознания.

Reply

alexander_xom January 30 2017, 19:58:18 UTC
Это интересная мысль ) Может просто надо в беседе проверять рефлексию. Осознает ли собеседник свои действия. Какие тут могут быть типы вопросов?

Reply

arhipolemos January 30 2017, 20:40:28 UTC
Ну, если это о действиях, тогда тут, очевидно, должны фигурировать цели и средства, ценности и смыслы, идентичность актора (личностная и социально-культурная) и его роли.
Как правило, там, где присутствуют имитации, там
- происходит переворачивание, в котором средства становятся пределом целеполагания, а его содержание превращается в манипулятивный инструмент;
- ценностная универсальность замещает уникальные смыслы (которые суть возможности целеполагания и целедостижения) или, наоборот, уникальный смысл возводится в универсальную ценность (в первом случае - догматизм, консерватизм и т.п., во втором случае - достижения некого актора возводятся в "абсолют");
- роли замещают идентичность (всё, что подразумевается _состоянием постмодерн_) или идентичность отчуждается от ролевых форм социальной действительности (например, аутизм, социопатия).
Такая, типа, система координат. И, исходя из неё, уже выстраиваются вопросы определенных типов.

Reply

napoli January 30 2017, 23:14:03 UTC
Всё, что вы перечислили, с успехом можно наблюдать у очень многих особей человеческого вида :-) По-моему, у вас тут не об обнаружении сознания речь идёт, а об обнаружении интеллекта и взрослой зрелости.

Reply


dralkin January 30 2017, 11:11:25 UTC
// Что может быть более точным критерием?

Перенастройка беседы в другую понятийную сетку. Сначала нужно задать тему - поговорить немного - а потом продолжить разговор, заменив все основные понятия на другие, из другой предметной области, напр, из области изготовления мебели. От "собеседника" (который машина) потребуется налету дешифровать беседу, не соскочив на обсуждение мебели.

Нужно только хорошо выбрать ключ для шифрования. Он, кстати, может быть чем-то, что уже упоминалось в беседе прежде.

Reply

alexander_xom January 30 2017, 20:00:28 UTC
Это интересно. Только не очень понял как это сделать. Пример можете привести? Перевести разговор о птицах в термины мебели?

Reply

napoli January 30 2017, 23:18:20 UTC
Хорошо бы ещё пример распространялся на такие нестандартные состояния, как аутизм и прочие психические отклонения.

Reply

dralkin January 31 2017, 15:48:14 UTC
Ну да - птиц в терминах мебели. Или секс в терминах нефтедобычи. Или проще можно -заменить часть слов словами из другого языка. Правда, не всякий человек сможет поддержать такой разговор ( ... )

Reply


alexcommo January 30 2017, 12:32:43 UTC
Можно для начала попытаться ответить на более простой теоретический вопрос, обладает ли сознанием объект со сложным поведением, устройство которого нам полностью известно, включая память во всех ячейках - ПО. Если там имеется полностью детерминированная обработка входящих воздействий, то сознания у него нет, а даже если и есть, то оно абсолютно не влияет. Детерминизма может не быть, если в алгоритм включены точки, где генерируется спонтанность - случайное число, шум и т.п. Моделируем этот процесс на виртуальной машине много раз со своими случайными числами. Если поведение модели похоже на поведение оригинала, значит сознания в оригинале нет. Но может возникнуть ситуация, что поведение не получается смоделировать схемой детерминизм + слусайные числа, даже зная всё устройство объекта. Другими словами, даже полностью зная, что в объекте происходит физически, мы не можем его просчитывать даже вероятностно, объект делает нечто маловероятное, для чего в точках спонтанности его алгоритма должны попадать строго определённые сочетания ( ... )

Reply

alexander_xom January 30 2017, 20:12:30 UTC
Не думаю, что сознание сводится к непредсказуемости ) Вы верно заметили, что это что-то посередине между случайностью и предсказуемостью (когда вы знаете как будет), которую вы называете детерминированностью. А посередине - это на самом деле многовариантность поведения. Но это отличительный признак не сознания, а высшего интеллекта (чем выше, тем вариативнее ( ... )

Reply

alexcommo January 31 2017, 06:38:24 UTC
Поведение между полностью предсказуемым и полностью шумовым - не стопроцентный признак сознания, скорее это признак сознания, которым мы вынуждены пользоваться на практике при принятии решений, за неимением ничего лучшего ( ... )

Reply

alexcommo January 31 2017, 07:14:59 UTC
Ещё один момент - при установке программ и других дела компьютер пишет лог-файл с отчётом того, что происходило. Вряд ли вы этот примитив имеете в виду, когда говорите про автобиографическую память. Ведь записывая лог-файл компьютер лишь отмечает возникновение сиуаций, предусмотренных программистом, с разработанными программистом же критериями (признаками) наличия этих ситуаций, классификацией этих ситуаций. Фактически, это просто запись "показаний датчиков", тут сознанием и не пахнет. Скорее всего, под способностью к автобиорафической памяти вы понимаете способность самостоятельно формировать понятия, классифмцировать свой опыт таким образом, каким это не было предусмотрено программистом. Автобиографическая память - лишь использование этой модели мира, расстановка текущих параметров в рамках модели. Но вот какая штука - нейронные сети которые научили переводить с английского на китайский, создали в себе промежуточный язык, нечто вроде классификации понятий. Другие нейронные сети научили формировать в процессе обучнния в себе схему ( ... )

Reply


Leave a comment

Up