не понимаю, как можно серьёзно рассматривать аргумент "китайской комнаты" Сёрла. дескать, не знающий китайского человек, получив иероглиф на вход и просто следуя набору правил, может выдать осмысленный ответ иероглифами, - значит, можно изобразить знание языка, не зная его, вот и с разумом так же. для начала, аналогия кагбэ сомнительная, но
(
Read more... )
ну, тут ты критикуешь тест Тьюринга в принципе. я-то имел в виду, что идея китайской комнаты ничего в нём принципиально не меняет и никакой наглядности не добавляет, а бьёт совершенно мимо.
но, кстати, тут же ещё в том штука, что мы и наблюдаем этот многогранник исключительно через проекции. одной проекции, пожалуй, мало, но если некая сущность имеет множество проекций, неотличимых от проекций искомого многогранника, то, в общем, есть хорошие основания и обращаться с нею как с таковым. в общем-то, ведь и о двух обычных многогранниках (разумах двух людей) мы знаем только, что у них похожие проекции, а похожи ли они сами между собой - вопрос сложный и не факт, что осмысленный, раз непосредственно наблюдать их нельзя.
Reply
Согласно вики, тезисы у него довольно простые:
1) Programs are formal (syntactic).
2) Minds have mental contents (semantics).
3) Syntax by itself is neither constitutive of nor sufficient for semantics.
Отсюда он делает вывод, что
"Programs are neither constitutive of nor sufficient for minds."
Не очень понятно, знал ли он про ML и если знал, считал ли он это "программой". Я думаю, мы все можем сойтись на том, что детерминированный алгоритм особых шансов пройти тест Тьюринга не имеет. А дальше можно начинать спорить на тему того, являются ли веса в узлах сеточки семантикой.
> что мы и наблюдаем этот многогранник исключительно через проекции
Это очевидно, и даже более того, мы имеем дело с проекцией проекции, приправленной "презумпцией разумности". Но опять-таки, вроде Сёрл согласен признавать разумными системы достаточной степени сложности (во всяком случае, я так интерпретирую "Any other system capable of causing minds would have to have causal powers (at least) equivalent to those of brains.") Он просто говорит, что тест Тьюринга недостаточен.
Reply
само сомнение в том, что тест Тьюринга - достаточный критерий разумности, я вполне принимаю. я о том, что китайская комната никак это сомнение не иллюстрирует - "очевидность" отсутствия знания китайского в этой системе мне никак не более очевидна, чем в ведущей со мной диалог программе... и с другой стороны, та же китайская комната принципиально может вести себя неотличимо от человеческого мозга и в любых других отношениях (с поправкой на быстродействие, понятно) - и можно точно так же ткнуть пальцем: но смотрите, ну очевидно же, что она не умеет играть в го, печь пироги итд, а только ИЗОБРАЖАЕТ это умение. и что, из-за этого система, ведущая себя полностью как разумная, неразумна?
мне в логике Сёрла кажется необоснованным третий пункт. мне представляется очевидным (бгг) совершенно обратное: значения (то, наличие чего и отличает семантику от синтаксиса) - это заведомая высокоуровневая абстракция, которая, если идти вглубь, на каком-то уровне обязана (если мы остаёмся материалистами) перестать существовать и оказаться составленной из сущностей более простой природы - синтаксической, если угодно. работа любого мозга, компьютера или китайской комнаты так или иначе основана на взаимодействиях молекул, атомов, элементарных частиц, которые в этой терминологии скорее символы, чем семантические единицы: они ничего не значат, они просто имеют определённые свойства и подчиняются определённым законам. то есть семантике просто негде больше "жить", кроме как в синтаксисе.
в частности, кстати, из этого следует, что, с достаточной точностью смоделировав синтаксис, лежащий в основе определённой семантики, мы неизбежно способны смоделировать и эту семантику. и тут вопрос: если для "синтаксиса" разница между явлением и его моделью очевидно есть (атом существует, а наша модель атома только его описывает), то семантика - в любом случае абстракция, и какая разница, на синтаксисе какой природы она реализована? и если зайти с другой стороны: модель обычно отличается от моделируемого объекта тем, что и поведение объекта, его условный "ввод и вывод", только моделирует: модель животного не может вдохнуть реальный кислород и выдохнуть реальную углекислоту. но действующая модель разума от разума в этом отношении неразличимы: у обеих и на входе, и на выходе информация совершенно одинаковой (абстрактной) природы. то же верно и для более простых сущностей такого рода. можно ли сказать, что программа-калькулятор "менее настоящая", чем физическое устройство-калькулятор, что первая - лишь модель второго? полагаю, нет.
Reply
Leave a comment