Продолжение темы предыдущего поста
Как Серль работал драйвером ввода/выводаmodulo_zero «у вас с Серлем противоречия не просто на уровне логических выводов, а, как минимум, на уровне аксиом.»
В данном случае при обсуждении аргумента "Китайская комната" мне хотелось бы вообще избежать сравнения каких-либо подходов и ограничится лишь анализом структуры аллегории Серля в рамках его же подхода, его аксиом.
Итак, мы имеем три компоненты обсуждаемой проблемы:
(1) предпосылки (аксиомы) Сёрля,
- Предпосылка 1: Мозг порождает разум.
- Предпосылка 2: Синтаксиса недостаточно для существования семантики.
- Предпосылка 3: Компьютерная программа полностью определяется своей синтаксической структурой.
- Предпосылка 4: Человеческий разум оперирует смысловым содержанием (семантикой).
(2) аллегория "Китайская комната" и
(3) тест Тьюринга.
Попробуем посмотреть на них с разных сторон.
I.
Из предпосылок 3 и 4 однозначно следует вывод: даже если программа и проходит тест Тьюринга, она по определению не имеет и не может иметь никакого отношения к разумности. Следовательно с этой позиции никакого дополнительного аргумента типа "Китайской комнаты" и не требуется. Постулируем "не могёт" - значит не могёт :)
II.
Следовательно, для анализа именно аллегории "Китайская комната" надо отказаться от введения априорных утверждений - ведь аргумент должен что-то доказывать, а не иллюстрировать.
По мысли Сёрля его аллегория призвана подвести нас к выводу, что тест Тьюринга может быть пройден и без понимания, а следовательно не может быть критерием разумности. И вроде выполнение Сёрлем операций над незнакомыми ему символами подтверждает его мысль: тест пройден, а понимания не было. Но тут Сёрль делает подмену: тест-то прошел не он, а книга/программа, а следовательно делать однозначное заключение о "природе" того нечто, что заключено в книге/программе он не имеет права. Более того, ясно, что тот, кто писал книгу/программу однозначно знал не только синтаксис, но и семантику китайского языка.
Обращаясь к компьютерной аналогии (которая здесь безусловно уместна) можно утверждать, что по отношению к прошедшей тест программе Сёрль в комнате/компютере играл роль либо процессора, либо драйверов, либо программы-интерпретатора. Последнее наиболее адекватно аллегории - получает команду и выполняет ее. Но и в этом случае ясно, что программа-Сёрль-интерпретатор обязана "знать" лишь язык на котором написана исполняемая программа (в случае с Сёрлем в комнате - английский), но принципиально не может "знать", что она делает, какую функцию выполняет: просчитывает дифуры или анализирует семантику китайского предложения. Следовательно мы можем сделать заключение о неразумности Сёрля-программы-интерпретатор, но не имеем право хоть что-то говорить об исполняемой программе прошедшей тест.
Итак, я ничего не говорю о возможности программного моделирования разума, ничего не говорю об адекватности теста Тьюринга, как критерия успешности этого моделирования, я лишь отмечаю, что аллегория Сёрля, рассмотренная в чистом виде, без каких-либо предварительных аксиом, не является аргументом, ничего не говорит нам о тесте Тьюринга.