Символисты против нейрооптимистов

Nov 17, 2015 14:46

"Символисты" -- они же "онтологи", представители символьного подхода -- отлично решали и решают простые задачи, где зависимости простые и правила не нарушаются.
В той же лингвистике почти любое правило нарушается, и нужно знать, когда и как принято говорить (если хотите действительно сотни принципиально различных примеров -- почитайте книгу Read more... )

Leave a comment

buriy November 17 2015, 12:51:07 UTC
Я здесь понятие "словарь" применяю в обще-программистском смысле -- как набор пар "ключ -> значение", а не как набор словарных статей вида "слон -- крупное млекопитающее с хоботом, которое водится в Африке".
Отсюда видимо и недопонимание.
И вообще, задумайтесь о том, что за знание находится внутри нейросети, успешно решающей задачу морфологического разбора или задачу морфологической сегментации.

>Если бы всё со словарями и классической семантикой было хорошо, машинный перевод был бы давно реализован.
Так я и говорю, что со словарями всё до сих пор плохо -- очень трудно получать очищенное знание в больших количествах.
А для задачи машинного перевода знаний разных нужно ого-го сколько -- только для подзадачи учёта сочетаемости слов гугл раньше хранил компактно свёрнутые 5-граммы объёмом в 20 ТБ (теперь их конечно заменили нейросети, более компактно хранящие ту же самую информацию -- можно сказать, нейросети -- это современный метод сжатия с потерями, что-то типа JPEG, но с квантованием, настраиваемым на задачу).
А "классическая семантика" -- вообще оксюморон. Семантики в классических моделях перевода не было, слишком уж крупные словари нужны. Стиль перевода PROMT до сих пор все помнят. Даже в начале 2000х в ЭТАП-3 обходились правилами на семантические классы, для каждого слова семантические классы прописывались вручную. А в Compreno сейчас для тех же целей USH
И в головах у людей вполне себе грамматическая машинка, если я правильно понимаю смысл, который вы вкладываете в это понятие. Просто позвольте мне ещё раз сослаться на границу между "можем" и "не можем" ( http://ailev.livejournal.com/1228029.html?thread=13117693#t13117693 ). Мы вполне можем грубо повторить эту машинку, но этого недостаточно, чтобы решать задачу перевода качественно. А для более точного повторения этой машинки нужно большее количество более объёмных словарей и большее количество вычислительной мощности, чтобы эти словари перебирать и применять с учётом вероятностного характера задачи и самих словарей.

Reply

ailev November 17 2015, 13:12:32 UTC
Так нет морфологического "разбора" и "сегментации" -- другие механизмы восприятия-генерации речи. В голове не грамматическая машинка-по-Хомскому. И не прототипная машинка-по-Лакоффу. Там другое, и это другое нужно просто аппроксимировать с приемлемой ошибкой.

Это верное замечание, что многоуровневая нейронная сетка за счёт своей выразительности очень компактно хранит очень сложные функции. Сжатие информации о фактах -- да, так об этом и говорят.

Очевидные вещи типа "легко-трудно" и "формально можно, но за время жизни Вселенной" я не обсуждаю, это за скобками.

Reply

buriy November 17 2015, 14:02:12 UTC
>Так нет морфологического "разбора" и "сегментации" -- другие механизмы восприятия-генерации речи.
А в калькуляторе нет нейронов, но он умеет считать 2+2 и приходит к тому же ответу, что и человек. А термос -- так тот вообще помнит, горячую воду в него наливали или холодную, но у него вообще ни одного вычислительного элемента нет :)
В общем, я ожидал сравнение на функциональном уровне, а не о конкретном устройстве.
Если мы сделаем самолёт и он будет летать -- нам этого вполне хватит, и мы не будем задумываться о том, где у него находятся нейроны для махания крыльями.
Так вот:
Люди обязаны так или иначе получать внутри себя результаты морфологического разбора для успешного понимания языка, на котором общаются. И, кстати, разница между вентральным и дорсальным путём (возможность кеширования, по сути, вместо полного парсинга) -- на функциональность не влияет.

Reply


Leave a comment

Up