PS: Да, баг найден, неправильно меряю. Хорошо, что так быстро нашелся :)Результат меня смущает и настораживает. Буду проверять и перепроверять. Потому что такого быть не может, но оно случилось. Итак
( Read more... )
Но у меня пока стойкое ощущение, что где-то подлый косяк. Потому что сеть слишком мала, чтобы реально запомнить 2-грамную модель, несколько десятков миллионов пар для 21 Гб корпуса.
С другой стороны, я намерено сделал -window 3 -size 50, чтобы получить более синтаксическую, чем семантическую модель. Так что есть шансик, что фактически вектора описывают грамматические теги, а предсказывать теги - на порядки проще (http://kelijah.livejournal.com/131059.html). Я раньше пытался делать это же на 300-мерных векторах с -window 5, там на миллионе слов сеть продолжает болтаться в районе 60-70% ошибок (http://kelijah.livejournal.com/130340.html).
В общем, это был тычек пальцем в небо по ходу чтения диссера Сочера, где он описывает реккурентные автоэнкодеры для кодирования фраз. Необъяснимо удачный тычок.
Comments 4
Reply
предсказываем вектор слова w[i+1] по вектору слова w[i].
Reply
Reply
Но у меня пока стойкое ощущение, что где-то подлый косяк. Потому что сеть слишком мала, чтобы реально запомнить 2-грамную модель, несколько десятков миллионов пар для 21 Гб корпуса.
С другой стороны, я намерено сделал -window 3 -size 50, чтобы получить более синтаксическую, чем семантическую модель. Так что есть шансик, что фактически вектора описывают грамматические теги, а предсказывать теги - на порядки проще (http://kelijah.livejournal.com/131059.html). Я раньше пытался делать это же на 300-мерных векторах с -window 5, там на миллионе слов сеть продолжает болтаться в районе 60-70% ошибок (http://kelijah.livejournal.com/130340.html).
В общем, это был тычек пальцем в небо по ходу чтения диссера Сочера, где он описывает реккурентные автоэнкодеры для кодирования фраз. Необъяснимо удачный тычок.
Reply
Leave a comment