Весь шум вокруг ChatGPT, на мой взгляд, скрывает некоторые более важные последствия революции LLM и RLFH в NLP. О них никто не говорит, но мне почему-то они кажутся более существенными для нашего (программистского) бытия.
Во-первых, ChatGPT красиво выводит из области практического интереса значительную часть лингвистики. Поясню этот печальный
(
Read more... )
Comments 14
Reply
Пришел Коперник и показал, что старые птолемеевы эпициклы оказались чепухой. Все накопленные человечеством умные мысли за 2000 оказались полным бредом мрачного греческого ума.
Это что, повод уходить из астрономии?
Наоборот, появляется замечательная возможность на гребне волны найти новые, свободные поляны в лингвистике.
Вот только боюсь, что консерватиная публика, всякие завлабы, завкафедрами и проректоры по науке не способны признать, что все старое представляет интерес только для историков науки :(
Reply
Сферы обязательно найдутся, потому что лингвистика, к счастью, это не только NLP, точнее, чем дальше, тем меньше в NLP лингвистики (как вы и написали). Ну станет это частью другой науки - ничего страшного.
Reply
> Наоборот, появляется замечательная возможность на гребне волны найти новые, свободные поляны в лингвистике.
Например - ИИ, это пожалуй единственный способ попытаться экспериментально воссоздать возникновение языка.
На детях экспериментировать не дадут по соображениям гуманности, да и долго. А на ИИ глядишь еще увидим.
Reply
Тут всю эволюционную теорию (со всеми последствиями из неё) можно описывать матаппаратом оптимизационных процессов. И это никак "сложившуюся онтологию общения" в данной области не подвинет. Некий "рефакторинг в науке" крайне редкий процесс. И выглядит он действительно скорее как "полный демонтаж с последующим захватом освободившейся строительной площадки" (впрочем так выглядит любая докторская в педнауках :)))).
Вообще надо просто веса из эмбендинга в моделях успешных просто анализировать и привязывать к теоретическим всем этим понятиям лингвистики. Вполне возможно что можно будет и выстроить некий "формальный движок вывода". В конце концов нейросеть дает "понимаение даоса" (даже когда вывод решения объясняет), а тут надо "понимание философа западного разлива" (с построением "качественного объяснения ИПФ анализируемой системы", а еще лучше спекуляций откуда ИПФ пошла и почему такая и из чего состоит).
Reply
Тем интереснее оказаться в самой гуще такого рефактоинга.
Правда я очень пессимистичен относительно компетенций административного слоя науки (тех самых завкафедрами и завлабов). Эти будут делать вид, что ничего не изменилось, до последнего. В конце концов, в лингвистике есть убежище, куда никакие ChatGPT не добрались (пока) - всякий сбор анекдотов про Чапаева в отдаленных деревнях, полевая лингвистика типа :)
>Вообще надо просто веса из эмбендинга в моделях успешных просто анализировать и привязывать к теоретическим всем этим понятиям лингвистики.
Да, что-то такое пытаются делать. Называется "probing". Изучают, как связаны активации на скрытых слоях и аттеншены с лингвистическими категориями.
Reply
Мне кажется все ровным счетом наоборот обстоит.
Индустрия только-только освоила наконец перцептрон розенблатта из 60-х и продемонстрировала применение в неспецифических областях.
Грамматики, которые и в предыдущей итерации были полезны, стоят на запасных путях.
До онтологий вообще не добрались ещё толком.
Хотя всякие графовые модели, МЛ на графах это где-то близко уже.
Reply
Но все это сделают увы не лингвисты. Потому что для академических лингвистов всё, что пахнет ML'ем это бесовщина и достойно лишь презрения. Ну покрайней мере из общения с тру лингвистами у меня сложилось такое впечатление :(
Reply
Кроме того, вклад ученых из России в GPT-3, так скажем, являлся не основным. И современная лингвистика также во многом (тоже мягко говоря) делается учеными из других стран. В 2021 году на NeurIPS (даже не ACL) статья "Is automated topic model evaluation broken? the incoherence of coherence" произвела фурор. Мне кажется, она вполне лингвистическая по духу и подходу.
Reply
Я уверен, что среди тех 40 человек, которые (если верить статье от open.ai) ранжировали генерации модели на стадии RLHF, собственно лингвистов не было. Ну если только случайно кто-то затесался :)
>И современная лингвистика также во многом (тоже мягко говоря) делается учеными из других стран.
Да, и это печально :(
Я вот сейчас еще вспомнил. При всем моем скептицизме о значимости философии, я все-таки нашел для себя парочку интересных статей современных американских философов, где они весьма компетентно и с интересного угла говорили о ИИ и смежных темах. Об отечественных философах я такого сказать не могу вообще. Понятно, что я дилетант и не особо отслеживаю тему, но в целом картина видится так: достаточно живая движуха в западной философской мысли vs какое-то местечковое замкнутое запустение. Сильно подозреваю, что в лингвистике ситуёвина похожа :(
Reply
Reply
Reply
Leave a comment