Что-то меня сплющило

Aug 13, 2023 00:36

https://thesz.livejournal.com/1613714.html - про то, что нейросетки могут быть упрощены до приближения полиномами ( Read more... )

машинное обучение, нейронные сети

Leave a comment

Comments 2

worm_ii August 14 2023, 08:31:50 UTC
Полиномы - это, конечно, хорошо, они очень быстро вычисляются.
Но они плохо ведут себя на бесконечности. Нефизично получается, экстраполяция всегда плоха, но в случае с полиномами она как-то уж совсем экстремально плоха.
Как я понял, поэтому и берут сигмоиды, которые вычисляются сложнее, зато на бесконечности имеют конечный предел.
И потом, ну вот ограничились мы 4-й степенью. А композиция двух таких полиномов будет уже 16-й степени. Для такой высокой степени уже и интерполяция может плохо себя вести. Может, конечно, и хорошо поведёт, экспериментировать надо.

Reply

thesz August 14 2023, 11:45:50 UTC
Сигмоиды используют в весьма особых случаях, наподобие "внимания" или "minimal RNN". В наше время используют RELU (f(x)=(x+|x|)/2 или LRELU (f(x)=(x+a|x|)/b). Обе конечного предела не имеют.

Вы ознакомьтесь с NNAEPR: https://matloff.wordpress.com/2018/06/20/neural-networks-are-essentially-polynomial-regression/

Там смысл как раз в том, что нейронки могут быть (иногда весьма успешно) сведены к полиномам, и что простая квадратичная нелинейность в пяти слоях становится нелинейностью тридцатого порядка.

Reply


Leave a comment

Up