Снова про оптимизацию.

Jan 15, 2018 23:09

Итак, при оптимизации сложных функций наподобие современных сетей есть проблема исчезающе малого изменения (vanishing gradient problem). Современные методы градиентного спуска справляются с ней путём изменения весов при коэффициентах - после вычисления вектора градиента он поэлементно домножается на вектор весов, который в разных вариантах ( Read more... )

физика, нейронные сети, оптимизация

Leave a comment

Comments 17

alll January 15 2018, 20:30:07 UTC
"Скорость света" в нашем физическом мире меняется сплошь да рядом - см. "коэффициент преломления" и, внезапно, эффект Вавилова-Черенкова. :)

Reply

thesz January 15 2018, 21:08:14 UTC
Для программистов - меняется скорость света в вакууме?

Reply

filonov January 15 2018, 21:48:19 UTC
Скорость света у нас - расстояние которое свет проходит в единицу времени.
Эталон расстояние- расстояние, которое свет проходит за эталонное время.
Т.е. при неизменном ходе времени, даже если скорость света и меняется - "изнутри" это никак не определить.

Reply

thesz January 16 2018, 00:54:06 UTC
Неа.

Есть ещё эталон массы и релятивистская энергия покоя.

Reply


deep_econom January 16 2018, 02:41:31 UTC
про отрицательные значения
возводите в квадрат, потом извлекайте корень, а потом используйте

Reply

filonov January 16 2018, 05:05:15 UTC

Есть более простые способы получения абсолютного значения

Reply

deep_econom January 16 2018, 05:10:30 UTC
конечно

Reply

thesz January 16 2018, 07:56:50 UTC
Нету. Для степенных рядов нету.

Reply


Leave a comment

Up