Грубая вычислительная сила для нежных нейронных сетей

May 19, 2016 02:18

Мнения о том, понимаем ли мы причины успешности/обучаемости глубоких нейронных сетей, расходятся. В конечном итоге, всё заканчивается спором о термине "понимаем" -- там широкий диапазон между ( Read more... )

Leave a comment

Comments 39

redreptiloid May 19 2016, 00:23:26 UTC
8.8 TFLOPS... это же практически ASCI White, TOP-1 суперкомпьютер до ноября 2001го.... 6MW мощности, 110 млн $ памяти у него правда было 6ТБ, это пока дороговато в массовом сегменте.

15 лет прошло всего и уже доступно всем. время сжимается, сингулярность все ближе :)

Reply

alekoksan May 19 2016, 16:39:35 UTC
Сингулярность откладывается - суперкомпы сошли с дистанции закона Мура.

Reply


nlothik May 19 2016, 01:24:52 UTC
А насколько перспективны распределённые вычисления в нейронных сетях?

Reply

tsoka May 19 2016, 02:59:45 UTC
присоединяюсь к вопросу, подумал об этом на 2-м абзаце буквально

Reply

triampurum May 19 2016, 07:02:11 UTC
Очень перспективны. Через spark итп. Гугловые TPU (tensor processor units) те же в помощь.

Reply


vincentfischer May 19 2016, 08:00:11 UTC
спасибо. очень интересно.

Reply


formerchild May 19 2016, 08:01:59 UTC
Вангую что ternary weight научатся обучать напрямую, и это будет очень хорошо. Есть идейка что это можно делать.

Reply

ailev May 19 2016, 09:00:32 UTC
Так я дал ссылку на статью, где такие сетки учат напрямую, нет? Компрессия полных сеток для работы на всяком встроенном стандартном железе -- это другое направление работы, там я дал другие ссылки.

Reply

formerchild May 19 2016, 09:01:26 UTC
Ну вот, всё открыли до нас ))))

Reply


ext_3259399 May 19 2016, 11:45:45 UTC
Да!!! чудеса творятся прямо на глазах, фантастика совсем рядом! Но, все таки, это лишь огромные успехи в автоматизации отдельных человеческих навыков, причем построенных на совсем других принципах, не имеющих ничего общего с естественным интеллектом. Видя результат работы такого ИИ, мы преждевременно делаем вывод, о том что он так и устроен. Что-то базовое, наверняка простое и доступное к повторению в устройстве живого мышления пока скрыто от нас, и никто этого еще не нашел.

Reply

palex May 19 2016, 13:32:21 UTC
я пробую проверить развитие неокартезианства http://new-cartesius.livejournal.com/2050.html на учебниках по философии и комплексной автоматизации предприятия
вроде, простота вырисовывается, но - слишком непривычная :)

Reply

ext_3259399 May 20 2016, 05:30:29 UTC
Очень интересно, спасибо за ссылку. На схеме координату «сложность» хорошо бы раскрыть, определить ее. Тогда будет ближе к простоте.

Reply

palex May 20 2016, 07:58:29 UTC
Периодическую таблицу усложнения попробовал раскрыть в сообщении https://habrahabr.ru/post/259291/

Но совсем элементарно не получится - фрактальное взаимодействие деталей разного уровня порождает "гиперпирамиды Паскаля" ( в смысле чисел Фибоначчи :).
Остается надеяться на возможность описания мира, догоняющую современные существующие конструкты.

Reply


Leave a comment

Up