Об неуниверсальность нынешних нейросеток

Dec 07, 2017 17:51

Я уже перестал удивляться новостям из DeepMind, но они там замутили новую софтинку, AlphaZero. Вот: https://arxiv.org/abs/1712.01815Read more... )

Leave a comment

trubetskoyroman December 15 2017, 15:31:11 UTC
Дэмис Хасабис использует термин "General Purpose Learning Machine". Он сказал что это будет ИИ-ученый. Это есть в видео "Google's DeepMind CEO- Future & Capabilities of Artificial Intelligence(AI)" от начала года. Говорит, что это цель всех бриллиантовых гениев в DeepMind. Что мешает к "PathNet: Evolution Channels Gradient Descent in Super Neural Networks" прикрутить MCTS от AlphaZero. PolicyNet не просто делает свои очередные ходы в игре, а она генерирует игры в MCTS из самой себя и не случайно, а с учетом связности, свежести (+немного случайности). В качестве Value Network пусть выступает Input (из среды) пропущенный через PolicyNetwork (базовые вознаграждения: за новизну и за улыбку задаем жеще. Детектор улыбки простой CNN, а с новизной сложнее ( ... )

Reply

buriy December 15 2017, 18:34:16 UTC
Ну а что, неплохо!

Reply

trubetskoyroman December 15 2017, 21:24:54 UTC
Спасибо!
А тут используют термин "humanlike intelligence" https://arxiv.org/abs/1711.08378

Reply

trubetskoyroman December 30 2017, 10:40:15 UTC
Простое дерево поиска не годится для не perfect задач.
Оказывается я пропустил, что дипмайндовцы летом сделали неплохой моделлер "мира" полностью на нейросетях, он в зачаточном состоянии, но автоматически выучивает модели для разных задач и при этом может этими моделями пользоваться для моделирования/воображения, это две работы:
Imagination-Augmented Agents for Deep Reinforcement Learning. https://arxiv.org/abs/1707.06203
Learning model-based planning from scratch. https://arxiv.org/abs/1707.06170
Вторая мне больше понравилась. К ним бы еще привинтить Elastic Weight Consolidation и капсулы Хинтона и вместо LSTM для памяти использовать что-нибудь получше. И обучаемость с первого раза сделать благодаря автоматической генерации трансформаций и автоматический контроль оверфита обеспечить.
Запись в блоге DeepMind: https://deepmind.com/

Reply

trubetskoyroman December 30 2017, 11:35:36 UTC
еще один концепт ( ... )

Reply

p2004r December 16 2017, 07:18:56 UTC
> Потом выяснится что

работает только сообщество таких сеток (ну вот как в Island Based GA) общающихся между собой... и вот тогда ... :)

Reply

trubetskoyroman December 23 2017, 15:36:49 UTC
Я прочитал вышупомянутые комментарии дипмайндовцев на Лэйка (https://arxiv.org/abs/1711.08378 ) и осознал, что приведенная мной концепция (скрещивания pathnet и alphago) несостоятельна. Ибо сетка такая не сможет пользоваться своей внутренней моделью ни для запоминания, ни для моделирования гипотиз (мыслей). Приведу цитаты из дипмайндовцев ( ... )

Reply


Leave a comment

Up