109

Generative Adversarial Networks

Jan 11, 2017 11:58

первая половина вот этого блога: https://tryolabs.com/blog/2016/12/06/major-advancements-deep-learning-2016, обзор Generative Adversarial Networks, отлично ( Read more... )

singularity, ai

Leave a comment

Comments 7

ext_836326 January 12 2017, 15:27:01 UTC
и вот вы и [почти] придумали схему внимания, и "модульное устройство" (условное; назовем его так), очевидно присутствующее в "wetvare net".

Reply

109 January 12 2017, 19:09:36 UTC
не совсем. модуль внимания следит за внутренней моделью себя. у меня не то что модуля внимания нет, у меня даже модели себя нет.

очевидно, настоящий AGI должен иметь модель себя. я даже видел статью по этому поводу где-то год назад, в журнале Никитина.

Reply

ext_836326 January 12 2017, 19:57:38 UTC
заскинелось (не люблю такого, "длинный цикл общения", поэтому продублирую без ссылок)

Reply

ext_836326 January 12 2017, 19:58:48 UTC
эээ, стоп, я говорил про схему внимания. Я, конечно, не могу запретить пытаться в каком-то контексте какие-то модули внимания вычленять, но я говорил не о том. Модули тут (в том, на что показывал я) - это подсетки "про разное", результаты работы которых схемой вправления внимания переключаются в область "оно активно сейчас используется".

Про "модель себя" это, я уверен, привнесение лишнего в явление внимания, смешение его с тем, что им не является, "грязный цвет".

В этой связи могу порекомендовать нейрофизиологов, lj user catta например. Напомните ей некий разговор про управление вниманием у стрекозы (это не метафора, кстати, а отсылка к реальным данным) (для улучшения припоминания - до стрекозы там был совет посмотреть на насекомых с головогрудью, в связи с рассказываемой ей гипотезой).

Reply


Leave a comment

Up