Искин, память, рефлексы, гиперразмерные вычисления

May 20, 2019 18:21

не думаю что так надо называть как они назвали, но их дело ( Read more... )

Leave a comment

serj_aleks May 21 2019, 19:10:14 UTC
Начал собирать информацию по теме, смотрю, что в русскоязычном сегменте мало. Вот вспомнил, что у нас уже есть ссылка
http://metanet.tiddlyspot.com/#Слой%20где%20смысл (https://habr.com/ru/post/419147). Есть любопытная группа в Швеции с "характерными" фамилиями
https://www.automaatioseura.fi/site/assets/files/1550/f2025.pdf
http://itprojects.narfu.ru/grid/materials2018/WinterSchool_NarFU_presentation_Osipov.pdf
http://ltu.diva-portal.org/smash/record.jsf?pid=diva2%3A1197565&dswid=-2094
Ещё в связи с AGI
https://pdfs.semanticscholar.org/247f/ee32388a599d743b60f43bba2716e8b8dd9e.pdf

Reply

deep_econom May 21 2019, 19:43:41 UTC
посмотрел немного это

How hyper-dimensional space can help automation systems to be smarter?
Evgeny Osipov
https://www.automaatioseura.fi/site/assets/files/1550/f2025.pdf

год статьи не нашел, но в библиографии ссылка есть на 2015год
т.е. статья относительно недавняя типа 1-2-3 года назад написана

т.е. многие щупают вокруг и около
я тоже примерно так себе это представляю, наверное тоже надо записать кратко хотя бы
ну чтото похожее и говорил уже

----
а. Величина общего сигнала, демонстрирующего определенный шаблон во времени, квантуется в конечное число уровней квантования после фильтрации шума.


Reply

serj_aleks May 21 2019, 20:03:28 UTC
http://metanet.tiddlyspot.com/#Философский%20штурм (Новая теория восприятия, Совершенно новая теория восприятия)

Reply

deep_econom May 21 2019, 19:46:44 UTC
Этот тезис включает в себя одиннадцать научных работ и расширяет область исследований в трех направлениях: теория векторных символических архитектур, их приложения для распознавания образов и объединение векторных символических архитектур с другими нейроподобными вычислительными подходами.
http://ltu.diva-portal.org/smash/record.jsf?pid=diva2%3A1197565&dswid=7488

Reply

deep_econom May 21 2019, 20:33:36 UTC
когда я сказал что у меня нечто похожее, то эти гиперразмерные вычисления я не имел ввиду ни в коей мере
в том смысле, что каким именно механизмом обрабатывать входящие сигналы, шкалировать их и складывать в память с цель дальнейшего узнавания во входящих данных встречающиеся ранее паттерны

гипервекторами это делать или матрицами какимито разряжёнными или еще как, это дело десятое, хотя может быть и важно и при разработке эффективных алгоритмов
конкретная реализация и конкретное представление не так важно, важен сам механизм

ну типа поступил сигнал на датчик
мы накапливаем сигналы, запоминаем минимум и максимум, при случае обновляем их
выполняем нечто типа

https://ru.wikipedia.org/wiki/Шкалирование
https://ru.wikipedia.org/wiki/Калибровка

может оказываться, что некоторые места скопления сигналов, тут шкалу надо растянуть, а в других сжать
это может быть логарифмическая шкала или иная, непринципиально
типа настраиваем неизвестный нам по природе датчик на неизвестный нам мир

далее наверное стоит както делить на поддиапазоны и присваивать некие значения поддиапазонам, типа попало значение в интервал, то присваиваем скажем 5

это будут уже некоторые внутренние символы
их надо записывать в память
в памяти надо отыскивать какието паттерны, создавать некие универсальные меры похожести
ну и опять преобразовывать в иные внутренние символы, которые уже более компактны

далее при поступлении сигналов на датчики, мы проходим по цепочке и начинается поиск паттерн которые есть в памяти, считаем совпадения
частым паттернам придаем большие веса
ну и типа создали условные рефлексы

кратенько катко так вижу
ну поэтому мне и та картинка понравилась

этот ваш ролик еще не смотрел

О двухэтапности общей схемы теории восприятия.
https://youtu.be/8pXPKSbMoiE

но да, этапов там может быть несколько, даже не два, но точно не один
сколько этапов я не знаю
я примерно понимаю как оно должно быть, но мысленно пока не уточнял
а должно быть начальный этап описал выше, примерно
ну т.е. когда садишься и начинаешь прописывать тщательнее, то и дописываешь детали

Reply

deep_econom May 21 2019, 20:40:40 UTC
вот тут часть вопросов задевал

техническое задание на создание искусственного интеллекта
https://deep-econom.livejournal.com/279757.html

искусственный интеллект: вариант перехода от теоретизирования к проектированию
https://deep-econom.livejournal.com/315348.html

надо будет все потом аккуратнее оформить в виде поста

слить все воедино

в частности из второй ссылки:

ну и получается, что первым этапом нужна вот такая универсальная полиморфная программа по моделированию условных рефлексов (условный рефлекс тоже модель)

требуется подсистема структурирования входов/выходов
подсистема масштабирования входов/выходов (можно уменьшать/увеличивать в 2 раза или чтонибудь с логарифмами)
подсистема выявления и хранения паттернов
подсистема поиска паттернов в памяти
и т.п.

Reply

deep_econom May 21 2019, 20:37:37 UTC
а те товарищи с гиперразмерными вычислениями, я думаю такие вещи им позволяют параллелить вычисления для эффективности
но для нас пока это непринципиально
какая нафиг нам разница как там паттерны матчатся, пофиг, как нибудь придумаем, когда понадобится
более важна принципиальная схема, функциональная архитектура блоков и примерный поток данных между ними

Reply

serj_aleks May 22 2019, 07:55:05 UTC
Мне здесь с точки зрения МЕТАТРОНИКИ интересна модель памяти П. Каневра. Даже без относительно её эффективности. Наиболее пересекается с моими представлениями.

Reply

deep_econom May 22 2019, 08:00:32 UTC
да вполне может быть правдой как минимум частичной, имхо

Разреженная распределенная память ( SDM ) - это математическая модель долговременной памяти человека, представленная Пентти Канервой в 1988 году, когда он работал в исследовательском центре Ames в НАСА . Это обобщенная оперативная память (ОЗУ) для длинных (например, 1000-битных) двоичных слов. Эти слова служат как адресами, так и данными для памяти. Основным атрибутом памяти является чувствительность к подобию, что означает, что слово может быть прочитано не только путем предоставления исходного адреса записи, но также путем указания близкого ему значения, измеряемого количеством несовпадающих битов (т. Е. Расстоянием Хэмминга). между адресами памяти ). [1]

Reply


Leave a comment

Up