год статьи не нашел, но в библиографии ссылка есть на 2015год т.е. статья относительно недавняя типа 1-2-3 года назад написана
т.е. многие щупают вокруг и около я тоже примерно так себе это представляю, наверное тоже надо записать кратко хотя бы ну чтото похожее и говорил уже
---- а. Величина общего сигнала, демонстрирующего определенный шаблон во времени, квантуется в конечное число уровней квантования после фильтрации шума.
Этот тезис включает в себя одиннадцать научных работ и расширяет область исследований в трех направлениях: теория векторных символических архитектур, их приложения для распознавания образов и объединение векторных символических архитектур с другими нейроподобными вычислительными подходами. http://ltu.diva-portal.org/smash/record.jsf?pid=diva2%3A1197565&dswid=7488
когда я сказал что у меня нечто похожее, то эти гиперразмерные вычисления я не имел ввиду ни в коей мере в том смысле, что каким именно механизмом обрабатывать входящие сигналы, шкалировать их и складывать в память с цель дальнейшего узнавания во входящих данных встречающиеся ранее паттерны
гипервекторами это делать или матрицами какимито разряжёнными или еще как, это дело десятое, хотя может быть и важно и при разработке эффективных алгоритмов конкретная реализация и конкретное представление не так важно, важен сам механизм
ну типа поступил сигнал на датчик мы накапливаем сигналы, запоминаем минимум и максимум, при случае обновляем их выполняем нечто типа
может оказываться, что некоторые места скопления сигналов, тут шкалу надо растянуть, а в других сжать это может быть логарифмическая шкала или иная, непринципиально типа настраиваем неизвестный нам по природе датчик на неизвестный нам мир
далее наверное стоит както делить на поддиапазоны и присваивать некие значения поддиапазонам, типа попало значение в интервал, то присваиваем скажем 5
это будут уже некоторые внутренние символы их надо записывать в память в памяти надо отыскивать какието паттерны, создавать некие универсальные меры похожести ну и опять преобразовывать в иные внутренние символы, которые уже более компактны
далее при поступлении сигналов на датчики, мы проходим по цепочке и начинается поиск паттерн которые есть в памяти, считаем совпадения частым паттернам придаем большие веса ну и типа создали условные рефлексы
кратенько катко так вижу ну поэтому мне и та картинка понравилась
но да, этапов там может быть несколько, даже не два, но точно не один сколько этапов я не знаю я примерно понимаю как оно должно быть, но мысленно пока не уточнял а должно быть начальный этап описал выше, примерно ну т.е. когда садишься и начинаешь прописывать тщательнее, то и дописываешь детали
надо будет все потом аккуратнее оформить в виде поста
слить все воедино
в частности из второй ссылки:
ну и получается, что первым этапом нужна вот такая универсальная полиморфная программа по моделированию условных рефлексов (условный рефлекс тоже модель)
требуется подсистема структурирования входов/выходов подсистема масштабирования входов/выходов (можно уменьшать/увеличивать в 2 раза или чтонибудь с логарифмами) подсистема выявления и хранения паттернов подсистема поиска паттернов в памяти и т.п.
а те товарищи с гиперразмерными вычислениями, я думаю такие вещи им позволяют параллелить вычисления для эффективности но для нас пока это непринципиально какая нафиг нам разница как там паттерны матчатся, пофиг, как нибудь придумаем, когда понадобится более важна принципиальная схема, функциональная архитектура блоков и примерный поток данных между ними
Мне здесь с точки зрения МЕТАТРОНИКИ интересна модель памяти П. Каневра. Даже без относительно её эффективности. Наиболее пересекается с моими представлениями.
да вполне может быть правдой как минимум частичной, имхо
Разреженная распределенная память ( SDM ) - это математическая модель долговременной памяти человека, представленная Пентти Канервой в 1988 году, когда он работал в исследовательском центре Ames в НАСА . Это обобщенная оперативная память (ОЗУ) для длинных (например, 1000-битных) двоичных слов. Эти слова служат как адресами, так и данными для памяти. Основным атрибутом памяти является чувствительность к подобию, что означает, что слово может быть прочитано не только путем предоставления исходного адреса записи, но также путем указания близкого ему значения, измеряемого количеством несовпадающих битов (т. Е. Расстоянием Хэмминга). между адресами памяти ). [1]
http://metanet.tiddlyspot.com/#Слой%20где%20смысл (https://habr.com/ru/post/419147). Есть любопытная группа в Швеции с "характерными" фамилиями
https://www.automaatioseura.fi/site/assets/files/1550/f2025.pdf
http://itprojects.narfu.ru/grid/materials2018/WinterSchool_NarFU_presentation_Osipov.pdf
http://ltu.diva-portal.org/smash/record.jsf?pid=diva2%3A1197565&dswid=-2094
Ещё в связи с AGI
https://pdfs.semanticscholar.org/247f/ee32388a599d743b60f43bba2716e8b8dd9e.pdf
Reply
How hyper-dimensional space can help automation systems to be smarter?
Evgeny Osipov
https://www.automaatioseura.fi/site/assets/files/1550/f2025.pdf
год статьи не нашел, но в библиографии ссылка есть на 2015год
т.е. статья относительно недавняя типа 1-2-3 года назад написана
т.е. многие щупают вокруг и около
я тоже примерно так себе это представляю, наверное тоже надо записать кратко хотя бы
ну чтото похожее и говорил уже
----
а. Величина общего сигнала, демонстрирующего определенный шаблон во времени, квантуется в конечное число уровней квантования после фильтрации шума.
Reply
Reply
http://ltu.diva-portal.org/smash/record.jsf?pid=diva2%3A1197565&dswid=7488
Reply
https://en.wikipedia.org/wiki/Reservoir_computing
http://www.isa.ru/aidt/images/documents/2011-02/31_39.pdf
http://neurolectures.narod.ru/2009/Shibzukhov-2009.pdf (http://jmlda.org/papers/doc/2015/no12/Shibzukhov2015Aggregation.pdf)
Reply
в том смысле, что каким именно механизмом обрабатывать входящие сигналы, шкалировать их и складывать в память с цель дальнейшего узнавания во входящих данных встречающиеся ранее паттерны
гипервекторами это делать или матрицами какимито разряжёнными или еще как, это дело десятое, хотя может быть и важно и при разработке эффективных алгоритмов
конкретная реализация и конкретное представление не так важно, важен сам механизм
ну типа поступил сигнал на датчик
мы накапливаем сигналы, запоминаем минимум и максимум, при случае обновляем их
выполняем нечто типа
https://ru.wikipedia.org/wiki/Шкалирование
https://ru.wikipedia.org/wiki/Калибровка
может оказываться, что некоторые места скопления сигналов, тут шкалу надо растянуть, а в других сжать
это может быть логарифмическая шкала или иная, непринципиально
типа настраиваем неизвестный нам по природе датчик на неизвестный нам мир
далее наверное стоит както делить на поддиапазоны и присваивать некие значения поддиапазонам, типа попало значение в интервал, то присваиваем скажем 5
это будут уже некоторые внутренние символы
их надо записывать в память
в памяти надо отыскивать какието паттерны, создавать некие универсальные меры похожести
ну и опять преобразовывать в иные внутренние символы, которые уже более компактны
далее при поступлении сигналов на датчики, мы проходим по цепочке и начинается поиск паттерн которые есть в памяти, считаем совпадения
частым паттернам придаем большие веса
ну и типа создали условные рефлексы
кратенько катко так вижу
ну поэтому мне и та картинка понравилась
этот ваш ролик еще не смотрел
О двухэтапности общей схемы теории восприятия.
https://youtu.be/8pXPKSbMoiE
но да, этапов там может быть несколько, даже не два, но точно не один
сколько этапов я не знаю
я примерно понимаю как оно должно быть, но мысленно пока не уточнял
а должно быть начальный этап описал выше, примерно
ну т.е. когда садишься и начинаешь прописывать тщательнее, то и дописываешь детали
Reply
техническое задание на создание искусственного интеллекта
https://deep-econom.livejournal.com/279757.html
искусственный интеллект: вариант перехода от теоретизирования к проектированию
https://deep-econom.livejournal.com/315348.html
надо будет все потом аккуратнее оформить в виде поста
слить все воедино
в частности из второй ссылки:
ну и получается, что первым этапом нужна вот такая универсальная полиморфная программа по моделированию условных рефлексов (условный рефлекс тоже модель)
требуется подсистема структурирования входов/выходов
подсистема масштабирования входов/выходов (можно уменьшать/увеличивать в 2 раза или чтонибудь с логарифмами)
подсистема выявления и хранения паттернов
подсистема поиска паттернов в памяти
и т.п.
Reply
но для нас пока это непринципиально
какая нафиг нам разница как там паттерны матчатся, пофиг, как нибудь придумаем, когда понадобится
более важна принципиальная схема, функциональная архитектура блоков и примерный поток данных между ними
Reply
Reply
Разреженная распределенная память ( SDM ) - это математическая модель долговременной памяти человека, представленная Пентти Канервой в 1988 году, когда он работал в исследовательском центре Ames в НАСА . Это обобщенная оперативная память (ОЗУ) для длинных (например, 1000-битных) двоичных слов. Эти слова служат как адресами, так и данными для памяти. Основным атрибутом памяти является чувствительность к подобию, что означает, что слово может быть прочитано не только путем предоставления исходного адреса записи, но также путем указания близкого ему значения, измеряемого количеством несовпадающих битов (т. Е. Расстоянием Хэмминга). между адресами памяти ). [1]
Reply
Leave a comment