Обзор обзоров по универсальным алгоритмам (AI) и универсальной интеграции моделей (digital twins)

Dec 24, 2020 02:37

В вычислениях мы условно выделили два направления: "чистое мышление" и "прикладное мышление/". Чистое мышление выполняется интеллектом, а прикладное -- прикладным вычислителем/приложением. Это чуть подробней разобрали с акцентом на мышление в https://ailev.livejournal.com/1547260.html "Мышление/learning и трансдисциплины, мыследействование/inference (привет СМД-методологам)". Терминологию тут, конечно, нужно ещё править, тем не менее различение про learning - inference, intelligence - application, thinking -- computation/inference представляется важным (при полном понимании, что в информатике всегда алгоритмы вытягиваются в chains of meanings, одни алгоритмы работают с другими -- вызывают их, трансформируют их, порождают их, макроподставляют их в себя и т.д.).

Вот как я разворачиваю это различение в более традиционный разговор про кремниевые/оптические/квантовые вычислители (хотя это не исключает и разговора про нейроморфные мокрые вычислители, типа мозга -- но в тамошние механизмы уровня алгоритмов мы не лезем, а прикладной уровень мышления мы разобрали в тексте по предыдущей ссылке):
-- алгоритмика прикладных вычислений как прикладного_мышления/мыследействования/inference, и тут работает главным образом "алгоритмика Кнута", используемая для оптимизаций. Уникальные алгоритмы выполнения разных хитрых операций вывода (императивного, функционального, логического, реляционных запросов и т.д.). Представление тут -- простые структуры данных для разных физических вычислителей, поддерживаемые аппаратно: целые, плавающие, удобные операции для организации из них очередей/магазинов, списков, матриц и прочей классики, кубиты сюда тоже относим как тип данных, лежащий в основе структур данных, над которым идут машинные операции квантовых компьютеров, а также "синапсовые связи" в нейроморфных вычислителях. Запись этих алгоритмов идёт на символьных языках программирования/моделирования/представления_знаний. Программы на этих языках составляются либо людьми, либо алгоритмами AI и затем компилируются в машинное представление (даже прикладные алгоритмы нейронных сеток компилируются!), царём горы является эффективность. Это классическая computer science, без AI.
-- алгоритмика AI, "алгоритмика Домингоса" как методологическая/чистого_мышления/обучения/learning, на выходе которого будет прикладной алгоритм для inference. Тут основное внимание уделяется поиску универсального алгоритма-аппроксиматора (The Master algorithm), который при его обучении порождает прикладной алгоритм. Речь идёт об интеллекте, и царём горы становится универсальность -- на первое место выходят универсальные структуры представления знаний как в локальных/символистских, так и распределённых/коннективистских представлениях, известных как knowledge representations. Часто поэтому тут говорят не просто о learning, а именно о representation learning (вот мой текст ещё 2012 года -- я тогда это счёл самым важным в deep learning как новом подходе к AI, а оно и сейчас рулит, https://ailev.livejournal.com/1045081.html). Proper definition of AI concerns knowledge representation and reasoning, autonomous multi-agent systems (вот тут всплывает коммуникация агентов по поводу их действий в мире и моделей -- в схеме-трёхслойке ведь кроме прикладных вычислений/мыследействования есть ещё и мысли-коммуникация, "авторская орфография сохранена"), planning and argumentation (а почему они вместе?!), as well as learning (интеллект, а не вывод).

Вот несколько обзоров, по которым можно работать с SoTA по линии универсального алгоритма для representation learning (хотя так это уже давно никто не называет):
-- https://arxiv.org/abs/2011.15091, Inductive Biases for Deep Learning of Higher-Level Cognition -- про небольшой набор принципов (inductive biases), которому должен удовлетворять The Master Algorithm. Текущий список этих inductive biases включает distributed representations, convolution, deep architecture, graph neural networks, recurrent nets, soft attention, и обзор пытается предположить, что там есть ещё и куда смотреть дальше.
-- https://arxiv.org/abs/2012.05876 про третью волну neurosymbolic AI, где говорится о необходимости иметь и локалистские и коннективистские представления. Neurosymbolic AI is well placed to address concerns of computational efficiency, modularity, KR + ML and even causal inference. И тут же через пять дней после появления этого обзора выходит работа DeepMind, где показывается, что коннективистское представление нейронной сети бьёт в visual domain нейросимволическое: "Object-based attention for spatio-temporal reasoning: Outperforming neuro-symbolic models with flexible distributed architectures", https://arxiv.org/abs/2012.08508, так что вся эта история далеко не закончена. И, конечно, "самый универсальный алгоритм" MuZero, который играет на сверхчеловеческом уровне в игры, правил которых он не знает: https://www.nature.com/articles/s41586-020-03051-4 (это не обзор, а "просто работа", но очень крутая -- вышла 23 декабря 2020, хотя MuZero был предварительно анонсирован ещё в прошлом году. Вот блог-пост от DeepMind про MuZero: https://deepmind.com/blog/article/muzero-mastering-go-chess-shogi-and-atari-without-rules. MuZero’s ability to both learn a model of its environment and use it to successfully plan demonstrates a significant advance in reinforcement learning and the pursuit of general purpose algorithms).
-- https://arxiv.org/abs/1906.08870, "2019 Evolutionary Algorithms Review". In this review, we explore a new taxonomy manage the control of the environment with limiters, the ability to explain and repeat the search process, the ability to understand input and output causality within a solution, the ability to manage algorithm bias due to data or user design, and lastly, the ability to add corrective measures. И ещё обзор литературы по генетическим алгоритмам: "Qualities, challenges and future of genetic algorithms: a literature review", https://arxiv.org/abs/2011.05277, This review intends to summarise the key qualities, current challenges and future perspectives faced by the GA technique. Their implicit parallelism and evolutionary operators allow an optimal balance between exploration and exploitation. They thrive in identifying good solutions in large, rugged search spaces. They have desirable convergence properties, offer high flexibility, and impose very few assumptions on the nature of the solutions being evolved. They allow a realistic modelling of evolutionary systems and innovation dynamics. Often criticised for their computational complexity, Gas' computational efficiency is a first challenge to address to handle dynamic or more complex problems, likely with further use of parallelism and GPU computing.
-- внимание и сознание: стандартная модель сознания Graziano et al, https://booksc.xyz/book/77159558/f47955, обзор Understanding Attention: In Minds and Machines, https://arxiv.org/abs/2012.02659.
-- попытки реализации универсальной архитектуры в нейроморфном оптическом процессоре: https://arxiv.org/abs/2011.00111, Photonics for artificial intelligence and neuromorphic computing, обзор многочисленных работ в этом направлении. И обзор Variational Quantum Algorithms в качестве универсального обучаемого квантового алгоритма, https://arxiv.org/abs/2012.09265.

Другая линия -- это алгоритмика зависимости моделей от времени. Тут два направления:
-- Lifelong learning, где обсуждается непрерывная коррекция прикладных алгоритмов в ходе их выучивания, и коррекция эта идёт по самым разным причинам. Пример для обработки естественного языка: https://arxiv.org/abs/2012.09823, Continual Lifelong Learning in Natural Language Processing: A Survey. Continual learning (CL) aims to enable information systems to learn from a continuous data stream across time. However, it is difficult for existing deep learning architectures to learn a new task without largely forgetting previously acquired knowledge. Furthermore, CL is particularly challenging for language learning, as natural language is ambiguous: it is discrete, compositional, and its meaning is context-dependent. In this work, we look at the problem of CL through the lens of various NLP tasks.
-- digital twins, где обсуждается универсальная интеграция виртуальных/информационных моделей какой-то системы, которая успевает поменяться по ходу моделирования. Поэтому итоговую мегамодель нужно всё время обновлять, а ещё нужно заглядывать в многовариантное будущее (моделирование "а что, если...") с учётом текущего дрейфа параметров воплощения системы. Там совсем другие темы: многомасштабное (т.е. системное, на многих системных уровнях) моделирование, численные алгоритмы, временные ряды и их аппроксимация, интеграция данных за пределами жизненного цикла design and construction time. Обзорных работ там множество, я положил некоторое количество обзоров (главным образом из arxiv) в https://yadi.sk/d/yzpBuICd0YJevA (это одна ссылка, но там почти два десятка небезынтересных работ -- и почти каждая из них включает reference architecture для digital twins и обсуждение алгоритмики моделирования). Подробней мотивировку о месте digital twins как прикладном уровне в платформенном стеке вычислительного мышления (уровень интеграции данных жизненного цикла, уровень интеграции прикладных алгоритмов) я дал в "Вычислительное мышление, декабрь 2020: думаем о современных digital twins", https://ailev.livejournal.com/1546514.html. Есть такое ощущение, что физическое моделирование и его поддержка (традиционный предмет computational science в её отличии от computer science) идёт сюда, оставляя в computer science главным образом дискретную алгоритмику localist representations.
Previous post Next post
Up