Кратко. Новая система ИИ - OPENAI O3 скачок вперед, но не AGI, конечно.
Основная фишка, якобы, синтез новых алгоритмов неким специфичным для таких архитектур способом, а именно пытались управлять перебором комбинация. Как я понял.
Выборочные цитаты.
---
OPENAI O3 ПРОРЫВ ВЫСОКИЙ БАЛЛ НА ARC-AGI-PUB
Новая система o3 от OpenAI, обученная на общедоступном обучающем наборе ARC-AGI-1, набрала прорывные 75,7% на получастном оценочном наборе при нашем заявленном публичном лидерстве лимите вычислений в $10 тыс. Высокопроизводительная (172x) конфигурация o3 набрала 87,5% .
https://arcprize.org/blog/oai-o3-pub-breakthrough Улучшение o3 по сравнению с серией GPT доказывает, что архитектура - это все. Вы не могли бы добавить больше вычислений в GPT-4 и получить эти результаты. Простого масштабирования того, что мы делали с 2019 по 2023 год - взять ту же архитектуру, обучить более крупную версию на большем количестве данных - недостаточно. Дальнейший прогресс - это новые идеи.
...
Однако важно отметить, что ARC-AGI не является лакмусовой бумажкой для AGI - как мы уже десятки раз повторяли в этом году. Это исследовательский инструмент, призванный сосредоточить внимание на самых сложных нерешенных проблемах в области ИИ
...
Почему o3 набрал намного больше очков, чем o1?...
...
Моя ментальная модель для LLM заключается в том, что они работают как хранилище векторных программ . При получении подсказки они извлекут программу, с которой связана ваша подсказка, и «выполнят» ее на входе под рукой. LLM - это способ хранить и операционализировать миллионы полезных мини-программ посредством пассивного воздействия на контент, созданный человеком.
Эта парадигма «запоминай, извлекай, применяй» может достигать произвольных уровней навыков в произвольных задачах при наличии соответствующих данных для обучения, но она не может адаптироваться к новизне или приобретать новые навыки на лету (то есть здесь нет никакого подвижного интеллекта в игре).
...
Чтобы адаптироваться к новизне, вам нужны две вещи. Во-первых, вам нужны знания - набор повторно используемых функций или программ, на которые можно опереться. У LLM этого более чем достаточно. Во-вторых, вам нужна возможность рекомбинировать эти функции в совершенно новую программу при столкновении с новой задачей - программу, которая моделирует поставленную задачу. Синтез программ. LLM долгое время не хватало этой возможности. Серия моделей o исправляет это.
...
/*моё:
**У LLM этого более чем достаточно. (про знания)
Это неверно! Несколько это не так. Там много знаний, но они иного характера, и это мы бы не назвали знаниями, ну или не специф.знаниями.
--
В случае o3 поиск, по-видимому, направляется некой моделью оценщика. Отметим, что Демис Хассабис намекнул в интервью в июне 2023 года , что DeepMind исследовал именно эту идею - это направление работы давно назревало.
...
/* моё давно надо было этим заниматься. Но пока такой поиск уверен, что плохой. Сюда надо мат.юметоды и эвристики, в т.ч. ТРИЗ/АРИЗ, дукции и т.п., писал об этом много
--
По сути, o3 представляет собой форму поиска программ, управляемых глубоким обучением .
...
--