Многие мои френды, люди науки, периодически в своих постах разоблачают хайп вокруг AI.
Вчера вышла очередная сетка от OpenAI,
GPT-4o. Если вы ещё не видели, посмотрите ролики с этой странички, оно того стоит. Без видео сложно объяснить, в чём ключевое достижение и чем хороша эта самая "мультимодальность
(
Read more... )
Технологическая сингулярность наступит, когда очередной условный GPTN научится улучшать себя сам. Думаю, до этого момента осталось максимум лет 5.
Reply
А что это должно значить, если более подробно? Я как-то вот перестал понимать. Так-то я могу представить себе улучшение GPT-N самим собой прямо сейчас: собираем датасет для дообучения самого себя, покупая доп.качество за компьют (через chain of thought или через выбор лучшего варианта из N сгенерированных), а потом дистиллируем его в себя же. Это будет растить качество с какой-то скоростью.
Reply
Ну в идеологии той книги, которую вы, вроде, собирались писать с Алексеем (а он, вроде, её даже дописал), учиться решать задачи, минимизируя необходимые для этого ресурсы (объем вычислений, память). Интеллект, это способность давать точный прогноз, затрачивая для этого минимальные ресурсы. Что-то вроде обобщённого Q*. Тот же AlphaZero за счёт подобной идеи без всякого использования знаний, накопленных человечеством, легко обошёл уровень его лучших представителей буквально за несколько дней самообучения.
Reply
Reply
Именно поэтому оптимизация будет на первом месте.
Reply
Оптимизация - это конец
Reply
Вдруг вспомнилось чьё-то:
"Общая проблема оптимизации состоит в следующем.
Оптимизировать будет не Абсолютный Дух, а бесхвостая обезьяна - по своему вкусу и разумению.
Поэтому итоговый результат успешной оптимизации - это, как правило, полная нежизнеспособность оптимизированного организма..Противоядием, в данном случае, является ограниченный масштаб оптимизации.
Ограничение масштаба - ограничение ущерба." (с)
С уважением.
Reply
что ж вы так цитируете о дружественных нам индусьих мордах, недружественно как-то получилось..
Reply
Функция оптимальности прекрасно вычисляется средой.
Reply
Это было 20 лет назад все же, или даже больше. Я уже совсем не уверен, что регуляризация размером модели это панацея. Что для gradient boosting, что для LLM-ок она, скорее, не работает, чем работает. Что довольно удивительно, если задуматься, но я как-то это не понимал, не понимал, а потом привык.
Reply
Reply
Reply
мне почему-то казалось, что признак ухода в сингулярность это на выходе - взлет по экспоненте (= в т.ч _уменьшение_ предельных издержек)
а тут про Ахиллеса-Черепаху и что опять листричество закончилось, т.е. кина мол не будет
Reply
Reply
это какая-то неправильная сингулярность (как будто она решила заработать все биткойны)
нутром чую что демоническое максвела, а выразить не могу
получается фокус с логарифмической функцией, а обещали параболу)
Reply
Reply
Leave a comment