Десятилетия ярких побед

Oct 12, 2021 14:11

Специальный проект Стэнфордского университета, “AI100”, выпустил свежий отчет о нынешнем состоянии дел в сфере искусственного интеллекта. Отчёт, второй в рамках проекта, выделяется среди других публикаций по нескольким параметрам. Например, он издаётся раз в 5 лет. Число 100 в названии проекта указывает на амбициозную цель: отслеживать развитие ( Read more... )

ИИ, технологии

Leave a comment

Comments 6

ktoshik October 12 2021, 13:35:12 UTC
Очень интересно! Не знал про формулировку "вызовов"

Reply


ext_5636751 October 12 2021, 15:16:44 UTC
куды все водилы в ближайшие годы работать ?

Reply

giovanni1313 October 12 2021, 16:57:16 UTC
В ближайшие годы - там же, за баранкой. Лет через 15 мест за баранкой уже будет не хватать.

Ну вопрос простой, на самом деле - куда душа будет лежать, туда и пойдут работать. Крутить баранку - не самая вдохновляющая и развивающая работа. Есть и получше.

Reply


xentik October 12 2021, 16:54:49 UTC
Не справились со старым списком - пофиг, накатаем еще более эпический новый. Решение в духе анекдота о буряке и долгоносиках.

Reply


vladimir690 October 13 2021, 12:50:36 UTC
Microsoft и NVIDIA натренировали языковую модель MT-NLG на 0.53 триллиона параметров (x3 по сравнению с подобными текущими моделями, прежде всего GPT-3 на 0.175 триллиона параметров). В этой сетке 105 слоёв на базе трансформер-архитектуры -- https://www.microsoft.com/en-us/research/blog/using-deepspeed-and-megatron-to-train-megatron-turing-nlg-530b-the-worlds-largest-and-most-powerful-generative-language-model/. Сетка, конечно, выдаёт SoTA по большинству моделей (zero-, one-, few-shot) в самых разных задачах, но текст содержит оговорки -- что там насколько улучшилось, не очень понятно. И, конечно, стандартные заявления про bias, суть которых сводится к "модель научена на знаниях человечества, а эти знания уже biased, и мы работаем над тем, как исправить эту проблему". Грубо говоря, "учиться на опыте человечества нельзя, а нужно ( ... )

Reply

giovanni1313 October 13 2021, 16:46:16 UTC
>>что там насколько улучшилось, не очень понятно

Ну вот для того, чтобы было понятней, как раз и существуют бенчмарки. Которые автор критикует (качество он не понимает, количество его не устраивает).

Создание MT-NLG не было SoTA-ориентированным. Челлендж был скорее в росте параметров - и исследователям банально было интересно, получится ли из этого что-нибудь.

Reply


Leave a comment

Up