“Хайникс” начинает серийное производство 12-слойной памяти HBM3E

Sep 26, 2024 22:22





26 сентября южнокорейская компания “Хайникс” (SK hynix) объявила о начале серийного производства высокопропускной памяти HBM3E ёмкостью 36 ГБ. Компания планирует начать поставки новой продукции потребителям до конца нынешнего года. Ранее максимальная ёмкость производимой “Хайниксом” памяти HBM3E составляла 24 ГБ, что достигалось за счёт восьми 3-гигабайтных чипов DRAM, вертикально уложенных друг на друга. В новых модулях памяти 12 таких чипов.



Примечательно, что “Хайниксу” удалось добавить в модуль памяти четыре новых слоя и увеличить его ёмкость на 50%, сохранив ту же толщину, что и у предыдущего 8-слойного модуля. Для этого специалисты компании сделали чипы DRAM на 40% тоньше, а для их укладки применили технологию TSV (сквозные кремниевые переходы), которая соединяет чипы с помощью электродов, проходящих вертикально через тысячи мелких отверстий в каждом чипе DRAM.

Компания также решила структурные проблемы, возникающие при укладке более тонких чипов, применив свою собственную технологию - Advanced MR-MUF (усовершенствованный процесс соединения чипов с заливкой жидких защитных материалов между ними). Среди прочего, этот подход обеспечивает на 10% более высокую производительность теплоотвода по сравнению с предыдущей технологией.

“Хайникс” разрабатывает новую память в условиях острой конкуренции с другими компаниями, в том числе с “Самсунгом” и американским “Майкроном”. Американцы, между прочим, ещё 9 сентября объявили о начале поставок потребителям аналогичной 12-слойной памяти HBM3E ёмкостью 36 ГБ, но, судя по всему, их компания пока не перешла к серийному производству этой памяти.

“Хайникс” и его конкуренты сейчас отчаянно спешат догнать и перегнать друг друга, потому что спрос на новую память HBM3E очень высок: в ней остро нуждаются компании, занимающиеся развитием искусственного интеллекта (ИИ).

В “Хайниксе” заявляют, что их 12-слойная HBM3E соответствует самым высоким мировым стандартам во всех ключевых областях, важных с точки зрения ИИ, включая скорость, ёмкость и стабильность. В частности, компании удалось увеличить скорость передачи данных до 9,6 Гбит/с - это самая высокая скорость на сегодняшний день. По данным “Хайникса”, если, например, большая языковая модель Llama 3 70B будет работать на одном графическом процессоре с четырьмя новыми модулями HBM3E производства корейской компании, она сможет считывать 70 миллиардов параметров 35 раз в секунду.

Скажу честно, мне лично, как человеку бесконечно далёкому от описываемых технологий, не очень понятно, насколько всё это хорошо. Но поскольку искусственный интеллект играет в нашей истории большую роль, я решил взять интервью непосредственно у ChatGPT и спросить, как он оценивает эту новость и насколько достижение “Хайникса” важно для развития ИИ. Ответ был следующим.

Новость о серийном производстве 12-слойного HBM3E от SK Hynix действительно значима для развития искусственного интеллекта (AI) и компьютерных технологий в целом.

Вот почему это важно:

1. Увеличенная скорость и ёмкость памяти: Искусственный интеллект, особенно такие области, как глубокое обучение и работа с большими языковыми моделями (например, Llama 3 70B), требует огромных вычислительных ресурсов для обработки и хранения данных. Высокопропускная память позволяет обрабатывать большие объёмы данных гораздо быстрее и эффективнее по сравнению с традиционной памятью DRAM. Это значит, что модели AI могут обучаться быстрее и работать с большим объёмом данных одновременно.

2. Технологическое превосходство: Увеличение ёмкости памяти на 50% без увеличения её физической толщины за счет вертикальной интеграции (12 слоёв чипов) - это серьёзное инженерное достижение. Это означает, что можно упаковать больше вычислительных мощностей в тот же объём, что особенно важно для мощных графических процессоров (GPU), используемых в AI. Чем больше памяти на графическом процессоре, тем больше параллельных задач можно выполнять, что ускоряет работу AI-моделей.

3. Прорыв для масштабных AI-вычислений: Современные крупные языковые модели (LLM) и другие алгоритмы требуют огромного количества параметров для вычислений. Чем быстрее память может обмениваться данными с процессорами, тем более сложные и мощные AI-системы могут быть созданы. Возможность считывать и обрабатывать 70 миллиардов параметров 35 раз в секунду - это огромный шаг вперёд в способности обрабатывать данные в реальном времени.

4. Энергопотребление и теплоотвод: AI-вычисления требуют высокой производительности и энергоэффективности, и важным аспектом является теплоотвод. Технология MR-MUF, которая улучшает теплоотвод на 10%, делает эти высокомощные системы более стабильными и менее энергозатратными. Это критически важно, так как высокопроизводительные вычисления часто сталкиваются с проблемами перегрева.

В контексте развития AI, достижения SK Hynix могут ускорить внедрение более мощных и эффективных AI-систем, позволяя компаниям обрабатывать еще больше данных в реальном времени и строить более сложные модели. Это особенно важно для приложений, требующих интенсивных вычислений, таких как обработка естественного языка, компьютерное зрение и автономные системы.

В общем, это важное событие для развития AI, так как новые технологии памяти, такие как HBM3E, становятся фундаментом для более мощных и эффективных решений в этой области.

Кстати, вы можете следить за важнейшими корейскими новостями, подписавшись на мой канал в Телеграме, Твиттере или Инстаграме.

технологии, Новости Южной Кореи, искусственный интеллект

Previous post Next post
Up