Модель Yi-Lightning

Nov 20, 2024 22:16



Китайская компания обучила свою модель до уровня GPT-4 всего за $3 млн

Как сообщает Tomshardware (https://www.tomshardware.com/tech-industry/artificial-intelligence/chinese-company-trained-gpt-4-rival-with-just-2-000-gpus-01-ai-spent-usd3m-compared-to-openais-usd80m-to-usd100m), китайская компания 01. ai продемонстрировала то, что для обучения мощной модели искусственного (https://t.me/russian_osint)интеллекта не всегда требуются значительные инвестиции.

Модель Yi-Lightning заняла почётное шестое место по производительности в рейтинге LMSIS Университета Беркли. 01. ai потратила на обучение модели всего $3 млн, используя (https://t.me/russian_osint)2000 графических процессоров, что существенно ниже затрат OpenAI на GPT-4 (от $80 до $100 млн) и предполагаемых $1 млрд на GPT-5.

Руководитель компании Кай-Фу (https://t.me/russian_osint)Ли подчеркнул: ограниченные финансовые и технологические ресурсы, вызванные экспортными ограничениями США на передовые графические процессоры, лишь только простимулировали внедрение высокоэффективных инженерных решений в Китае.

В рейтинге даже обогнала немного GPT-4o-2024-05-13 и Claude 3.5 Sonnet (20241022). Умеют же люди, когда руки из правильного места растут.

https://lmarena.ai/?leaderboard

@Russian_OSINT - цинк

Вот это правильный подход. Создавать эффективный продукт кратно дешевле чем у оппонентов.
На такой подход и надо ориентироваться.

нейросети, США, будущее, технологии, Китай, искусственный интеллект

Previous post Next post
Up