Китайская компания обучила свою модель до уровня GPT-4 всего за $3 млн
Как сообщает Tomshardware (
https://www.tomshardware.com/tech-industry/artificial-intelligence/chinese-company-trained-gpt-4-rival-with-just-2-000-gpus-01-ai-spent-usd3m-compared-to-openais-usd80m-to-usd100m), китайская компания 01. ai продемонстрировала то, что для обучения мощной модели искусственного (
https://t.me/russian_osint)интеллекта не всегда требуются значительные инвестиции.
Модель Yi-Lightning заняла почётное шестое место по производительности в рейтинге LMSIS Университета Беркли. 01. ai потратила на обучение модели всего $3 млн, используя (
https://t.me/russian_osint)2000 графических процессоров, что существенно ниже затрат OpenAI на GPT-4 (от $80 до $100 млн) и предполагаемых $1 млрд на GPT-5.
Руководитель компании Кай-Фу (
https://t.me/russian_osint)Ли подчеркнул: ограниченные финансовые и технологические ресурсы, вызванные экспортными ограничениями США на передовые графические процессоры, лишь только простимулировали внедрение высокоэффективных инженерных решений в Китае.
В рейтинге даже обогнала немного GPT-4o-2024-05-13 и Claude 3.5 Sonnet (20241022). Умеют же люди, когда руки из правильного места растут.
https://lmarena.ai/?leaderboard @Russian_OSINT - цинк
Вот это правильный подход. Создавать эффективный продукт кратно дешевле чем у оппонентов.
На такой подход и надо ориентироваться.