DeepSeek: новый лидер ИИ-гонки и виновник просадки крипторынка
20 января китайский ИИ-стартап DeepSeek выпустил ориентированную на рассуждения модель с открытым исходным кодом DeepSeek-R1. На выходных 25-26 января нейросеть привлекла внимание сообщества, что привело к распродажам на рынках акций и криптовалют. Что такое DeepSeek? DeepSeek — стартап в области искусственного интеллекта, основанный в 2023 году в Ханчжоу, Китай. Компания специализируется на разработке больших языковых моделей с открытым исходным кодом. В ноябре DeepSeek представила думающую «сверхмощную» ИИ-модель DeepSeek-R1-Lite-Preview. Согласно опубликованным тестам, она работает наравне с o1-preview от OpenAI. В конце декабря фирма показала собственную LLM V3, которая превзошла по тестам конкурентов от Meta и OpenAI. DeepSeek V3 имеет 671 млрд параметров. Для сравнения, у Llama 3.1 405B их 405 млрд. Показатель отражает способность ИИ адаптироваться к более сложным вариантам применения и давать ответы точнее. На разработку нейросети понадобилось два месяца, $5,58 млн и значительно меньше вычислительных ресурсов по сравнению с более крупными технологическими компаниями. Применялись чипы Nvidia H800. Благодаря новой ИИ-модели DeepSeek-R1 чат-бот компании взлетел в рейтинге бесплатных приложений App Store в США, обойдя в том числе ChatGPT. Топ бесплатных приложений в App Store в США. Данные: App Store. R1 — убийца o1 от OpenAI DeepSeek предложила аналогичную топовым моделям производительность за намного меньшие деньги. В ряде тестов, проведенных сторонними разработчиками, китайская модель обошла Llama 3.1, GPT-4o и Claude Sonnet 3.5. Специалисты проверили ИИ на точность ответов, способность решать сложные задачи, математику и программирование. «[...] Разработчикам действительно удалось создать нейросеть с открытым исходным кодом, которая выполняет вычисления в режиме вывода и является крайне эффективной. Мы должны очень, очень серьезно относиться к разработкам Китая», — прокомментировал CEO Microsoft Сатья Наделла на Всемирном экономическом форуме в Давосе (Швейцария). DeepSeek удивила также тем, что создателям модели удалось обойти экспортные ограничения США. China’s #DeepSeek could represent the biggest threat to US equity markets as the company seems to have built a groundbreaking AI model at an extremely low price and w/o having access to cutting-edge chips, calling into question the utility of the hundreds of billions worth of… pic.twitter.com/wMVyczpRgT— Holger Zschaepitz (@Schuldensuehner) January 24, 2025 «Китайская компания DeepSeek может представлять самую большую угрозу для американских фондовых рынков, поскольку она, похоже, построила революционную ИИ-модель по чрезвычайно низкой цене и без доступа к передовым чипам, что ставит под сомнение полезность сотен миллиардов капиталовложений, вливаемых в эту отрасль», — прокомментировал журналист Хольгер Чепиц. DeepSeek представила «дистиллированные» версии R1 размером от 1,5 млрд параметров до 70 млрд параметров. Самая маленькая может работать на ноутбуке. В одном из примеров DeepSeek R1 запустили даже на смартфоне. Wow DeepSeek R1 version 1.5B runs perfectly locally on my phone
20 января китайский ИИ-стартап DeepSeek выпустил ориентированную на рассуждения модель с открытым исходным кодом DeepSeek-R1. На выходных 25-26 января нейросеть привлекла внимание сообщества, что привело к распродажам на рынках акций и криптовалют.
Что такое DeepSeek?
DeepSeek — стартап в области искусственного интеллекта, основанный в 2023 году в Ханчжоу, Китай. Компания специализируется на разработке больших языковых моделей с открытым исходным кодом.
В ноябре DeepSeek представила думающую «сверхмощную» ИИ-модель DeepSeek-R1-Lite-Preview. Согласно опубликованным тестам, она работает наравне с o1-preview от OpenAI.
В конце декабря фирма показала собственную LLM V3, которая превзошла по тестам конкурентов от Meta и OpenAI.
DeepSeek V3 имеет 671 млрд параметров. Для сравнения, у Llama 3.1 405B их 405 млрд. Показатель отражает способность ИИ адаптироваться к более сложным вариантам применения и давать ответы точнее.
На разработку нейросети понадобилось два месяца, $5,58 млн и значительно меньше вычислительных ресурсов по сравнению с более крупными технологическими компаниями. Применялись чипы Nvidia H800.
Благодаря новой ИИ-модели DeepSeek-R1 чат-бот компании взлетел в рейтинге бесплатных приложений App Store в США, обойдя в том числе ChatGPT.
R1 — убийца o1 от OpenAI
DeepSeek предложила аналогичную топовым моделям производительность за намного меньшие деньги. В ряде тестов, проведенных сторонними разработчиками, китайская модель обошла Llama 3.1, GPT-4o и Claude Sonnet 3.5. Специалисты проверили ИИ на точность ответов, способность решать сложные задачи, математику и программирование.
«[...] Разработчикам действительно удалось создать нейросеть с открытым исходным кодом, которая выполняет вычисления в режиме вывода и является крайне эффективной. Мы должны очень, очень серьезно относиться к разработкам Китая», — прокомментировал CEO Microsoft Сатья Наделла на Всемирном экономическом форуме в Давосе (Швейцария).
DeepSeek удивила также тем, что создателям модели удалось обойти экспортные ограничения США.
China’s #DeepSeek could represent the biggest threat to US equity markets as the company seems to have built a groundbreaking AI model at an extremely low price and w/o having access to cutting-edge chips, calling into question the utility of the hundreds of billions worth of… pic.twitter.com/wMVyczpRgT— Holger Zschaepitz (@Schuldensuehner) January 24, 2025
«Китайская компания DeepSeek может представлять самую большую угрозу для американских фондовых рынков, поскольку она, похоже, построила революционную ИИ-модель по чрезвычайно низкой цене и без доступа к передовым чипам, что ставит под сомнение полезность сотен миллиардов капиталовложений, вливаемых в эту отрасль», — прокомментировал журналист Хольгер Чепиц.
DeepSeek представила «дистиллированные» версии R1 размером от 1,5 млрд параметров до 70 млрд параметров. Самая маленькая может работать на ноутбуке.
В одном из примеров DeepSeek R1 запустили даже на смартфоне.
Wow DeepSeek R1 version 1.5B runs perfectly locally on my phone