DeepSeek-R2 выйдет в конце августа — что известно о новой ИИ-модели, обученной на чипах Huawei

2025-08-13 372 комментарии
DeepSeek-R2 выйдет между 15 и 30 августа 2025 года. Модель использует 1,2 трлн параметров и архитектуру MoE, обучена на китайских чипах Huawei Ascend 910B. Стоимость обучения на 97% ниже, чем у GPT-4. Huawei также представила фреймворк UCM для ускорения ИИ

DeepSeek планирует представить свою следующую версию большой языковой модели DeepSeek-R2 в период с 15 по 30 августа 2025 года. Информация о сроках появилась в ходе общения с собственной ИИ-моделью компании.

Технические особенности DeepSeek-R2

Новая модель получит усовершенствованную архитектуру Mixture of Experts (MoE) и более эффективную систему управления вычислительными ресурсами (gating network) для оптимизации работы с высоконагруженными задачами. По данным источников, близких к разработке, DeepSeek-R2 может масштабироваться до 1,2 триллиона параметров — почти вдвое больше, чем у предыдущей версии DeepSeek-R1 (671 миллиард). Однако этот показатель останется ниже, чем у ChatGPT-4/5, который использует более 1,8 триллиона параметров.

Шаги Китая к самостоятельности в ИИ

В рамках стратегии по достижению независимости в области ИИ модель полностью обучена на чипах Huawei Ascend 910B. Вычислительный кластер Huawei обеспечивает 512 петафлопс производительности в формате FP16 при 82-процентной загрузке, достигая 91% от уровня кластера Nvidia A100. Эксперты расценивают такой подход как важный этап в снижении зависимости Китая от американского оборудования для ИИ.

Обучение DeepSeek-R2 обошлось на 97% дешевле, чем у GPT-4, благодаря использованию локального оборудования и методам оптимизации. Аналитики прогнозируют, что DeepSeek предложит доступ к API по сниженным ценам, что способно нарушить существующие модели ценообразования, где доминируют OpenAI и Anthropic.

Ожидания вокруг DeepSeek-R2 уже повлияли на рынок: акции производителя ИИ-чипов Cambricon выросли на 20%, в результате чего рыночная капитализация компании превысила 355 миллиардов юаней (примерно 49,7 миллиарда долларов).

Новый фреймворк Huawei для ускорения ИИ

Параллельно Huawei представила Unified Cache Manager (UCM) — систему для оптимизации работы ИИ-моделей. Фреймворк улучшает обработку KV Cache данных между разными типами памяти (HBM, DRAM, SSD). В тестах с China UnionPay зафиксировано снижение задержек на 90% и увеличение пропускной способности в 22 раза. Компания планирует открыть исходный код UCM в сентябре.

© .
Комментарии и отзывы

Нашли ошибку?

Новое на сайте