Китайский стартап DeepSeek анонсировал две новые открытые модели с продвинутыми возможностями рассуждений — DeepSeek-V3.2 и усиленную версию DeepSeek-V3.2-Speciale. Компания заявляет, что новые решения ставят Китай наравне с американскими лидерами OpenAI и Google.
По данным разработчиков, DeepSeek-V3.2-Speciale продемонстрировала высокие результаты в программировании и математике: модель завоевала «золото» на Международной математической олимпиаде, Китайской олимпиаде, Международной студенческой олимпиаде по программированию и Международной олимпиаде по информатике.
На американском отборочном экзамене по математике DeepSeek-V3.2-Speciale показала результат 96,0 %, тогда как GPT-5 High — 94,6 %, а Gemini 3 Pro — 95,0 %. В тесте SWE Verified по программированию китайская модель набрала 73,1 %, GPT-5 High — 74,9 %, а Gemini 3 Pro — 76,2 %.
DeepSeek отмечает, что модели серии V3.2 впервые ориентированы на работу с ИИ-агентами и обеспечивают производительность уровня GPT-5 для общих задач. DeepSeek-V3.2-Speciale особенно эффективна в сложных сценариях рассуждений, сопоставимых с Gemini 3 Pro.
Прорыв достигнут благодаря масштабному дообучению с подкреплением на сложных задачах и технологии DeepSeek Sparse Attention (DSA), которая выделяет для анализа только ключевые токены вместо всех.
Модель DeepSeek-V3.2 уже доступна в приложении, на сайте и через API. Доступ к V3.2-Speciale ограничен API и предназначен для решения наиболее сложных задач.
По данным MIT и Hugging Face, доля скачиваний новых открытых моделей китайских разработчиков в августе составила 17 % против 15,8 % у американских. Эксперты отмечают, что быстрый цикл обновлений и ориентация на эффективные открытые модели на менее мощном оборудовании укрепляют позиции Китая в глобальной ИИ-гонке.
