В начале 2025 года китайский стартап DeepSeek привлек внимание мирового ИИ-сообщества, представив свою новую языковую модель DeepSeek V3. Компания из Ханчжоу смогла создать мощную систему искусственного интеллекта, затратив значительно меньше ресурсов по сравнению с крупными технологическими гигантами.
Джим Фан, ведущий научный сотрудник Nvidia, назвал DeepSeek "главным темным конем" в сфере открытых языковых моделей. По его мнению, ограниченность в ресурсах заставила команду стартапа найти инновационные подходы к разработке.
DeepSeek V3 содержит 671 миллиард параметров и была обучена всего за два месяца. При этом затраты составили лишь 5,58 миллионов долларов США - это существенно меньше, чем тратят на разработку подобных моделей такие компании как Meta и OpenAI.
Высокое количество параметров позволяет модели лучше адаптироваться к сложным данным и делать более точные прогнозы. Открытый исходный код дает возможность сторонним разработчикам модифицировать и масштабировать возможности системы.
Успех DeepSeek показывает, как далеко продвинулись китайские ИИ-компании, несмотря на американские санкции, ограничивающие их доступ к передовым полупроводникам для обучения моделей. Стартап доказал, что создание мощных языковых моделей возможно даже при ограниченных ресурсах.