Компания DeepSeek без лишнего шума представила новую версию своей крупной языковой модели — DeepSeek V3.1. Обновлённая нейросеть уже доступна для бесплатного использования и, судя по первым тестам, демонстрирует впечатляющие результаты, приближаясь к возможностям ведущих платных аналогов.
DeepSeek V3.1 обладает масштабом в 685 миллиардов параметров и поддерживает контекстное окно в 128 000 токенов — это примерно как 400-страничная книга. Такая производительность позволяет модели эффективно анализировать и генерировать большие объёмы текста, а также лучше удерживать контекст при длительных диалогах.
По неофициальной информации, в бенчмарке Aider, оценивающем точность генерации программного кода, DeepSeek V3.1 показала результат в 71,4%. Этот показатель на 1% превышает результат одного из лидеров рынка — модели Claude Opus 4 от Anthropic.
Одним из ключевых нововведений в архитектуре стала поддержка новых типов токенов. Они обеспечивают улучшенную интеграцию с интернет-ресурсами в режиме реального времени, что усиливает способности модели к поиску актуальной информации. Также отмечено заметное улучшение в области логического мышления (reasoning).
Журналист По Чжао обратил внимание, что с пользовательского интерфейса на сайте DeepSeek исчезла кнопка R1. Это может свидетельствовать о том, что новая версия модели теперь используется по умолчанию, предлагая унифицированный стиль выдачи и расширенные функции взаимодействия.
Обновление модели DeepSeek подтверждает намерения компании конкурировать с мировыми лидерами в сфере искусственного интеллекта, предоставляя продвинутое и при этом бесплатное решение для широкой аудитории.