- Китайский стартап DeepSeek выпустил новую модель DeepSeek V3.1 с 685 млрд параметров.
- Модель обрабатывает до 128 тысяч токенов контекста и поддерживает разные режимы точности.
- V3.1 имеет гибридную архитектуру, объединяющую функции чата, логического рассуждения и программирования.
- DeepSeek сравнима по производительности с последними моделями OpenAI и Anthropic, но дешевле на 2 порядка.
- Модель работает с контекстом до 128 тысяч токенов, что примерно равно объему книги на 400 страниц.
- DeepSeek V3.1 поддерживает разные режимы точности для настройки работы на доступном оборудовании.
- Модель успешно преодолела проблемы объединения разных функций ИИ, показав сбалансированную гибридную систему.
- DeepSeek V3.1 сравнима с GPT-5 от OpenAI и Claude 4 от Anthropic по производительности, но дешевле на 68 раз.
- DeepSeek выпустила версию 3.1 всего через несколько недель после GPT-5 и Claude 4, бросая вызов существующим бизнес-моделям в области ИИ.
Вышла улучшенная версия DeepSeek — на уровне с GPT-5, но на порядок дешевле
20 авг 2025
Краткий пересказ
от нейросети YandexGPT
Обложка: Изображение с сайта msn.com