DeepSeek-V3.2-Exp — это экспериментальная языковая модель, созданная для тестирования архитектуры следующего поколения. Главная фишка этого ИИ — механизм Sparse Attention, который значительно ускоряет работу с длинными контекстами и повышает эффективность нейросети в задачах кодинга и сложных рассуждений.
We are excited to announce the official release of DeepSeek-V3.2-Exp, an experimental version of our model. As an intermediate step toward our next-generation architecture, V3.2-Exp builds upon V3.1-Terminus by introducing DeepSeek Sparse Attention—a sparse attention mechanism designed to explore and validate optimizations for training and inference efficiency in long-context scenarios. This experimental release represents our ongoing research into more efficient transformer architectures, particularly focusing on improving computational efficiency when processing extended text sequences.