Яндекс Метрика
Языковая модель

Ministral 3B

Mistral AI
Генерация текстаОтветы на вопросыГенерация кодаКоличественные рассуждения

Ministral 3B — компактная, но невероятно способная ИИ-модель от Mistral AI, созданная специально для работы на локальных устройствах. Несмотря на малый размер, она блестяще справляется с логическими задачами, написанием кода и вызовом функций. Настоящий прорыв в области энергоэффективного и быстрого ИИ «на краю» (edge computing).

On the first anniversary of the release of Mistral 7B, the model that revolutionized independent frontier AI innovation for millions, we are proud to introduce two new state-of-the-art models for on-device computing and at-the-edge use cases. We call them les Ministraux: Ministral 3B and Ministral 8B. These models set a new frontier in knowledge, commonsense, reasoning, function-calling, and efficiency in the sub-10B category, and can be used or tuned to a variety of uses, from orchestrating agentic workflows to creating specialist task workers. Both models support up to 128k context length (currently 32k on vLLM) and Ministral 8B has a special interleaved sliding-window attention pattern for faster and memory-efficient inference. Ministral 3B is a state-of-the-art Small Language Model (SLM) optimized for edge computing and on-device applications. As it is designed for low-latency and compute-efficient inference, it it also the perfect model for standard GenAI applications that have real-time requirements and high-volume.

Что такое Ministral 3B?+
Кто разработал Ministral 3B?+
Какие задачи решает Ministral 3B?+