Яндекс Метрика
Языковая модель

Apriel Nemotron 15B

NVIDIA,ServiceNow
Генерация текстаОтветы на вопросыКоличественные рассужденияЧат-бот

Компактная, но мощная языковая модель от NVIDIA и ServiceNow, созданная специально для сложных рассуждений. При своих 15 миллиардах параметров она не уступает гигантам вроде o1-mini, потребляя при этом вдвое меньше памяти. Идеальный выбор для ИИ-чат-ботов и количественного анализа, где важна эффективность.

Apriel-Nemotron-15b-Thinker is a 15 billion‑parameter reasoning model in ServiceNow’s Apriel SLM series which achieves competitive performance against similarly sized state-of-the-art models like o1‑mini, QWQ‑32b, and EXAONE‑Deep‑32b, all while maintaining only half the memory footprint of those alternatives. It builds upon the Apriel‑15b‑base checkpoint through a three‑stage training pipeline (CPT, SFT and GRPO). Highlights Half the size of SOTA models like QWQ-32b and EXAONE-32b and hence memory efficient. It consumes 40% less tokens compared to QWQ-32b, making it super efficient in production. 🚀🚀🚀 On par or outperforms on tasks like - MBPP, BFCL, Enterprise RAG, MT Bench, MixEval, IFEval and Multi-Challenge making it great for Agentic / Enterprise tasks. Competitive performance on academic benchmarks like AIME-24 AIME-25, AMC-23, MATH-500 and GPQA considering model size.

Что такое Apriel Nemotron 15B?+
Кто разработал Apriel Nemotron 15B?+
Какие задачи решает Apriel Nemotron 15B?+