Яндекс Метрика
M

Смесь экспертов (Mixture of Experts, MoE)

// определение

Архитектура нейросетей, состоящая из нескольких специализированных подсетей («экспертов») и механизма маршрутизации. Для каждого запроса активируются только наиболее подходящие эксперты, что повышает эффективность модели без резкого роста затрат на вычисления.

// faq
Что такое Смесь экспертов (Mixture of Experts, MoE)?+
Как Смесь экспертов (Mixture of Experts, MoE) используется в ИИ?+