Яндекс Метрика
Мультимодальная модель, Языковая модель

APUS-xDAN-4.0(MoE)

Qilin Hesheng Network Technology Co., Ltd. (APUS)
Чат-ботRecommender systemГенерация изображенийГенерация текстаОтветы на вопросыMathematical reasoningКоличественные рассуждения

Первая высокопроизводительная мультимодальная модель с триллионными параметрами, созданная в партнерстве xDAN и APUS. Этот ИИ демонстрирует выдающиеся результаты в математике и логике, а также отлично справляется с генерацией изображений и сложным анализом данных.

📢 Welcome to the First High-Performance Trillion-Parameter MOE Architecture LLM trained jointly by xDAN and APUS. 📢 🤗 This a high-performance MOE model whose Math(GSM8k_Cot:79%), Reasoning(MMLU:75%)! 🙏 Feel free to use according to the inference code. APUS-xDAN-4.0-MOE leverages the innovative Mixture of Experts (MoE) architecture, incorporating components from dense language models. Specifically, it inherits its capabilities from the highly performant xDAN-L2 Series. With a total of 136 billion parameters, of which 30 billion are activated during runtime, APUS-xDAN-4.0-MOE demonstrates unparalleled efficiency. Through advanced quantization techniques, our open-source version occupies a mere 42GB, making it seamlessly compatible with consumer-grade GPUs like the 4090 and 3090.

Что такое APUS-xDAN-4.0(MoE)?+
Кто разработал APUS-xDAN-4.0(MoE)?+
Какие задачи решает APUS-xDAN-4.0(MoE)?+