Яндекс Метрика
Языковая модель

Yuan 2.0

Inspur
Генерация текстаМашинный переводГенерация кода

Yuan 2.0 от Inspur — это мощная серия языковых моделей, использующая уникальный механизм внимания LFA для лучшего понимания связей в тексте. ИИ отлично справляется с генерацией кода и сложными переводами, предлагая масштабируемость от 2 до 102 миллиардов параметров.

In this work, the Localized Filtering-based Attention (LFA) is introduced to incorporate prior knowledge of local dependencies of natural language into Attention. Based on LFA, we develop and release Yuan 2.0, a large language model with parameters ranging from 2.1 billion to 102.6 billion. A data filtering and generation method is presented to build pretraining and fine-tuning dataset in high quality. A distributed training method with non-uniform pipeline parallel, data parallel, and optimizer parallel is proposed, which greatly reduces the bandwidth requirements of intra-node communication, and achieves good performance in large-scale distributed training. Yuan 2.0 models display impressive ability in code generation, math problem-solving, and chat compared with existing models. The latest version of YUAN 2.0, including model weights and source code, is accessible at Github.

Что такое Yuan 2.0?+
Кто разработал Yuan 2.0?+
Какие задачи решает Yuan 2.0?+