Яндекс Метрика
Языковая модель

OpenDiLoCo 1.1B

Prime Intellect
Генерация текстаОтветы на вопросы

Масштабируемая версия OpenDiLoCo с 1.1 млрд параметров для эффективной генерации текста. Этот ИИ демонстрирует возможности открытого фреймворка для обучения крупных языковых моделей в распределенных и нестабильных сетях.

OpenDiLoCo is an open-source implementation and replication of the Distributed Low-Communication (DiLoCo) training method for large language models. We provide a reproducible implementation of the DiLoCo experiments, offering it within a scalable, decentralized training framework using the Hivemind library. We demonstrate its effectiveness by training a model across two continents and three countries, while maintaining 90-95% compute utilization. Additionally, we conduct ablations studies focusing on the algorithm's compute efficiency, scalability in the number of workers and show that its gradients can be all-reduced using FP16 without any performance degradation. Furthermore, we scale OpenDiLoCo to 3x the size of the original work, demonstrating its effectiveness for billion parameter models.

Что такое OpenDiLoCo 1.1B?+
Кто разработал OpenDiLoCo 1.1B?+
Какие задачи решает OpenDiLoCo 1.1B?+