Яндекс Метрика
Мультимодальная модель, Языковая модель, Распознавание речи, Компьютерное зрение, Видео, Аудио

Baichuan-Omni-1.5

Baichuan
Генерация текстаОтветы на вопросыAudio question answeringРаспознавание речиРечь в текстВизуальные ответы на вопросыImage captioningSpeech synthesisText-to-speech (TTS)VideoVideo classification

Baichuan-Omni-1.5 — это «всеядная» мультимодальная модель, способная бесшовно работать с текстом, аудио, видео и изображениями. ИИ поддерживает сквозную генерацию речи и глубокий анализ видеоконтента, обеспечивая естественное взаимодействие между человеком и машиной.

We introduce Baichuan-Omni-1.5, an omni-modal model that not only has omni-modal understanding capabilities but also provides end-to-end audio generation capabilities. To achieve fluent and high-quality interaction across modalities without compromising the capabilities of any modality, we prioritized optimizing three key aspects. First, we establish a comprehensive data cleaning and synthesis pipeline for multimodal data, obtaining about 500B high-quality data (text, audio, and vision). Second, an audio-tokenizer (Baichuan-Audio-Tokenizer) has been designed to capture both semantic and acoustic information from audio, enabling seamless integration and enhanced compatibility with MLLM. Lastly, we designed a multi-stage training strategy that progressively integrates multimodal alignment and multitask fine-tuning, ensuring effective synergy across all modalities. Baichuan-Omni-1.5 leads contemporary models (including GPT4o-mini and MiniCPM-o 2.6) in terms of comprehensive omni-modal capabilities. Notably, it achieves results comparable to leading models such as Qwen2-VL-72B across various multimodal medical benchmarks.

Что такое Baichuan-Omni-1.5?+
Кто разработал Baichuan-Omni-1.5?+
Какие задачи решает Baichuan-Omni-1.5?+