Baichuan-Omni — это первая открытая мультимодальная модель на 7B параметров, способная одновременно обрабатывать текст, аудио, фото и видео. ИИ обеспечивает бесшовное взаимодействие в режиме реального времени, справляясь с задачами от синтеза речи до глубокого анализа видеоконтента.
In this paper, we introduce Baichuan-Omni , the first open-source 7B Multimodal Large Language Model (MLLM) adept at concurrently processing and analyzing modalities of image, video, audio, and text, while delivering an advanced multimodal interactive experience and strong performance. We propose an effective multimodal training schema starting with 7B model and proceeding through two stages of multimodal alignment and multitask fine-tuning across audio, image, video, and text modal.