Яндекс Метрика
Мультимодальная модель, Языковая модель, Аудио, Распознавание речи, Компьютерное зрение

GPT-4o (Mar 2025)

OpenAI
Чат-ботГенерация изображенийГенерация аудиоVision-language generationРабота с таблицамиГенерация текстаОтветы на вопросыРаспознавание речиРечь в текст

GPT-4o — флагманская мультимодальная модель от OpenAI, способная мгновенно обрабатывать текст, аудио и видео в режиме реального времени. Эта «всеядная» нейросеть стирает границы между человеком и ИИ, отвечая на голосовые запросы с естественной скоростью и понимая контекст с полуслова.

We’re announcing GPT-4o, our new flagship model that can reason across audio, vision, and text in real time. GPT-4o (“o” for “omni”) is a step towards much more natural human-computer interaction—it accepts as input any combination of text, audio, image, and video and generates any combination of text, audio, and image outputs. It can respond to audio inputs in as little as 232 milliseconds, with an average of 320 milliseconds, which is similar to human response time(opens in a new window) in a conversation. It matches GPT-4 Turbo performance on text in English and code, with significant improvement on text in non-English languages, while also being much faster and 50% cheaper in the API. GPT-4o is especially better at vision and audio understanding compared to existing models.

Что такое GPT-4o (Mar 2025)?+
Кто разработал GPT-4o (Mar 2025)?+
Какие задачи решает GPT-4o (Mar 2025)?+