31.12.2025
K-EXAONELG AI ResearchЯзыковая модель// хронология развития ИИ
История моделей искусственного интеллекта по годам: от ранних нейросетей до современных LLM.
2025
Взрыв рассуждающих моделей
OpenAI o1/o3, DeepSeek R1, Claude 3.5 — модели учатся «думать» перед ответом. Chain-of-thought становится стандартом. Открытые модели догоняют закрытые. Россия выпускает GigaChat 2 и YandexGPT 5.
29.12.2025
HyperCLOVA X SEED 32B ThinkNAVERМультимодальная модель, Языковая модель, Компьютерное зрение02.12.2025
Nova 2Amazon Web Services (AWS)Языковая модель, Компьютерное зрение, Мультимодальная модель2024
Год открытых моделей
Meta выпускает Llama 3 и открывает гонку open-source LLM. Mistral, Qwen, Gemma — десятки открытых моделей. Генерация видео: Sora, Runway Gen-3. ИИ интегрируется в каждый продукт.
31.12.2024
OLMo 2 Furious 7BAllen Institute for AI,University of Washington,New York University (NYU)Языковая модель31.12.2024
STORM-B/8University of Southern California,Georgia Institute of Technology,Stanford University,NVIDIA3D-моделирование31.12.2024
OLMo 2 Furious 13BAllen Institute for AI,University of Washington,New York University (NYU)Языковая модель28.12.2024
HiDream Foundation Model 1.0HiDreamВидео, Генерация изображений, Компьютерное зрение, 3D-моделирование2023
ChatGPT меняет мир
GPT-4 показывает мультимодальность. Claude 2, Llama 2, Mistral 7B — взрыв конкуренции. Stable Diffusion и Midjourney делают AI-арт мейнстримом. ИИ-стартапы привлекают рекордные инвестиции.
2022
Генеративный ИИ становится публичным
ChatGPT запускается в ноябре и за 5 дней набирает миллион пользователей. DALL-E 2 и Stable Diffusion открывают эру генерации изображений. Whisper решает распознавание речи.
2021
Масштабирование продолжается
GitHub Copilot показывает, что LLM могут писать код. DALL-E генерирует изображения из текста. AlphaFold 2 решает предсказание структуры белков — прорыв в биологии.
16.12.2021
ContrieverMeta AI,University College London (UCL),PSL University,Université Grenoble AlpesЯзыковая модель2020
Прорыв масштаба: GPT-3
OpenAI выпускает GPT-3 со 175 миллиардами параметров — модель впервые показывает emergent abilities. NVIDIA выпускает A100 — GPU, который определит эпоху обучения LLM.
31.12.2020
ShortformerUniversity of Washington,Facebook AI Research,Allen Institute for AIЯзыковая модель2019
Трансформеры захватывают NLP
BERT от Google революционизирует понимание текста. GPT-2 показывает генерацию связного текста. T5 унифицирует задачи NLP в формат text-to-text.
19.12.2019
DD-PPOGeorgia Institute of Technology,Facebook AI Research,Oregon State University,Simon Fraser UniversityРобототехника05.12.2019
MMLSTM (PTB)Beijing University of Posts and Telecommunications,University of West LondonЯзыковая модель05.12.2019
MMLSTM (WT-2)Beijing University of Posts and Telecommunications,University of West LondonЯзыковая модель05.12.2019
MMLSTM (WT-103)Beijing University of Posts and Telecommunications,University of West LondonЯзыковая модель04.12.2019
StarGAN v2NAVER,Yonsei University,Swiss Federal Institute of TechnologyКомпьютерное зрение, Генерация изображений2018
Предобучение и transfer learning
ELMo и BERT показывают силу предобученных языковых моделей. GPT-1 от OpenAI запускает линейку. StyleGAN генерирует фотореалистичные лица.
04.12.2018
Vine copula (wine quality)Massachusetts Institute of Technology (MIT),Rey Juan Carlos University04.12.2018
Vine copula (breast cancer)Massachusetts Institute of Technology (MIT),Rey Juan Carlos UniversityКомпьютерное зрение2017
Attention Is All You Need
Google публикует статью о трансформерах — архитектуре, которая изменит всё. AlphaGo Zero учится играть с нуля без человеческих данных. Начало эры трансформеров.
06.12.2017
WGAN (Wasserstein GAN)Facebook AI Research,Courant Institute of Mathematical SciencesГенерация изображений05.12.2017
2-layer-LSTM+Deep-Gradient-CompressionTsinghua University,Stanford University,NVIDIAЯзыковая модель2016
AlphaGo побеждает человека
DeepMind's AlphaGo обыгрывает чемпиона мира по го Ли Седоля. Это момент, когда ИИ доказывает способность к сверхчеловеческой интуиции в сложных задачах.
13.12.2016
Diabetic Retinopathy Detection NetUT Austin,University of California (UC) Berkeley,GoogleКомпьютерное зрение2015
Глубокое обучение взлетает
ResNet побеждает на ImageNet с рекордной точностью. Batch Normalization ускоряет обучение. TensorFlow от Google становится открытым. ИИ входит в мейнстрим.
11.12.2015
BPLUniversity of Toronto,New York University (NYU),Massachusetts Institute of Technology (MIT)Генерация изображений2014
GAN и генеративные модели
Ян Гудфеллоу изобретает генеративно-состязательные сети (GAN) — архитектуру, которая позже приведёт к генерации изображений. Seq2Seq революционизирует машинный перевод.
2013
Word2Vec и нейросетевые эмбеддинги
Google публикует Word2Vec — метод представления слов в виде векторов. Начало эры нейросетевого NLP. Variational Autoencoder (VAE) открывает новый подход к генерации.
2012
AlexNet — начало эры глубокого обучения
AlexNet побеждает на ImageNet с огромным отрывом благодаря GPU-обучению. Это момент, который запустил революцию deep learning и привлёк миллиарды в ИИ.
02.12.2012
Bayesian automated hyperparameter tuningUniversity of Toronto,University of Sherbrooke,Harvard UniversityДругое01.12.2012
RNN+LSA+KN5+cache (model combination w/ linear extrapolation)Microsoft ResearchЯзыковая модель2011
ИИ побеждает в Jeopardy
IBM Watson побеждает чемпионов в телевикторине Jeopardy!. Siri от Apple запускается как первый массовый голосовой ассистент. ИИ начинает входить в повседневную жизнь.
03.10.2011
Adaptive SubgradTechnion - Israel Institute of Technology,Google,University of California (UC) BerkeleyЯзыковая модель2010
Начало эры больших данных
ImageNet становится главным бенчмарком компьютерного зрения. GPU начинают использовать для обучения нейросетей. Рождается современная индустрия ИИ.
26.09.2010
RNN 1000/5 + RT09 LM (NIST RT05)Brno University of Technology,Johns Hopkins UniversityРаспознавание речи26.09.2010
KN5 LM + RNN 400/10 (WSJ)Brno University of Technology,Johns Hopkins UniversityРаспознавание речи26.09.2010
RNN 500/10 + RT09 LM (NIST RT05)Brno University of Technology,Johns Hopkins UniversityРаспознавание речи2009
ImageNet и большие данные для зрения
Запускается ImageNet — датасет из миллионов размеченных изображений. Он станет бенчмарком, определившим развитие компьютерного зрения на десятилетие.
29.09.2009
3D city reconstructionUniversity of Washington,Microsoft Research,Cornell University3D-моделирование2008
GPU-вычисления для ИИ
Исследователи начинают использовать GPU для обучения нейросетей. NVIDIA CUDA открывает эпоху параллельных вычислений для машинного обучения.
05.07.2008
Semi-Supervised Embedding for DLGoogle,NUANCE Communications,IDIAP,University of Illinois Urbana-Champaign (UIUC)Другое23.06.2008
Multiscale deformable part modelUC Irvine,University of Chicago,Toyota Technological Institute at ChicagoКомпьютерное зрение2007
Глубокие сети набирают обороты
Методы предобучения без учителя позволяют обучать более глубокие сети. Появляются первые практические применения глубокого обучения в распознавании речи.
23.09.2007
BLSTM for handwriting (1)University of Bern,IDSIA,Technical University of MunichКомпьютерное зрение01.06.2007
Empirical evaluation of deep architecturesUniversity of Montreal / Université de MontréalДругое2006
Возрождение нейронных сетей
Джеффри Хинтон публикует работу о глубоких сетях доверия (DBN), запуская ренессанс нейронных сетей после «зимы ИИ». Термин «deep learning» входит в обиход.
17.06.2006
Spatial Pyramid MatchingINRIA,University of Illinois Urbana-Champaign (UIUC),Ecole Normale SupèrieureКомпьютерное зрение17.06.2006
Hybrid CNN/SVM Object CategorizerCourant Institute of Mathematical SciencesКомпьютерное зрение09.03.2006
RL for helicopter flightUniversity of California (UC) Berkeley,Stanford UniversityАвтономное вождение2005
Развитие ансамблевых методов
Random Forest и градиентный бустинг становятся стандартом для табличных данных. Машинное обучение активно используется в рекомендательных системах и рекламе.
05.12.2005
Vision-based obstacle avoidance system (2005)New York University (NYU),Net-Scale technologies,NEC LaboratoriesРобототехника, Компьютерное зрение2004
Машинное обучение в продуктах
Google использует ML для ранжирования поиска. Amazon развивает рекомендательные системы. ИИ начинает приносить реальные деньги технокомпаниям.
01.12.2004
Synergistic Face DetectorNEC Laboratories,Courant Institute of Mathematical SciencesКомпьютерное зрение2003
Нейронные языковые модели
Бенжио публикует работу о нейронных языковых моделях — предшественниках современных LLM. Идея предсказания следующего слова нейросетью закладывает фундамент будущего.
15.11.2003
RankBoost (meta-search)Columbia University,Princeton University,Hebrew University of JerusalemРекомендательные системы15.11.2003
RankBoost (EachMovie)Columbia University,Princeton University,Hebrew University of JerusalemРекомендательные системы13.10.2003
Bayesian object categorizerCalifornia Institute of Technology,University of OxfordКомпьютерное зрение2002
SVM и ядерные методы
Метод опорных векторов (SVM) доминирует в задачах классификации. Ядерные методы показывают отличные результаты на малых датасетах.
01.10.2002
Web mining + Decision tree recommenderKorea Advanced Institute of Science and Technology (KAIST)Рекомендательные системы2001
Random Forest
Лео Брейман публикует работу о случайном лесе — ансамблевом методе, который до сих пор используется в промышленности для табличных данных.
08.12.2001
Decision tree (classification)Mitsubishi Electric Research Labs,Compaq CRLКомпьютерное зрение01.04.2001
Restricted Boltzmann machine for Face RecognitionUniversity of Toronto,University College London (UCL)Компьютерное зрение2000
Начало эры интернет-данных
Взрыв интернета создаёт огромные объёмы текстовых данных. Статистические методы NLP начинают вытеснять правиловые. Латентное семантическое индексирование для поиска.
1999
LSTM набирает популярность
Рекуррентные сети с LSTM-ячейками показывают результаты в распознавании рукописного текста и речи. Начало практического применения последовательных моделей.
01.07.1999
Credibilty NetworkUniversity College London (UCL),University of TorontoКомпьютерное зрение1998
LeNet-5 и MNIST
Ян Лекун совершенствует LeNet для распознавания рукописных цифр. MNIST становится стандартным бенчмарком. Свёрточные сети доказывают свою практичность.
1997
Deep Blue побеждает Каспарова
Суперкомпьютер IBM Deep Blue обыгрывает чемпиона мира по шахматам Гарри Каспарова. LSTM решает проблему долгосрочных зависимостей в рекуррентных сетях.
1996
Развитие обучения с подкреплением
TD-Gammon от IBM играет в нарды на уровне чемпиона мира. Обучение с подкреплением показывает потенциал в сложных стратегических задачах.
1995
SVM и статистическое обучение
Владимир Вапник представляет метод опорных векторов (SVM). Статистическое обучение начинает доминировать над нейросетевыми подходами. Начало «зимы нейросетей».
1994
Веб и первые поисковые системы
WebCrawler и Lycos — первые поисковые системы, использующие алгоритмы ранжирования. TF-IDF становится основой информационного поиска.
1993
Вероятностные модели
Байесовские сети и скрытые марковские модели используются для распознавания речи. Вероятностные подходы доминируют в NLP.
1992
Бустинг и ансамблевые методы
Роберт Шапире и Йоав Фройнд разрабатывают AdaBoost — первый практичный алгоритм бустинга. Ансамблевые методы становятся мощным инструментом ML.
1991
Развитие рекуррентных сетей
Исследования рекуррентных нейросетей для обработки последовательностей. Проблема затухающего градиента ограничивает глубину обучения.
1990
Вторая зима ИИ
Финансирование ИИ-исследований сокращается. Экспертные системы не оправдали ожиданий. Но работа над нейросетями продолжается в академических лабораториях.
1989
LeNet и свёрточные сети
Ян Лекун создаёт LeNet — первую практическую свёрточную нейросеть для распознавания рукописных цифр. Начало компьютерного зрения на нейросетях.
03.03.1989
Time-delay neural networksAdvanced Telecommunications Research Institute,Carnegie Mellon University (CMU)Распознавание речи01.01.1989
MLP baggage detectorScience Applications International Corporation / SAICКомпьютерное зрение1988
Развитие коннекционизма
Нейросетевой подход набирает популярность. Публикуются работы о распределённых представлениях и параллельной обработке данных.
05.04.1988
Latent semantic analysisUniversity of Chicago,Bell Laboratories,University of Western OntarioЯзыковая модель1987
Первые коммерческие нейросети
Появляются первые коммерческие применения нейросетей в финансах и распознавании образов. Исследования backpropagation набирают обороты.
1986
Обратное распространение ошибки
Румельхарт, Хинтон и Уильямс публикуют работу об обратном распространении ошибки — алгоритме, который до сих пор лежит в основе обучения всех нейросетей.
01.11.1986
Optimized Multi-Scale Edge DetectionMassachusetts Institute of Technology (MIT)Компьютерное зрение01.10.1986
MLP with back-propagationUniversity of California San Diego,Carnegie Mellon University (CMU)Математика03.01.1986
Error PropagationUniversity of California San Diego,Carnegie Mellon University (CMU)Другое1984
Сети Больцмана
Хинтон и Сейновски создают сети Больцмана — стохастические нейросети, использующие принципы статистической механики для обучения.
01.07.1984
Learnability theory of language developmentMassachusetts Institute of Technology (MIT)Языковая модель1983
Развитие экспертных систем
Экспертные системы на основе правил активно используются в медицине и промышленности. Это пик первой волны коммерческого ИИ.
1980
Карты Кохонена
Тойво Кохонен создаёт самоорганизующиеся карты — метод обучения без учителя для визуализации и кластеризации многомерных данных.
1976
Развитие символьного ИИ
Экспертные системы набирают популярность. MYCIN диагностирует инфекции крови. Символьный подход к ИИ доминирует.
30.04.1976
Statistical continuous speech recognizerMassachusetts Institute of Technology (MIT)Распознавание речи1975
Backpropagation: первые идеи
Пол Вербос описывает метод обратного распространения ошибки в своей диссертации. Идея остаётся незамеченной до 1986 года.
1973
Доклад Лайтхилла и первая зима ИИ
Джеймс Лайтхилл публикует разгромный отчёт о состоянии ИИ в Великобритании. Финансирование сокращается. Начинается «первая зима ИИ».
1972
PROLOG и логическое программирование
Создаётся язык Prolog — основа логического программирования и экспертных систем. Японский проект компьютеров пятого поколения будет основан на нём.
1970
Ограничения перцептрона
Минский и Паперт публикуют книгу «Перцептроны», показывая ограничения однослойных сетей. Это временно останавливает исследования нейросетей.
01.09.1970
Graph-based structural reasoningMassachusetts Institute of Technology (MIT)Компьютерное зрение1969
Первые шаги робототехники
Робот Shakey от SRI International — первый мобильный робот, способный рассуждать о своих действиях. Интеграция зрения, планирования и движения.
1968
Развитие компьютерного зрения
Появляются первые системы компьютерного зрения. MIT запускает проект «Summer Vision» — попытка решить зрение за лето. Задача оказалась значительно сложнее.
1966
ELIZA — первый чат-бот
Джозеф Вейценбаум создаёт ELIZA — программу, имитирующую психотерапевта. Первая демонстрация разговорного ИИ, предтеча ChatGPT.
1965
Развитие машинного перевода
Исследования автоматического перевода текстов. Ранние системы основаны на правилах и словарях — до статистических методов ещё далеко.
1963
Ранние нейросетевые исследования
Исследования адаптивных линейных элементов (ADALINE). Развитие теории обучения нейронных сетей. Работы по распознаванию образов.
1962
Программа для шашек
Артур Сэмюэл совершенствует программу для игры в шашки, которая учится на опыте — один из первых примеров машинного обучения.
1961
Unimate — первый промышленный робот
Первый промышленный робот Unimate начинает работать на конвейере General Motors. Начало робототехники в промышленности.
1960
ADALINE и адаптивное обучение
Бернард Уидроу создаёт ADALINE — адаптивный линейный нейрон. Метод стохастического градиентного спуска для обучения.
1959
Машинное обучение получает имя
Артур Сэмюэл вводит термин «машинное обучение» — способность компьютеров обучаться без явного программирования. Его программа для шашек учится играть всё лучше.
1957
Фрэнк Розенблатт проектирует перцептрон
Розенблатт описывает теорию перцептрона — устройства, способного распознавать образы. Публикация вызывает волну оптимизма о будущем ИИ.
1955
Термин «Искусственный интеллект»
Джон Маккарти предлагает термин «Artificial Intelligence» для конференции в Дартмуте. Рождение ИИ как научной дисциплины.
01.03.1955
Sequence-based pattern recognitionMassachusetts Institute of Technology (MIT)Компьютерное зрение1954
Джорджтаунский эксперимент
IBM и Джорджтаунский университет демонстрируют автоматический перевод 60 русских предложений на английский. Первый публичный успех машинного перевода.
1950
Тест Тьюринга
Алан Тьюринг публикует статью «Computing Machinery and Intelligence» и предлагает тест на разумность машины. Философский фундамент всего ИИ.