Яндекс Метрика
Языковая модель

RNN+LDA+KN5+cache

Microsoft,Brno University of Technology
Языковое моделирование

Гибридная модель от Microsoft и Брненского технического университета, объединяющая мощь RNN с контекстными данными LDA. Этот ИИ-подход значительно улучшает понимание предложений, используя дополнительные векторы информации и кэширование для максимальной точности.

Recurrent neural network language models (RNNLMs) have recently demonstrated state-of-the-art performance across a variety of tasks. In this paper, we improve their performance by providing a contextual real-valued input vector in association with each word. This vector is used to convey contextual information about the sentence being modeled. By performing Latent Dirichlet Allocation using a block of preceding text, we achieve a topic-conditioned RNNLM. This approach has the key advantage of avoiding the data fragmentation associated with building multiple topic models on different data subsets. We report perplexity results on the Penn Treebank data, where we achieve a new state-of-the-art. We further apply the model to the Wall Street Journal speech recognition task, where we observe improvements in word-error-rate

Что такое RNN+LDA+KN5+cache?+
Кто разработал RNN+LDA+KN5+cache?+
Какие задачи решает RNN+LDA+KN5+cache?+