Яндекс Метрика
Языковая модель

Multi-cell LSTM

University of Hyderabad
Языковое моделирование

Multi-cell LSTM — это усовершенствованная рекуррентная нейросеть, разработанная для более глубокого понимания контекста в задачах NLP. Благодаря особой динамике циклической передачи информации, этот ИИ показывает отличные результаты в языковом моделировании и обработке текстов.

Language models, being at the heart of many NLP problems, are always of great interest to researchers. Neural language models come with the advantage of distributed representations and long range contexts. With its particular dynamics that allow the cycling of information within the network, `Recurrent neural network' (RNN) becomes an ideal paradigm for neural language modeling. Long Short-Term Memory (LSTM) architecture solves the inadequacies of the standard RNN in modeling long-range contexts. In spite of a plethora of RNN variants, possibility to add multiple memory cells in LSTM nodes was seldom explored. Here we propose a multi-cell node architecture for LSTMs and study its applicability for neural language modeling. The proposed multi-cell LSTM language models outperform the state-of-the-art results on well-known Penn Treebank (PTB) setup.

Что такое Multi-cell LSTM?+
Кто разработал Multi-cell LSTM?+
Какие задачи решает Multi-cell LSTM?+