Яндекс Метрика
Языковая модель

aLSTM(depth-2)+RecurrentPolicy (PTB)

University of Manchester
Языковое моделирование

Вариант адаптивной модели aLSTM, оптимизированный специально для работы с лингвистическим корпусом Penn Treebank (PTB). Использование динамической параметризации делает эту нейросеть менее «хрупкой» и более точной по сравнению со стандартными архитектурами. Эффективный AI-инструмент для глубокого анализа и прогнозирования текстовых структур.

Standard neural network architectures are non-linear only by virtue of a simple element-wise activation function, making them both brittle and excessively large. In this paper, we consider methods for making the feed-forward layer more flexible while preserving its basic structure. We develop simple drop-in replacements that learn to adapt their parameterization conditional on the input, thereby increasing statistical efficiency significantly. We present an adaptive LSTM that advances the state of the art for the Penn Treebank and WikiText-2 word-modeling tasks while using fewer parameters and converging in less than half as many iterations.

Что такое aLSTM(depth-2)+RecurrentPolicy (PTB)?+
Кто разработал aLSTM(depth-2)+RecurrentPolicy (PTB)?+
Какие задачи решает aLSTM(depth-2)+RecurrentPolicy (PTB)?+