Яндекс Метрика
Языковая модель

GL-LWGC-AWD-MoS-LSTM + dynamic evaluation (WT2)

Ben-Gurion University of the Negev
Языковое моделирование

Сложная нейросетевая архитектура, объединяющая послойное сжатие градиента и динамическую оценку для борьбы с переобучением. Использование принципов марковских цепей в обучении позволяет этому ИИ достигать выдающихся результатов в моделировании последовательностей на WikiText-2.

Recurrent Neural Networks (RNNs) achieve state-of-the-art results in many sequence-to-sequence modeling tasks. However, RNNs are difficult to train and tend to suffer from overfitting. Motivated by the Data Processing Inequality (DPI), we formulate the multi-layered network as a Markov chain, introducing a training method that comprises training the network gradually and using layer-wise gradient clipping. We found that applying our methods, combined with previously introduced regularization and optimization methods, resulted in improvements in state-of-the-art architectures operating in language modeling tasks.

Что такое GL-LWGC-AWD-MoS-LSTM + dynamic evaluation (WT2)?+
Кто разработал GL-LWGC-AWD-MoS-LSTM + dynamic evaluation (WT2)?+
Какие задачи решает GL-LWGC-AWD-MoS-LSTM + dynamic evaluation (WT2)?+