Яндекс Метрика
Языковая модель

2nd order FOFE-FNNLM

University of Science and Technology of China (USTC),York University
Языковое моделирование

Модель FOFE-FNNLM предлагает уникальный механизм «забывающего» кодирования, который преобразует последовательности слов любой длины в фиксированный вектор. Этот подход позволяет полносвязным нейросетям эффективно моделировать порядок слов, конкурируя с более сложными ИИ-архитектурами.

In this paper, we propose the new fixed-size ordinally-forgetting encoding (FOFE) method, which can almost uniquely encode any variable-length sequence of words into a fixed-size representation. FOFE can model the word order in a sequence using a simple ordinally-forgetting mechanism according to the positions of words. In this work, we have applied FOFE to feedforward neural network language models (FNN-LMs). Experimental results have shown that without using any recurrent feedbacks, FOFE based FNN-LMs can significantly outperform not only the standard fixed-input FNN-LMs but also the popular RNN-LMs.

Что такое 2nd order FOFE-FNNLM?+
Кто разработал 2nd order FOFE-FNNLM?+
Какие задачи решает 2nd order FOFE-FNNLM?+