Яндекс Метрика
Компьютерное зрение

GELU for CIFAR-10

University of California (UC) Berkeley,Toyota Technological Institute at Chicago
Классификация изображений

Модель демонстрирует превосходство функции активации GELU в задачах классификации изображений. Этот подход в компьютерном зрении позволяет ИИ более эффективно обрабатывать визуальные данные, взвешивая входные сигналы по их значению, а не просто отсекая их.

We propose the Gaussian Error Linear Unit (GELU), a high-performing neural network activation function. The GELU activation function is xΦ(x), where Φ(x) the standard Gaussian cumulative distribution function. The GELU nonlinearity weights inputs by their value, rather than gates inputs by their sign as in ReLUs (x1x>0). We perform an empirical evaluation of the GELU nonlinearity against the ReLU and ELU activations and find performance improvements across all considered computer vision, natural language processing, and speech tasks.

Что такое GELU for CIFAR-10?+
Кто разработал GELU for CIFAR-10?+
Какие задачи решает GELU for CIFAR-10?+