Яндекс Метрика
D

Дистилляция знаний

// определение

Метод обучения, при котором компактная модель («ученик») тренируется воспроизводить поведение более крупной и сложной модели («учителя»). Это позволяет оптимизировать ИИ для работы на мобильных устройствах и оборудовании с ограниченными ресурсами.

// faq
Что такое Дистилляция знаний?+
Как Дистилляция знаний используется в ИИ?+