Метод обучения, при котором компактная модель («ученик») тренируется воспроизводить поведение более крупной и сложной модели («учителя»). Это позволяет оптимизировать ИИ для работы на мобильных устройствах и оборудовании с ограниченными ресурсами.
// faq
Что такое Дистилляция знаний?+
Метод обучения, при котором компактная модель («ученик») тренируется воспроизводить поведение более крупной и сложной модели («учителя»). Это позволяет оптимизировать ИИ для работы на мобильных устройствах и оборудовании с ограниченными ресурсами.
Как Дистилляция знаний используется в ИИ?+
Термин Дистилляция знаний (Distillation (Knowledge Distillation)) широко применяется в области искусственного интеллекта и машинного обучения.