Дистилляция знаний в применении к моделям бустинга Доклады на конференциях
Язык | Русский | ||
---|---|---|---|
Тип доклада | Пленарный | ||
Url доклада | https://mmro.ru/2024/04/19/2024-idp-15/ | ||
Конференция |
15-я Международная конференция «Интеллектуализация обработки информации» ИОИ-2024 23-27 сент. 2024 , г. Гродно, Гродненский государственный университет имени Янки Купалы |
||
Авторы |
|
||
Организации |
|
Реферат:
В работе исследуется возможность применения идеи дистилляции знаний к методу бустинга. Целесообразность такого подхода обусловлена тем, что во многих случаях наилучшее качество прогноза достигается на ансамблях, использующих деревья избыточной глубины. В этих случаях может оказаться оправданным обучить ансамбль деревьев меньшей глубины, используя более глубокую модель в качестве <<учителя>>. Это позволяет, в частности оценить реальную <<глубину>> зависимостей между переменными в задаче, а также получать более наглядные визуализации решений. Также исследование даёт материал для понимания механизмов эффективности процедуры дистилляции знаний.
Библиографическая ссылка:
Неделько В.
Дистилляция знаний в применении к моделям бустинга
15-я Международная конференция «Интеллектуализация обработки информации» ИОИ-2024 23-27 сент. 2024
Дистилляция знаний в применении к моделям бустинга
15-я Международная конференция «Интеллектуализация обработки информации» ИОИ-2024 23-27 сент. 2024