Дистилляция знаний в применении к моделям бустинга Тезисы доклада
Конференция |
15-я Международная конференция «Интеллектуализация обработки информации» ИОИ-2024 23-27 сент. 2024 , г. Гродно, Гродненский государственный университет имени Янки Купалы |
||
---|---|---|---|
Сборник | Интеллектуализация обработки информации. Тезисы докладов 15-й международной конференции. Гродно, 23-27 сентября 2024. Сборник, Гродненский государственный университет. г. Гродно.2024. 111 c. ISBN 978-985-582-642-3. |
||
Вых. Данные | Год: 2024, Страницы: 20-21 Страниц : 2 | ||
Авторы |
|
||
Организации |
|
Информация о финансировании (1)
1 | Институт математики им. С.Л. Соболева СО РАН | FWNF-2022-0015 |
Реферат:
В работе исследуется возможность применения идеи дистилляции знаний к методу бустинга. Целесообразность такого подхода обусловлена тем, что во многих случаях наилучшее качество прогноза достигается на ансамблях, использующих деревья избыточной глубины. В этих случаях может оказаться оправданным обучить ансамбль деревьев меньшей глубины, используя более глубокую модель в качестве <<учителя>>. Это позволяет, в частности оценить реальную <<глубину>> зависимостей между переменными в задаче, а также получать более наглядные визуализации решений. Также исследование даёт материал для понимания механизмов эффективности процедуры дистилляции знаний.
Библиографическая ссылка:
Неделько В.М.
Дистилляция знаний в применении к моделям бустинга
В сборнике Интеллектуализация обработки информации. Тезисы докладов 15-й международной конференции. Гродно, 23-27 сентября 2024.. – Гродненский государственный университет., 2024. – C.20-21. – ISBN 978-985-582-642-3. РИНЦ
Дистилляция знаний в применении к моделям бустинга
В сборнике Интеллектуализация обработки информации. Тезисы докладов 15-й международной конференции. Гродно, 23-27 сентября 2024.. – Гродненский государственный университет., 2024. – C.20-21. – ISBN 978-985-582-642-3. РИНЦ
Идентификаторы БД:
РИНЦ: | 80268264 |
Цитирование в БД:
Пока нет цитирований