Sciact
  • EN
  • RU

Дистилляция знаний в применении к моделям бустинга Тезисы доклада

Конференция 15-я Международная конференция «Интеллектуализация обработки информации» ИОИ-2024
23-27 сент. 2024 , г. Гродно, Гродненский государственный университет имени Янки Купалы
Сборник Интеллектуализация обработки информации. Тезисы докладов 15-й международной конференции. Гродно, 23-27 сентября 2024.
Сборник, Гродненский государственный университет. г. Гродно.2024. 111 c. ISBN 978-985-582-642-3.
Вых. Данные Год: 2024, Страницы: 20-21 Страниц : 2
Авторы Неделько В.М. 1
Организации
1 Новосибирск, Институт математики им. С.Л. Соболева

Информация о финансировании (1)

1 Институт математики им. С.Л. Соболева СО РАН FWNF-2022-0015

Реферат: В работе исследуется возможность применения идеи дистилляции знаний к методу бустинга. Целесообразность такого подхода обусловлена тем, что во многих случаях наилучшее качество прогноза достигается на ансамблях, использующих деревья избыточной глубины. В этих случаях может оказаться оправданным обучить ансамбль деревьев меньшей глубины, используя более глубокую модель в качестве <<учителя>>. Это позволяет, в частности оценить реальную <<глубину>> зависимостей между переменными в задаче, а также получать более наглядные визуализации решений. Также исследование даёт материал для понимания механизмов эффективности процедуры дистилляции знаний.
Библиографическая ссылка: Неделько В.М.
Дистилляция знаний в применении к моделям бустинга
В сборнике Интеллектуализация обработки информации. Тезисы докладов 15-й международной конференции. Гродно, 23-27 сентября 2024.. – Гродненский государственный университет., 2024. – C.20-21. – ISBN 978-985-582-642-3. РИНЦ
Идентификаторы БД:
РИНЦ: 80268264
Цитирование в БД: Пока нет цитирований