Sciact
  • EN
  • RU

Дистилляция знаний в применении к моделям бустинга Conference Abstracts

Conference 15-я Международная конференция «Интеллектуализация обработки информации» ИОИ-2024
23-27 Sep 2024 , г. Гродно, Гродненский государственный университет имени Янки Купалы
Source Интеллектуализация обработки информации. Тезисы докладов 15-й международной конференции. Гродно, 23-27 сентября 2024.
Compilation, Гродненский государственный университет. г. Гродно.2024. 111 c. ISBN 978-985-582-642-3.
Output data Year: 2024, Pages: 20-21 Pages count : 2
Authors Неделько В.М. 1
Affiliations
1 Новосибирск, Институт математики им. С.Л. Соболева

Funding (1)

1 Sobolev Institute of Mathematics FWNF-2022-0015

Abstract: В работе исследуется возможность применения идеи дистилляции знаний к методу бустинга. Целесообразность такого подхода обусловлена тем, что во многих случаях наилучшее качество прогноза достигается на ансамблях, использующих деревья избыточной глубины. В этих случаях может оказаться оправданным обучить ансамбль деревьев меньшей глубины, используя более глубокую модель в качестве <<учителя>>. Это позволяет, в частности оценить реальную <<глубину>> зависимостей между переменными в задаче, а также получать более наглядные визуализации решений. Также исследование даёт материал для понимания механизмов эффективности процедуры дистилляции знаний.
Cite: Неделько В.М.
Дистилляция знаний в применении к моделям бустинга
In compilation Интеллектуализация обработки информации. Тезисы докладов 15-й международной конференции. Гродно, 23-27 сентября 2024.. – Гродненский государственный университет., 2024. – C.20-21. – ISBN 978-985-582-642-3. РИНЦ
Identifiers:
Elibrary: 80268264
Citing: Пока нет цитирований