Дистилляция знаний в применении к моделям бустинга Conference Abstracts
Conference |
15-я Международная конференция «Интеллектуализация обработки информации» ИОИ-2024 23-27 Sep 2024 , г. Гродно, Гродненский государственный университет имени Янки Купалы |
||
---|---|---|---|
Source | Интеллектуализация обработки информации. Тезисы докладов 15-й международной конференции. Гродно, 23-27 сентября 2024. Compilation, Гродненский государственный университет. г. Гродно.2024. 111 c. ISBN 978-985-582-642-3. |
||
Output data | Year: 2024, Pages: 20-21 Pages count : 2 | ||
Authors |
|
||
Affiliations |
|
Funding (1)
1 | Sobolev Institute of Mathematics | FWNF-2022-0015 |
Abstract:
В работе исследуется возможность применения идеи дистилляции знаний к методу бустинга. Целесообразность такого подхода обусловлена тем, что во многих случаях наилучшее качество прогноза достигается на ансамблях, использующих деревья избыточной глубины. В этих случаях может оказаться оправданным обучить ансамбль деревьев меньшей глубины, используя более глубокую модель в качестве <<учителя>>. Это позволяет, в частности оценить реальную <<глубину>> зависимостей между переменными в задаче, а также получать более наглядные визуализации решений. Также исследование даёт материал для понимания механизмов эффективности процедуры дистилляции знаний.
Cite:
Неделько В.М.
Дистилляция знаний в применении к моделям бустинга
In compilation Интеллектуализация обработки информации. Тезисы докладов 15-й международной конференции. Гродно, 23-27 сентября 2024.. – Гродненский государственный университет., 2024. – C.20-21. – ISBN 978-985-582-642-3. РИНЦ
Дистилляция знаний в применении к моделям бустинга
In compilation Интеллектуализация обработки информации. Тезисы докладов 15-й международной конференции. Гродно, 23-27 сентября 2024.. – Гродненский государственный университет., 2024. – C.20-21. – ISBN 978-985-582-642-3. РИНЦ
Identifiers:
Elibrary: | 80268264 |
Citing:
Пока нет цитирований