Descargar la presentación
La descarga está en progreso. Por favor, espere
Publicada porGregorio Giménez Ortega Modificado hace 10 años
1
BOOSTING REGRESSION TREES CON STATISTICA TÉCNICAS AVANZADAS DE REGRESIÓN EN CIENCIAS NATURALES Y SU APLICACIÓN CON R Luis M. Carrascal & Javier Seoane Elegimos: Classification Analysis cuando la variable respuesta es nominal. Regression Analysis cuando la variable respuesta es continua.
2
Podemos elegir variables predictoras categóricas o continuas
3
Elegimos algunos parámetros Number of additive terms: número máximo de árboles que se realizarán. Dentro de esa serie, se eligirá el número óptimo de árboles. Random test data proportion: proporción (tanto por uno) de las unidades muestrales originales que no serán utilizadas para contruir el modelo; se emplearán para su validación. Las muestras se extraen utilizando un procedimiento azaroso identificado en Seed for random number generator.
4
Elegimos algunos parámetros … Stopping parameters: Minimum n of cases en los nodos antes de generar un criterio de ramificación Minimum n in child node en las puntas terminales del árbol
5
Elegimos algunos parámetros … Maximum n of levels indica la profundidad máxima del árbol que permitimos al dejarle crecer. Maximum n of nodes indica el máximo número de nodos+puntas que puede llegar a alcanzar el árbol
6
Árbol con n of levels = 5 Árbol con Maximum n of nodes = 13 En otras ocasiones la ‘tree complexity” se mide como el número de ramificaciones (en este caso = 6). Maximum n of nodes = 2·# ramificaciones + 1
7
Elegimos algunos parámetros … Learning rate: mide la tasa de aprendizaje del proceso ‘boosting’ considerando los residuos de los árboles de regresión previamente efectuados
8
Efecto de la ‘learning rate’
10
Para más detalles sobre el efecto de ‘learning rate’ consultad: http://www-stat.stanford.edu/~hastie/Papers/Ecology/ELH_appendixs1-s2.pdf
11
Secuencia de árboles Varianza de los residuos de la muestra * análisis (train) * test Importancia de las variables predictoras (¡OJO! en la muestra de “análisis”) RESULTADOS
12
Para obtener los valores * observados * predichos * residuales De las muestras * Analysis * Test * Todas Para obtener el ‘normal probability plot’ de los residuos PREDICCIONES
13
Una vez obtenida la hoja de los valores predichos y observados, damos ‘clic’ con el botón derecho del ratón en el nombre del documento ( ) y a continuación seleccionamos ‘Use as Active Input’
14
Relación entre valores predichos y observados (… gráficamente)
18
Si hacemos varios procesos de ‘boosting trees’ con diferentes extracciones al azar de datos (Seed for random number generator) podemos promediar los valores predichos por diferentes procesos ‘boosting trees’. Este es un modo mucho más eficaz de producir predicciones más atinadas. De entrada, los ‘boosting trees’ producen mejores predicciones que un árbol clásico de regresión crosvalidado. De salida, el promedio de 10 procesos ‘boosting trees’ genera una R 2 observado-predicho bastante mejor que un solo proceso ‘boosting tree’. Y si no … he aquí la prueba.
19
RESULTADOS DEL PROMEDIO DE 10 PROCESOS ‘BOOSTING TREES’
20
… COMPARADO CON:
Presentaciones similares
© 2025 SlidePlayer.es Inc.
All rights reserved.