Descargar la presentación
La descarga está en progreso. Por favor, espere
Publicada porSandra Soler Villanueva Modificado hace 7 años
1
EL ANÁLISIS DE REGRESIÓN MÚLTIPLE Sesión Miércoles 21 de Julio
2
EL ANÁLISIS DE REGRESIÓN MÚLTIPLE: CONCEPTO
Método multivariante que analiza la relación entre una única variable dependiente (criterio) y varias variables independientes (predictores). El objetivo es predecir cambios en la variable dependiente en respuesta a cambios en varias de las variables independientes Cada variable predictor es ponderada, indicando la ponderación su contribución relativa a la predicción conjunta El conjunto de variables independientes ponderadas se denomina valor teórico de la regresión o ecuación de regresión Y= b0 + b1X1 + b2X bn Xn Técnica de dependencia en la que los datos deben ser métricos o apropiadamente transformados
3
DIAGRAMA DE DECISIÓN DE LA REGRESIÓN MÚLTIPLE (I)
Análisis de regresión múltiple DIAGRAMA DE DECISIÓN DE LA REGRESIÓN MÚLTIPLE (I) Primer paso Problema de investigación Seleccionar objetivo (s) Predicción - Explicación Seleccionar variables dep. e indep. Segundo paso Diseño de la investigación Selección del tamaño muestral Creación de variables adicionales No Tercer paso Supuestos en la regresión múltiple ¿Cumplen las variables individuales los supuestos de: normalidad linealidad homoscedasticidad? Si
4
DIAGRAMA DE DECISIÓN DE LA REGRESIÓN MÚLTIPLE (II)
Análisis de regresión múltiple DIAGRAMA DE DECISIÓN DE LA REGRESIÓN MÚLTIPLE (II) Estimación del modelo de regresión ¿especifica el investigador el modelo o se utiliza algún procedimiento de selección de las var. indep.? Cuarto paso Especificación del investigador Procedimiento de selección Método de estimación secuencial Estimación progresiva/regresiva Estimación por etapas Método de combinación Examinar todas las combinaciones posibles para identificar la que mejor se ajusta ¿Cumple el valor teórico de regresión los supuestos del análisis de regresión? No A segundo paso: Creación de variables adicionales Si Examinar significación estadística del modelo Coeficiente de determinación (R2) Coeficiente de determinación ajustado Significación de los coeficientes de regresión
5
DIAGRAMA DE DECISIÓN DE LA REGRESIÓN MÚLTIPLE (III)
Análisis de regresión múltiple DIAGRAMA DE DECISIÓN DE LA REGRESIÓN MÚLTIPLE (III) Interpretación del valor teórico de la regresión Evaluar importancia relativa de las variables independientes con los coeficientes beta Valoración de la multicolinealidad Quinto paso Validación de los resultados Contraste del modelo de regresión en una nueva muestra de la población Dividir la muestra en dos partes y utilizar una submuestra para crear el modelo y otra para contrastarlo Sexto paso
6
OBJETIVOS DE LA REGRESIÓN MÚLTIPLE
Análisis de regresión múltiple OBJETIVOS DE LA REGRESIÓN MÚLTIPLE Predicción de la variable criterio con un conjunto de variables independientes, de forma que se maximice el valor teórico de la regresión. La predicción del modelo elegido debe demostrar tanto significación práctica como estadística Explicación objetiva del grado y carácter de la relación entre las variables independientes y la variable dependiente. Concretamente: Determinación de la importancia relativa de cada variable independiente sobre la variable dependiente (magnitud y dirección de la relación) Evaluación de la naturaleza de las relaciones entre las variables independientes y la dependiente (lineal y/o curvilineal) Evaluación de las interrelaciones entre las variables independientes
7
CREACIÓN DE VARIABLES ADICIONALES
Análisis de regresión múltiple CREACIÓN DE VARIABLES ADICIONALES Transformaciones de las variables para cumplir los supuestos Transformaciones más comunes: inversa, raiz cuadrada y logaritmo Incorporación de datos no métricos con variables ficticias Cuando la variable dependiente se mide como una variable dicotómica (0,1) Análisis discriminante Regresión logística Cuando las variables independientes son no métricas, con dos o más categorías Se pueden sustituir por variables ficticias. Cualquier variable no métrica con k categorías puede representarse con k-1 variables ficticias
8
SUPUESTOS EN LA REGRESIÓN MÚLTIPLE
Análisis de regresión múltiple SUPUESTOS EN LA REGRESIÓN MÚLTIPLE NORMALIDAD El perfil de la distribución de los datos se corresponde con una distribución normal. Si la variación respecto de la distribución normal es amplia, los tests estadísticos resultantes no son válidos, dado que se requiere la normalidad para el uso de los estadísticos de la t y de la F. La normalidad univariante ayuda a obtener normalidad multivariante, pero no la garantiza. La normalidad multivariante implica que las variables individuales son normales. ¿cómo evaluarla? 1. Gráfico de probabilidad normal de los residuos Test de Kolmogorov-Smirnov sobre los residuos estandarizados LINEALIDAD Supuesto implícito en todas las técnicas multivariantes basadas en medidas de correlación. Resulta necesario identificar cualquier desplazamiento de la linealidad que pueda impactar la correlación. ¿cómo evaluarla? Examen visual de los residuos y Gráfico de regresión parcial HOMOSCEDASTICIDAD Varianza constante del término de error. Se refiere al supuesto de que las variables dependientes exhiban iguales niveles de varianza a lo largo del rango de los valores de las variables independientes. ¿cómo evaluarla? 1. Examen visual de los residuos Test de Levene
9
MÉTODOS DE ESTIMACIÓN SECUENCIAL
Análisis de regresión múltiple MÉTODOS DE ESTIMACIÓN SECUENCIAL Estimación por etapas (paso a paso ó stepwise) 1. Empezar con modelo de regresión simple, seleccionando la variable independiente que tenga la mayor correlación con la variable dependiente. Ecuación: Y = b0 + b1X1 2. Examinar coeficientes de correlación parcial para encontrar una variable adicional que explique la mayor parte del error que queda de la primera ecuación de regresión 3. Recalcular la ecuación de regresión utilizando las dos variables independientes, y examinar el valor parcial F de la variable original del modelo para ver si todavía realiza una contribución significativa. Si no lo hace, se elimina. Si lo hace, la ecuación queda: Y = b0 + b1X1 + b2X2 4. Continuar este procedimiento con todas las variables independientes restantes para ver si deberían incluirse en la ecuación. Si se incluye alguna, hay que examinar las variables previamente incluidas para juzgar si deben mantenerse Estimación progresiva (forward) y regresiva (backward) El modelo de estimación progresiva es similar a la estimación por etapas, mientras que la estimación regresiva implica calcular una ecuación de regresión con todas las variables independientes, para a continuación ir eliminando aquéllas que no contribuyan significativamente. La diferencia con la estimación por etapas es que en ésta se pueden añadir o eliminar variables en cada etapa, mientras que una vez que se añade o elimina una variable en los procedimientos de estimación progresiva o regresiva, no existe la posibilidad de revertir la acción posteriormente.
10
EVALUACIÓN DE LA MULTICOLINEALIDAD
Análisis de regresión múltiple EVALUACIÓN DE LA MULTICOLINEALIDAD Situación ideal: Tener una cantidad de variables independientes altamente correlacionadas con la variable dependiente, pero con poca correlación entre sí Multicolinealidad: correlación entre tres o más variables independientes La multicolinealidad reduce el poder predictivo de cualquier variable independiente individual, en la medida en que está asociado con las otras variables independientes A mayor colinealidad, la varianza única explicada por cada variable independiente se reduce y el porcentaje de predicción compartida aumenta ¿Cómo detectar la existencia de multicolinealidad? 1. Examen de la matriz de correlación de las variables independientes (altas correlaciones indican elevada colinealidad) 2. Estadísticos de colinealidad: valor de tolerancia (TOL) y factor de inflación de la varianza (FIV) (valores de TOL próximos a 0 y elevados valores de FIV, superiores a 4, denotan multicolinealidad) Efecto
11
EL ANÁLISIS DE LA VARIANZA (ANOVA)
Análisis bivariante TABULACIÓN CRUZADA Método de análisis comúnmente usado para clasificar variables categóricas. A través de una tabla de contingencia, se cruzan dos variables y se interpretan los porcentajes. Proporciona un valor chi-cuadrado, que permite contrastar si existe relación entre las variables que se cruzan. Valores significativos del estadístico indican que existe relación. EL ANÁLISIS DE LA VARIANZA (ANOVA) Procedimiento para valorar las diferencias de grupo. Se utiliza para constrastar la hipótesis de que varias medias muestrales son iguales. Las variables dependientes son métricas, mientras que el factor (variable independiente) es una variable categórica. Proporciona un estadístico F. Valores significativos de F indican que existen diferencias significativas entres las muestras. REGRESIÓN SIMPLE Método univariante que analiza la relación entre una variable dependiente (criterio) y una única variable independiente (predictor). El objetivo es predecir cambios en la variable dependiente en respuesta a cambios en la variable independiente.
12
Homogeneus variance Homocedasticity.
HOMOCEDASTICIDAD Hipótesis referente a la dispersión de los valores de una perturbación aleatoria en un modelo de regresión lineal, que consiste en suponer que la variable se distribuye con igual varianza en cualquiera de las estimaciones hechas mediante el modelo. Homogeneus variance Homocedasticity.
13
Análisis gráfico Homocedasticidad Heterocedasticidad
14
Causas frecuentes de ausencia de homocedasticidad
Variables independientes que posean un gran recorrido con respecto a su propia media Esto generalmente ocurre cuando se ha dispuesto arbitrariamente el orden de las observaciones, generando, casualmente que existan observaciones con grandes valores en una determinada variable explicativa y lo mismo con valores pequeños de esta misma variable. Omisión de variables importantes dentro del modelo a estimar Obviamente, si se omite una variable de relevancia en la especificación, tal variable quedará parcialmente recogida dentro de las perturbaciones aleatorias, introduciendo en estas su propia variación, que no será necesariamente fija. Cambio de estructura El hecho de que se produzca un cambio en la estructura determina un mal ajuste de los parámetros al conjunto de los datos muestrales. Y este no tiene porque influir del mismo modo en todo el recorrido de la muestra, pudiendo producir cuantías de desajuste del modelo diferentes y, por lo tanto, varianza no constante Utilizar variables no relativizadas Cuando existen observaciones dentro de una variable en concreto, y que poseen un valor mayor a las otras variables explicativas, puede originar valores del error diferentes. Esta situación es similar a la explicada al principio pero con la salvedad que en este caso se compara con las otras variables (inclusive con la dependiente) y no con respecto a su media.
Presentaciones similares
© 2025 SlidePlayer.es Inc.
All rights reserved.