Regresión Simple.
X Y x1 x2 … xn y1 y2 yn Consideramos dos variables X e Y, que medimos conjuntamente: X Y x1 x2 … xn y1 y2 yn Observaciones Por ejemplo: X=distancia a una planta industrial, Y=contaminación por cierto elemento, peso y altura, nivel de CO2 en una ciudad y nº de habitantes, etc.
Decimos que entre X e Y existe una relación funcional, si existe una función f tal que Y = f(X) Lineal: Y = a + bX Cuadrática: Y = a + bX + cX2 Exponencial: Y = a.bX Cúbica: Y = a + bX + cX + dX3
Sin embargo, cuando trabajamos con variables estadísticas, la situación que se da es…
En los casos anteriores decimos que entre las variables X e Y existe correlación (ó que X e Y son variables correladas). El tipo de correlación tiene que ver con el tipo de función que ajusta bien la relación entre X e Y: Lineal Cuadrática Exponencial Cúbica
Si no hay ninguna función que pueda aproximar la relación entre X e Y, decimos que son variables Incorreladas (es decir, entre ellas no hay una relación estadística significativa). Por ejemplo…
Dadas dos variables X e Y (continuas), ¿Están linealmente correlacionadas? Supone evaluar la idoneidad de un modelo del tipo Y = a + bX para predecir la variable Y a partir de la variable X…
Dadas dos variables X e Y (continuas), ¿Funciona bien algún otro tipo de correlación (cuadrática, cúbica, exponencial, …)? Este es el problema de la regresión simple. (Se habla de regresión lineal, cuadrática, exponencial… Nosotros nos centraremos en el modelo más común, que es el lineal)
REGRESION LINEAL: (descripción intuitiva) ¿Tiene sentido decir que, aproximadamente, Y = a + bX ? Un primer criterio “natural” consiste en representar la nube de puntos ó diagrama de dispersión…
Si la nube de puntos sugiere la existencia de correlación lineal, tiene sentido buscar cuál es la recta que “mejor” aproxima la nube de puntos (recta de regresión) Y = a + bX b: pendiente a: ordenada en el origen Corr. directa o positiva: b>0; corr. inversa o negativa: b<0 (si b=0 se entiende que no hay correlación lineal)
Sirve para hacer predicciones sobre y (conocido x). Residuo de cada observación: diferencia entre el valor real, y el valor predicho. La recta de regresión se obtiene por el método de mínimos cuadrados: es aquella que hace mínima la suma de los cuadrados de los residuos). :valor real
Valor predicho:
Residuo: diferencia entre el valor real y el valor predicho Valor predicho:
Ecuación de la recta de regresión y/x: Covarianza Media marginal de X Media marginal de Y Varianza marginal de X
Coeficiente de correlación lineal de Pearson. Siempre está entre -1 y 1. Su signo coincide con el de la covarianza. Cuanto más cerca está de 1, en valor absoluto, más fuerte es la correlación lineal. Si es igual a 0, no hay correlación lineal (puede haberla de otro tipo).
Coeficiente de correlación lineal de Pearson. Débil - Débil + 0.5 0.9 -1 -0.9 -0.5 1 Moderada - Moderada + (Fuente: Susan Milton, p.412) Fuerte - Fuerte +
¿Basta con esto para evaluar la bondad del modelo? NO!! Ejemplos de ANSCOMBE: cuatro conjuntos de datos, todos con el mismo coeficiente de correlación (0.8164), pero “muy distintos”…
x1 y1 x2 y2 x3 y3 x4 y4 10 8,04 9,14 7,46 8 6,58 6,95 8,14 6,77 5,76 13 7,58 8,74 12,74 7,71 9 8,81 8,77 7,11 8,84 11 8,33 9,26 7,81 8,47 14 9,96 8,1 7,04 6 7,24 6,13 6,08 5,25 4 4,26 3,1 5,39 19 12,5 12 10,84 9,13 8,15 5,56 7 4,82 7,26 6,42 7,91 5 5,68 4,74 5,73 6,89
Razonable…
No hay linealidad…
Residuos atípicos… ¿errores, o algo más?
Un solo punto determina la recta…