La descarga está en progreso. Por favor, espere

La descarga está en progreso. Por favor, espere

Tema 7: Regresión Simple

Presentaciones similares


Presentación del tema: "Tema 7: Regresión Simple"— Transcripción de la presentación:

1 Tema 7: Regresión Simple
y Múltiple

2 EJEMPLO: Nos dicen que la fórmula Aproxima bien el número de préstamos que efectúa una biblioteca a lo largo de su primer año de vida. Si damos valores a la variable Días (nº días transcurridos desde la apertura de la biblioteca…

3

4 Si dos variables X e Y está relacionadas mediante una expresión
del tipo Y=a+bX, la gráfica que relaciona los valores de X e Y es una línea recta, y se dice que Y=a+bX es la ecuación de dicha recta; el recíproco es cierto, es decir, si la gráfica que relaciona X e Y es una recta, entre ambas existe una relación del tipo Y=a+bX. En ese caso, decimos que entre X e Y hay una relación de tipo lineal. PROBLEMA: Dadas dos variables continuas X e Y, ¿podemos decir que entre ellas hay aproximadamente una relación lineal? Si la respuesta es afirmativa, ¿podemos encontrar los valores a y b que proporcionan la mejor aproximación para Y, a partir de los valores de X?

5 EJEMPLO: Supongamos que una biblioteca
proporcionó los siguientes datos, a lo largo de su primer año de vida Días Nº prestamos 5 25 20 32 35 40 50 39 65 47 80 51 95 56 110 54 135 69 150 72 165 76 180 77 195 86 210 90 235 98 250 102 265 105 280 295 113 310 120

6

7 En el ejemplo anterior se ve que, aunque las variables no respondan
EXACTAMENTE a una expresión del tipo Y = a+bX, sí responden APROXIMADAMENTE a una expresión de este tipo. En concreto, utilizando técnicas estadísticas puede verse que es una aproximación “suficientemente buena” del Nº préstamos.

8 PROBLEMAS: Dadas dos variables X e Y, continuas
1.- [Correlación] ¿Existe una cierta relación entre ellas, o por el contrario son independientes? En el primer caso, hablamos de que entre X e Y hay correlación; en el segundo, decimos que son incorreladas 2.- [Correlación lineal] Suponiendo que entre X e Y hay correlación, ¿están linealmente correlacionadas, es decir, funciona suficientemente bien un modelo del tipo Y = a+bX para predecir Y a partir de X? ¿Cuáles son los “óptimos” valores para a y b, es decir, los que producen “mejores” esti- maciones? 3.- [Otros tipos de correlación] ¿Hay algún modelo mejor que el lineal que permita estimar Y a partir de X? Por ejemplo, Cuadrático: Y=a+bX+bX2 Exponencial: Y=a bx

9 1. Distribuciones bidimensionales. Correlación.
Cuando en una población registramos simultáneamente los valores de dos variables X e Y, decimos que estamos ante una distribución BIDIMENSIONAL (PIZARRA: distribuciones marginales) Los datos relativos a una distribución bidimensional se pueden representar gráficamente mediante una NUBE DE PUNTOS, o DIAGRAMA DE DISPERSION (PIZARRA) Si la nube de puntos se ajusta aproximadamente a una curva, diremos que las variables están correlacionadas, es decir, que existe una cierta relación entre ellas (y buscaremos cuál es la expresión, la “fórmula” que mejor aproxima una de ellas partir de la otra); en caso contrario, decimos que las variables son incorreladas, es decir, que no tienen relación.

10 Hay correlación Incorreladas

11 Además de la “inspección” de la nube de puntos,
hay métodos más exactos para evaluar la existencia o no de correlación.

12 Si la nube de puntos parece ajustarse en torno a alguna curva (es
decir, si hay correlación), la forma de dicha curva nos indica el tipo de correlación. Si la nube de puntos parece agruparse en torno a una recta, diremos que hay correlación lineal, o que las variables están linealmente correlacionadas.

13 ¿Cómo tomar a, b para que la aproximación sea
Si las variables están linealmente correlacionadas, entonces tiene sentido buscar la recta que “mejor se ajusta” a la nube de puntos, es decir, la recta que globalmente está más cerca del conjunto de puntos. Si nuestra intención al hacer eso es la de estimar Y a partir de X, entonces encontrar dicha recta es equivalente a encontrar la mejor aproximación Y=a+bX (RECTA DE REGRESION DE Y SOBRE X) ¿Cómo tomar a, b para que la aproximación sea “óptima”? Statgraphics

14 2. Regresión lineal sobre un conjunto de puntos.
PROBLEMA 1: Dada una distribución bidimensional (X,Y), determinar si las variables X e Y están o no linealmente correlacionadas, y la fuerza de dicha correlación lineal. PROBLEMA 2: Suponiendo que X e Y están linealmente correlacionadas, determinar la recta de regresión de Y sobre X, es decir, a y b de modo que, aproximadamente, Y=a + bX.

15 PROBLEMA 1: Dada una distribución bidimensional (X,Y), determinar
si las variables X e Y están o no linealmente correlacionadas, y la fuerza de dicha correlación lineal. Concepto de COVARIANZA (PIZARRA) Coeficiente de correlación lineal de Pearson. (PIZARRA) Coeficiente de correlación lineal de Spearman. (PIZARRA)

16 PROBLEMA 2: Suponiendo que X e Y están linealmente correlacionadas,
determinar la recta de regresión de Y sobre X, es decir, a y b de modo que, aproximadamente, Y=a + bX. Covarianza (Ecuación recta de regresión de Y sobre X) Media marginal de X Media marginal de Y Varianza marginal de X

17 Conocida la recta de regresión, podemos estimar los valores de Y
correspondientes a distintos valores de X. Valor predicho, o estimado

18 :valor real

19 Valor predicho:

20 Statgraphics Residuo: diferencia entre el valor real
y el valor predicho Valor predicho: Statgraphics

21 ¿SIGUE SIENDO “APROXIMADAMENTE” VALIDO Y=a+bX cuando tomamos
3. El modelo de regresión lineal. Sabemos decidir si, aproximadamente, un conjunto (xi,yi) de puntos (datos) se ajusta o no a Y=a+bX. Pero, teniendo en cuenta que esos datos son una MUESTRA de una población… ¿SIGUE SIENDO “APROXIMADAMENTE” VALIDO Y=a+bX cuando tomamos NO una muestra (xi,yi), sino cuando consideramos TODA LA POBLACION? ¿Qué queremos decir por “aproximadamente”?

22 Modelo de regresión lineal:
Decimos que dos variables (poblacionales!) están linealmente correlacionadas, si: 1. residuo Y: variable explicada X: regresor 2. Los residuos tienen media 0. 3. La varianza de los residuos no depende de xi (homocedasticidad) 4. Los residuos son normales. 5. Los residuos son aleatorios. = Residuos siguen una normal N(0,σ)

23 “La varianza de los residuos no depende de xi (homocedasticidad)”

24 Modelo de regresión lineal: Hipótesis básicas:
1. residuo Y: variable explicada X: regresor 2. Los residuos tienen media 0. 3. La varianza de los residuos no depende de xi (homocedasticidad) 4. Los residuos son normales. 5. Los residuos son aleatorios. 2, 4 y 5 pueden contrastarte guardando los residuos, y procediendo como en otras ocasiones.

25 Modelo de regresión lineal: Hipótesis básicas:
1. residuo Y: variable explicada X: regresor 2. Los residuos tienen media 0. 3. La varianza de los residuos no depende de xi (homocedasticidad) 4. Los residuos son normales. 5. Los residuos son aleatorios. 3 es difícil de contrastar con Statgraphics; por tanto, Simplemente inspeccionaremos el diagrama de dispersión (OBSERVACION: si para un mismo valor de xi sólo tenemos un punto, este requisito se cumple trivialmente)

26 Si la homocedasticidad es dudosa, siempre podemos eliminar
“aceptable” Si la homocedasticidad es dudosa, siempre podemos eliminar Residuos atípicos.

27 ¿Cómo CONTRASTAR? Modelo de regresión lineal: Hipótesis básicas: 1.
residuo Y: variable explicada X: regresor 2. Los residuos tienen media 0. 3. La varianza de los residuos no depende de xi (homocedasticidad) 4. Los residuos son normales. 5. Los residuos son aleatorios. ¿Cómo CONTRASTAR?

28 (Explicación: PIZARRA)
¿Cómo CONTRASTAR? a.- Inspección del diagrama de dispersión, valores de los coeficientes de correlación de Pearson y Spearman (si el ajuste no funciona bien para la muestra, difícilmente lo hará para la población). b.- Contraste tipo ANOVA sobre la existencia o no de correlación lineal. COEFICIENTE DE DETERMINACION. c.- Contraste sobre la pendiente de la recta de regresión. d.- ¿Cómo podemos estar seguros de que, en la población, los coeficien- tes de Pearson y Spearman no serían 0 (en cuyo caso, no habría correlación lineal)? Contraste de hipótesis. (Explicación: PIZARRA)

29 - Eliminación de parámetros (simplificación del modelo): PIZARRA
- Puntos influyentes (PIZARRA) Statgraphics

30 4. El modelo de regresión múltiple.
PROBLEMA: Hemos recogido datos sobre usuarios de mediana edad de una biblioteca en la que además se realizan actividades tanto para niños como para adolescentes y adultos, y estamos interesados en analizar cuáles son las variables que determinan el nivel de satisfacción de sus usuarios; las variables recogidas son: afición a la lectura, al cine, a la música, número de hijos, renta… y, por supuesto, nivel de satisfac- ción.

31

32 El modelo de regresión simple es, a priori, poco realista (parece poco
probable que el nivel de satisfacción dependa de una única variable, más bien lo natural es que en él intervengan varias variables). En con- secuencia, ensayamos no con Y=a+bX sino con Y=a+b1X1+ … +bnXn regresores Variable respuesta (en nuestro caso, “nivel de satisfacción”)

33 Por ejemplo, en el problema anterior, la fórmula a la que llegaremos
es: Aquí, Y=Satisfacción, X1=Afición_cine, X2=Aficion_lectura, etc. Sirve para: predecir. detectar influencias (qué variables tienen más “poder” sobre la variable que nos interesa, etc.)

34 Modelo de regresión múltiple:
1. residuo 2. Los residuos tienen media 0. 3. La varianza de los residuos no depende de xi (homocedasticidad) 4. Los residuos son normales. 5. Los residuos son aleatorios. 6. Las variables x1, x2, etc. no están linealmente correlacionadas entre sí.

35 Modelo de regresión múltiple:
1. residuo 2. Los residuos tienen media 0. 3. La varianza de los residuos no depende de xi (homocedasticidad) 4. Los residuos son normales. 5. Los residuos son aleatorios. 6. Las variables x1, x2, etc. no están linealmente correlacionadas entre sí. = Residuos siguen una normal N(0,σ)

36 Modelo de regresión múltiple:
1. residuo 2. Los residuos tienen media 0. 3. La varianza de los residuos no depende de xi (homocedasticidad) 4. Los residuos son normales. 5. Los residuos son aleatorios. 6. Las variables x1, x2, etc. no están linealmente correlacionadas entre sí. La homocedasticidad (IDEA: PIZARRA) se puede comprobar gráficamente (residuo frente a predicho); hay métodos más sofisticados, también más laboriosos.

37 Modelo de regresión múltiple:
1. residuo 2. Los residuos tienen media 0. 3. La varianza de los residuos no depende de xi (homocedasticidad) 4. Los residuos son normales. 5. Los residuos son aleatorios. 6. Las variables x1, x2, etc. no están linealmente correlacionadas entre sí. Si algunas de las variables Xi están correlacionadas linealmente entre sí, se dice que hay MULTICOLINEALIDAD. Más llanamente, se trata de un modelo “redundante” donde ciertas variables “sobran”. Se puede detectar parcialmente Inspeccionando la matriz de correlaciones (PIZARRA)

38 Modelo de regresión múltiple:
1. residuo 2. Los residuos tienen media 0. 3. La varianza de los residuos no depende de xi (homocedasticidad) 4. Los residuos son normales. 5. Los residuos son aleatorios. 6. Las variables x1, x2, etc. no están linealmente correlacionadas entre sí. La “fuerza” de la correlación lineal se mide mediante el R-cuadrado (porcentaje de variabilidad explicada por el modelo); razonamientos sobre variabilidad también llevan a la construcción de un contraste sobre la existencia o no de correlación lineal (PIZARRA)

39 Como en el caso de regresión simple, si alguna hipótesis no se
cumple, podemos tratar de “depurar” los datos; en este sentido, medidas habituales son: Detección (y en su caso, eliminación) de datos que producen residuos atípicos. -Detección (y en su caso, eliminación) de datos “influyentes” -Detección de multicolinealidad (y en su caso, eliminación de regresores). -Detección (y, en su caso, eliminación) de variables “superfluas” (es decir, con poco “poder”sobre la variable respuesta) Statgraphics


Descargar ppt "Tema 7: Regresión Simple"

Presentaciones similares


Anuncios Google