La descarga está en progreso. Por favor, espere

La descarga está en progreso. Por favor, espere

Germán Fromm R. 1. Objetivo Entender los diseños metodológicos predictivos 2.

Presentaciones similares


Presentación del tema: "Germán Fromm R. 1. Objetivo Entender los diseños metodológicos predictivos 2."— Transcripción de la presentación:

1 Germán Fromm R. 1

2 Objetivo Entender los diseños metodológicos predictivos 2

3 3

4 4

5 El diseño metodológico… ¿Qué pretende responder? ¿Qué variables considera? ¿Qué sabemos de estas variables? ¿Cómo procede para responder? 5

6 Respuestas Confirmar un modelo teóricamente claro Con correlaciones fuertes y significativas Predecir las variaciones a futuro 6

7 Conceptos centrales 1. Definición 2. Función 3. Fórmula 4. Dispersión 5. Modelamiento 6. Varianza 7. Regresión Múltiple 8. Estadísticas Avanzadas 7

8 1. Definición La regresión es un proceso estadístico para la estimación de relaciones entre variables. Ayuda a entender cómo el valor típico de la variable dependiente cambia cuando cualquiera de las variables independientes es variada. En palabras propias: Al encontrar una asociación entre variables establecemos una “regla” construida “empíricamente” que nos permite “seguirle la pista” a un resultado. 8

9 2. Función Es la expresión de “algo” en función de “otra cosa”. y = ∫(x), o bien y = f(x) Esto puede ser una decisión, una descripción, una predicción. Por ejemplo: La distancia recorrida en función del tiempo de viaje. El peso en función de la altura. 9

10 3. Fórmula Dado que modelamos fenómenos inexactos: y = f(x) + ε El residuo o error ( ε ) es todo lo que no logramos medir. En términos gráficos: y = β 0 + β 1 x β 0 : Es en la ecuación de la recta el intercepto. X=0 β 1 : Es en la ecuación de la recta la pendiente. Coeficiente. 10

11 4. Dispersión La recta graficada equivale a la “esperanza” y es el promedio en torno al que se distribuyen los datos: La Desviación Estándar (DE) sigue indicando la Dispersión y lo correlacionadas que estan ambas variables. 11

12 5. Modelamiento Cantidad de VariablesUna IndependienteMás de una Independiente Una Dependiente Regresión Simple y = f(x) Regresión Múltiple y=f(x 1, x 2, …, x d ) Más de una dependiente Multivariante (y 1, y 2, …, y m )= f(x) Multivariante Múltiple (y 1, y 2, …, y m )= f(x 1, x 2, …, x d ) 12

13 5. Modelamiento 13 Modelos de causalidad VD es VI de otra VD

14 5.1. Funciones Lineales La equación de la recta es la que permite predecir: y= ε+b+a x ε : se asume igual a zero a y b, constantes Es posible calcular “y” teniendo “x” o vice versa - Interpolar: dentro de los rangos medidos - Extrapolar: fuera de los rangos mdidos 14

15 5.2. Funciones no lineales Todos los anteriores modelamientos pueden utilizar una “estructura” subyacente de una recta, y= ε+b+a x, con lo que se denimonan lineales. O bien pueden utilizar funciones no lineales, como: - Regresiones Logarítmicas, para variables cualitativas - Regresiones Exponenciales y polinomiales, con términos que crecen exponencialmente 15

16 6. Varianza La “significancia” de un modelo de regresión requiere utilizar un Coeficiente de Determinación que expresa, cuanto de los efectos obsrvados se podrían explicar por lo que indica el modelo (la función). De ahí, viene el uso frecuente del término “Varianza explicada” por el modelo. En regresiones lineales simples el coeficiente usual es R 2 que equivale al cuadrado del índice r de correlación de Pearson. 16

17 6. Varianza (esquema) A mayor R 2 menos “residuo” o error se observa en el modelo. ¿Cómo se acepta la significancia entonces? 17

18 7. Regresión múltiple Cuando agregamos variables independientes (x) a la ecuación el modelamiento es el de un plano o hiperplano. Esta complejidad agrega fenómenos: - Multicolinealidad - Sobreajuste - Mejora del modelo 18

19 7. Regresión múltiple Multicolinealidad: Variables independientes altamente correlacionadas. Falsifica una varianza más alta. Tolerancia: 1 – R 2 < 0.20 usualmente es indicativo de Multicolinealidad 19

20 7. Regresión múltiple Sobreajuste: Incluir “términos” que complejizan la “estructura” sin mejorarla. El ejemplo muestra un mejor ajuste que la Función lineal, pero una peor capacidad predictiva. 20

21 7. Regresión múltiple Mejora del modelo: Ya que el modelo no se descarta a priori, sino que se va actualizando con el proceder de los investigadores, se procede a “probar” con variables independientes y comparar sus varianzas explicadas. Stepwise regression: El parámetro para optimizar modelos de regresión se llama F de Fisher. 21

22 8. Estadísticas Avanzadas Construyen sobre la operatoria de la Regresiones con modelos matemáticos de submuestras iteradas. Esta repetición por computadora permite “catapultar” la medición hecha en la muestra sobre la población. Mención honrosa: Structural Equation Modeling. 22

23 Conclusiones 1. ¿Para qué se pueden utilizar los modelos de regresiones? 2. ¿Qué limitantes tienen los modelos de regresiones? 3. ¿Qué ventajas tienen mutuamente los modelos simples o multiples? 23

24 Conclusiones 1. Para hacer modelos predictivos del comportamientos de variables. Para describir con relaciones subyacentes la configuración medida de las variables. 2. Asumen un Error de medición de Zero. Equivale a decir que el mapa es la realidad. Para sobrellevar esta limitante deben conocerse muy bien las variables y sus (co-)relaciones. 3. Los modelos simples son más robustos y directos para predecir; pero requieren un factor único central. Los modelos multiples son muy ricos en su explicación; pero corren riesgos y requieren mejoras. 24


Descargar ppt "Germán Fromm R. 1. Objetivo Entender los diseños metodológicos predictivos 2."

Presentaciones similares


Anuncios Google