La descarga está en progreso. Por favor, espere

La descarga está en progreso. Por favor, espere

Introducción y panorama Ignacio Méndez Ramírez

Presentaciones similares


Presentación del tema: "Introducción y panorama Ignacio Méndez Ramírez"— Transcripción de la presentación:

1 Introducción y panorama Ignacio Méndez Ramírez
Modelos de Ecuaciones Estructurales. Introducción y panorama Ignacio Méndez Ramírez IIMAS UNAM México Correo electrónico : 1

2 Agregado. Se reportan referencias bibliográficas
Panorama 1.- Comentarios sobre causalidad y correlación 2.- Análisis de senderos. 3.-Algunas técnicas estadísticas presentadas con gráficas, (senderos). 4.- Análisis de Factores Exploratorio y Confirmatorio 5.-Ecuaciones Estructurales. Senderos con factores o variables latentes. 6.- Curvas de Crecimiento Latente Agregado. Se reportan referencias bibliográficas 2

3 La correlación no implica causalidad
Asociación entre dos variables. Numéricas categóricas u ordinales. X Y La distribución de X cambia al condicionar con Y y viceversa. No son independientes estadísticamente una de la otra. 3

4 La correlación no implica causalidad
X Y Es cierto, pero puede ayudar en su evaluación 4

5 La correlación ocurre por que:
X Y 1.- error de muestreo, en la población no hay correlación 2.- X X causa Y Y 3.- X Y Y causa X 5

6 Hay independencia condicional de X con Y dado Z.
Correlación espuria 4.- X Y Z Hay un tercer factor, Z que causa a ambas. Z es factor de confusión Al condicionar con Z, desaparece la asociación de Y con X. La correlación de X con Y se debe a Z. Hay independencia condicional de X con Y dado Z. 6

7 Hay independencia condicional de X con Y dado Z.
Cadena causal, efectos mediadores. 5.- Y X Z Hay un tercer factor, Z que es un efecto de X y una causa para Y. Al condicionar con Z, desaparece la asociación de Y con X. Sin embargo X y Y estan relacionados a traves de Z. Hay independencia condicional de X con Y dado Z. 7

8 X tiene efectos directos e indirectos sobre Y
Causas directas e indirectas 6.- X Y Z Hay un tercer factor, Z que causa a ambas. Z es factor de confusión Al condicionar con Z no desaparece la asociación de Y con X. La correlacion de X con Y tiene dos componentes, la influencia de Z y la causalidad real de X sobre Y X tiene efectos directos e indirectos sobre Y 8

9 Relaciones entre variables
En las consideraciones anteriores X , Y y Z pueden representar cada una grupos de variables. Algunas o todas de X , Y y Z pueden substituirse por factores o variables latentes. 9

10 El caso 2 (X Y) es el que queremos apoyar, la hipótesis.
Si lo que buscamos es apoyar a la casualidad a partir de datos empíricos. Entonces podemos tratar cada caso, con mas observaciones y con supuestos. Para el caso 1, se efectúan pruebas de significancia para que la correlación tenga pocas probabilidades de deberse al azar. El caso 2 (X Y) es el que queremos apoyar, la hipótesis. El caso 3 (X Y) se elimina si se pide que se considere la temporalidad, primero la X y después Y, no puede ser reversible 10

11 X Y (4) (5) (X Z Y) Z Para los casos 4 y 5, (modelos distintos pero equivalentes estadísticamente) se efectúan pruebas de significancia para la correlación parcial. Es decir se mantiene fijo el valor de Z, por diseño o por análisis; si la correlación parcial (de X con Y dado Z) es cero o casi. En base a consideraciones teóricas, se opta por el caso 4 o el 5. Para el caso 6, si la correlación parcial no se hace cero, entonces se pueden avaluar los efectos directos y los indirectos. X Y (6) 11 Z

12 ¿ causalidad reciproca ?
Y X Se considera que en el tiempo se resuelve la reciprocidad: Y1 X1 Época 1 Y1 X2 Época 2 X2 Y2 Época 3 X3 Y2 Época 4 12

13 Decía Platón, en su popular mito, que encadenados dentro de una caverna han pasado toda su vida unos prisioneros. Han vivido acostumbrados a contemplar las sombras que proyecta una hoguera situada a un nivel superior por delante de la cual circula otra gente. Evidentemente, los prisioneros adoptan las sombras como la realidad ya que su existencia se ha basado en esa experiencia y no conocen nada más 13

14 Un día, un prisionero logra desencadenarse y salir del rincón donde vivía apresado, contempla la hoguera, y a las cosas y personas que producen las sombras, y siente la necesidad de compartir esa realidad con aquellos que viven atrapados ante las sombras. Algunos le siguen, al principio la nueva visión les ciega hasta que sus ojos se acostumbran. Sin embargo otros toman por loco a aquél que pretende desencadenarlo y alejarlo de la seguridad de su realidad hasta el punto de amenazarlos de muerte si intentan poner un dedo encima de sus tristes cadenas.

15 15

16 16

17 Patrones de independencias condicionadas
Realidad Cadenas causales ideas Platón Patrones de independencias condicionadas datos Observaciones estadísticas 17

18 Uso confirmatorio de las ideas de causalidad.
Como Platón, lo que observamos son los reflejos o sombras de la realidad. Siempre el estudio de la realidad esta mediado por el diseño de investigación. Pero así como por ejemplo una sombra redonda, puede ser producida por una esfera o un cilindro, pero no por un cubo o paralelepípedo. Así en relación a las correlaciones, habrá patrones de correlación compatibles con ciertos modelos causales pero no con otros. 18

19 Estadística Análisis Epistemologia
El uso de los modelos en el trabajo de investigación se da de acuerdo al esquema: Estadística Realidad Diseño Análisis Modelo Epistemologia

20 Modelos Probabilísticos
Shipley Bill “ Cause and Correlation in Biology. A User¨s Guide to Path analysis, Structural Equation and Causal Inference”. Cambridge University Press 2000 Enfoque confirmatorio Modelo Causal Gráfica dirigida sin ciclos Gráfica dirigida sin ciclos reglas de separación directa Modelos Probabilísticos 20

21 ¡¡ Por que conviene usar gráficas en estadística!!
1.- Se hacen mas claras las relaciones entre variables, 2.- Se valora la influencia de unas sobre otras. 3.- Se pueden valorar los efectos directos de una variable sobre otra, 4.- Se valoran los efectos indirectos. 5.- Se pueden tener variables mediadoras en la influencia de una variable sobre otra. 6.-Permite hacer mas aparentes las correlaciones, 7.- Se pueden tener variables latentes. 21

22 Análisis de senderos o de trayectorias
(Path analysis) El análisis de senderos o método de coeficientes de sendero, es una forma de análisis de regresión estructurado, varios modelos de regresión ligados, y considerando variables estandarizadas a media cero y varianza uno, en un sistema cerrado. Se establecen varias ecuaciones que determinan todas las correlaciones entre las variables observadas. 22

23 Es prácticamente indispensable proponer un diagrama o modelo gráfico, donde se especifique las cadenas causales propuestas por el investigador. Lo que se obtiene es el grado de cercanía de las observaciones empíricas con las cadenas causales propuestas por el investigador, es decir se apoya o no la hipótesis resumida en la estructura causal propuesta, y además se evalúa el peso de cada relación, vía los llamados coeficientes de sendero. 23

24 También se obtienen los efectos directos e indirectos de unas variables sobre otras.
Por supuesto que las causalidades implicadas son de tipo probabilísticas y además se requiere tener validez interna para apoyar la causalidad. 24

25 Las ecuaciones estructurales implicadas en el sistema son todas lineales.
Si las relaciones son no lineales, no se aplica el análisis, o bien, es una primera aproximación, aunque existe la posibilidad de generar funciones de las variables (vg.Términos cuadráticos o productos como variables) y usarlas como nuevas variables. 25

26 Consideremos un ejemplo hipotético.
Todas las ecuaciones propuestas deben ser recursivas, sin ciclos de realimentación, es decir debe haber un “flujo causal” sin retornos. Consideremos un ejemplo hipotético. Sean X y Y variables exógenas, es decir no determinadas por variables del sistema (independientes), su correlación es rXY, y esta correlación no será descompuesta. Además consideremos tres variables endógenas (dependientes), es decir determinadas por otras variables en el sistema, sean estas W, Z y L. 26

27 Endógenas Exógenas e2 PZX X Z PLZ e3 L PZY PZW rXY PLW Y W PWY e1 27

28 El sistema propuesto es: W= PWYY+ PWe1e1 Z= PZXX+ PZYY+PZWW+PZe2e2
L= PLZZ+ PLWW+PLe3e3 Todas las variables se estandarizan a media cero y varianza uno. Los errores e1, e2, y e3 expresan el hecho de que las variables endógenas no quedan totalmente determinadas por el sistema. Los coeficientes de regresión estandarizados, son los coeficientes de sendero, PWY, PZX, PZY, PZW, PLZ y PLW. (1) (2) (3) 28

29 Su significado es el mismo de la regresión múltiple, por ejemplo en ecuación (2), PZY es el cambio en desviaciones estándar que experimenta Z al aumentar una desviación estándar Y, manteniendo constantes a X y W. No vamos a distinguir entre parámetros y estimadores, todos los que se refieran serán estimadores. En cada modelo de regresión, los estimadores de los coeficientes de senderos se obtienen de manera usual por mínimos cuadrados en cada una de las tres regresiones. 29

30 En este caso el sistema es:
Nota. Inicialmente los parámetros en el análisis de senderos se estiman con mínimos cuadrados (OLS). Paquetes como EQS pueden hacerlo, pero también pueden usar otros métodos de estimación como Máxima Verosimilitud (ML) y otros . La máxima verosimilitud permite valorar todo el sistema con una prueba de Ji cuadrada Se puede demostrar que el proceso de estimación por mínimos cuadrados, genera las ecuaciones normales, las que por la codificación de las variables equivale a una descomposición de los coeficientes de correlación. En este caso el sistema es: 30

31 PZX + PZY rYX+ PZWrWX= rZX PZX rYX+ PZY + PZWrWY= rZY
rWY= PWY PZX + PZY rYX+ PZWrWX= rZX PZX rYX+ PZY + PZWrWY= rZY PZX rxw+ PZY rWY+ PZW= rZW PLZ + PLWrWZ= rLZ PLZ rZW+ PLW= rLW (EN1) (EN2) (EN3) Ecuaciones normales Nótese que es una descomposición implícita de coeficientes de correlación, es decir, de aquí se obtienen los coeficientes de correlación en términos de los coeficientes de sendero y otras correlaciones. 31

32 e2 PZe2 PZX X Z PLZ e3 L PLe3 PZY PZW rXY PLW Y W PWY PWe1 e1 32

33 La correlación entre X y Y, las exógenas, no se descompone.
La correlación entre W y Y es PWY. Las demás correlaciones pueden ser expresadas en términos de los coeficientes de sendero. Es decir, las correlaciones entre variables resultan estar determinadas por los senderos o caminos por los cuales se “pueden comunicar” cada pareja de variables. 33

34 Una correlación se descompone en la suma de los productos de los coeficientes por cada posible sendero que conecta las dos variables involucradas. Así, la correlación entre W y X, resulta del producto de coeficientes a lo largo del sendero que conecta X con W pasando por Y. En la obtención de correlaciones, los errores se desprecian por no estar correlacionados con otras variables; en las varianzas si influyen. 34

35 rwx = PWYrXY X Y W rXY PWY Nótese que el sendero entre X y Y se puede considerar en los dos sentidos, los otros deben respetar el sentido de las flechas. 35

36 X Y Z W Senderos entre X y Z
rXY PZX PZY PWY PZW Se dice que rZX es el efecto total ET entre Z y X , y que PZX es el efecto directo ED, de X a Z, es el sendero directo, sin pasar por otras variables. La diferencia entre ET y ED es EI el efecto indirecto de X sobre Z. 36

37 Uno es pasando de X a Y y luego de Y a Z, su peso es rXY PZY.
Este efecto indirecto está originado por dos caminos que conectan a X con Z. Uno es pasando de X a Y y luego de Y a Z, su peso es rXY PZY. El otro camino es vía X a Y a W y a Z, su peso es rXY PWY PZW. De manera que la correlación entre X y Z se integra por los tres senderos sumados. rZX = PZX + rXY PZY + rXY PWY PZW ET = ED EI 37

38 X Z Y W Senderos entre Z y Y
Ahora consideremos los senderos y la correlación entre Z y Y . PZX X Z El efecto indirecto tiene dos caminos de Y a W y a Z, PWYPZW y el que va de Y a X y de ahí a Z, rXYPZX rXY PZW PZY Y W PWY Efecto total ET= rZY= PZY + PWYPZW+ rXYPZX Efecto total ET= rZY= ED EI 38

39 X Y Z W L Senderos entre L y W
rXY PZX PZY PWY PLZ PLW PZW El efecto directo es PLW y hay tres caminos indirectos. (ver colores) De manera que: ET=rLW =PLW+ rXYPWY PZXPLZ+ PWY PZYPLZ + PZW PLZ 39

40 X Z L Y W Senderos entre Y y L
PZX X Z PLZ L rXY PZW PLW PZY Y W PWY Entonces, la correlación o efecto total entre Y y L es: ET = rLY= rXYPZX PLZ+ PZYPLZ+ PWY PZWPLZ+PYWPWL Nótese que ahora no hay efecto directo. 40

41 Cuando el número de flechas que conectan pares de variables es igual al número de coeficientes de correlación, es posible obtener una descomposición exacta de los coeficientes de correlación, es el modelo saturado. Sin embargo, cuando por nuestra teoría eliminamos algunas flechas, o bien, en un primer análisis algunas P son muy pequeñas, las eliminamos y obtenemos un nuevo sistema que no es saturado (tiene un carácter exploratorio). En este ultimo caso algunos coeficientes de correlación, obtenidos con los modelos a través de los senderos, no coinciden con los observados. 41

42 Si las discrepancias son pequeñas, “el modelo no discrepa de los datos” y puede proponerse como un apoyo empírico a las relaciones involucradas. Es importante recalcar que pueden obtenerse varios sistemas que sean compatibles con los datos, de manera que uno de ellos no puede ser el “verdadero”, sólo es una explicación propuesta para las relaciones entre variables. El paquete EQS, diseñado para generar factores hipotéticos y buscar sus relaciones, puede usarse para análisis de senderos. Además este paquete obtiene los efectos totales y los indirectos con sus errores estándar y pruebas de significancia de ambos. 42

43 Este software además realiza una prueba de significancia vía una Ji2 asintótica, para la hipótesis de que el modelo es válido considerando parámetros poblacionales y por tanto puede generar datos como los obtenidos con elevada probabilidad. Si se rechaza el modelo, se considera que el esquema causal propuesto no tiene apoyo empírico, con esos datos. El EQS genera además otros índices de ajuste, valorando las discrepancias entre correlaciones observadas y las reproducidas con el modelo. RMSEA, NFI, etc. 43

44 De hecho el coeficiente de determinación de cada variable endógena, es función del coeficiente de sendero del error de esa variable a la variable dependiente. y por tanto, Donde R2 es el coeficiente de determinación en la ecuación de regresión que predice L. 44

45 Identificabilidad Es importante preguntarse si el número de ecuaciones (información de entrada) es suficiente para “encontrar la solución” para los parámetros. Puede haber tres casos: 1.- Modelos subidentificados, menos ecuaciones que parámetros, no hay una solución. 2.- Modelos saturados, igual numero de ecuaciones (información) que parámetros, Hay una solución única. No se puede evaluar el ajuste. 3.- Modelos sobreidentificados, mas ecuaciones (información) que parámetros, hay infinitas soluciones, se busca aquella que es optima según algún criterio. Se puede evaluar el grado de ajuste de los datos al modelo.

46 El Origen de los Modelos de Ecuaciones Estructurales (SEM)
Análisis de senderos El Origen de los Modelos de Ecuaciones Estructurales (SEM) Sewell Wright Primer articulo: 1920 46

47 La Idea de Wright ε1i Y1 = α1 + β1X + ε1i ε2i
Análisis de senderos La Idea de Wright X Y1 ε1i Y2 ε2i Y1 = α1 + β1X + ε1i Y2 = α2 + β2X + β3Y1 + ε2i 47

48 S. Wright desarrolló la técnica de Análisis de Senderos (Path Analysis). Que consiste en postular en base a la teoría existente o tentativa, una serie de dependencias entre variables de manera concatenada, se señala con flechas las relaciones de dependencia. Equivale a varios modelos de regresión sucesivos. v5 v3 v6 v1 v7 v2 v4 La doble flecha indica variables correlacionadas sin dependencia una de la otra. De nuevo surge la pregunta ¿¿ los datos son compatibles con el modelo postulado en la gráfica?? 48

49 con análisis de senderos
Algunas técnicas estadísticas vistas con análisis de senderos

50 Prueba de t Como modelo de regresión R2= = 50

51 Modelo saturado R2= = 51

52 Análisis de varianza con 4 grupos, o regresión con tres indicadoras
52

53 Nótese las correlaciones entre variables independientes, en este caso las 3 indicadoras de los 4 tratamientos. 53

54 MEASUREMENT EQUATIONS WITH STANDARD ERRORS AND TEST STATISTICS
STATISTICS SIGNIFICANT AT THE 5% LEVEL ARE MARKED CALIFICA=V2 = *V *V *V E2 STANDARDIZED SOLUTION: R-SQUARED CALIFICA=V2 = *V *V *V E Contribución de fuentes de variación no especificadas en la “explicación” de CALIFICA, el llamado error 54

55 MANOVA Mediciones repetidas
Factorial 2 x 2 (deprivación de alimento y droga) con 4 respuestas en el tiempo. MANOVA Mediciones repetidas 55

56 Resultado del JMP, análisis MANOVA con mediciones repetidas en el tiempo.
56

57 Factorial 2x2 Tres indicadoras dos de efectos principales y una de la interacción
Mal ajuste, no correlaciones entre dependientes 57

58 DROGA DEPRI DR_X_D LOGHI1 LOGH2 V1 V2 V3 V4 V5 DROGA V1 .000
STANDARDIZED RESIDUAL MATRIX: correlaciones observadas menos las reproducidas con el modelo r ij - rij DROGA DEPRI DR_X_D LOGHI1 LOGH2 V V V V V5 DROGA V DEPRIVAC V DROG_X_D V LOGHIST0 V LOGHIST1 V LOGHIST3 V LOGHIST5 V LOGHIST3 LOGHIST5 V V7 LOGHIST3 V LOGHIST5 V Correlaciones entre variables dependientes 58

59 Modelo saturado 59

60 Regresión múltiple X1 e X2 Y X3 Xp Y= PYX1X1+ PYX2X2+…+PYXpXp+PYee2
Correlaciones entre independientes X1 e X2 Y X3 Xp

61 Multicolinealidad Ejemplo del uso de gráficas para multicolinealidad en modelos de regresión. Las independientes están correlacionadas entre si. Dos de los usos de la regresión son : Explicación: Que variables independientes ( las Xs) influyen en la dependiente ( la Y) Predicción : Para un conjunto de valores de las Xs que valor de Y es el mas probables y su error de estimación 61

62 Selección de variables
Datos de mezquite Biomasa y morfología Selección de variables Se quedan en el modelo. Se eliminan por no significativas 62

63 Casi la misma R2 , que con todas las variables, para predicción este modelo esta bien. Sin embargo para explicación no funciona. No es que Altura Total, Altura de Pabellón y Densidad del arbusto no influyan en la biomasa, si influyen a través de las correlaciones de estas tres variables con las retenidas en el modelo. Además al variar DMA también varian variables fuera del modelo, así que el coeficiente de regresión no es solo el efecto de DMA en biomasa. Esto es mas claro si se considera un análisis de senderos. 63

64 Análisis de senderos Regresión múltiple
Hay efectos indirectos sobre la biomasa de las variables : Altura total , Altura de Pabellón y Medida de Densidad del Arbusto. Con fines explicativos es erróneo el modelo que resulta de la selección de variables 64

65 Estudio Longitudinal Información sobre evolución de 27 niños con daño neurológico perinatal . Tesis M en C Miriam Figueroa. UAM X. Rehabilitación Neurológica Seguimiento por un año, entre otras muchas cosas, PO permanencia del Objeto, EG edad gestacional, SSIN severidad del síndrome y SEC secuela ( si o no). Datos ordinales, se corrió con modelo robusto, dado que no se cumple la normalidad. 65

66 Análisis de senderos 66 Desde el mes 9 si aumenta PO se disminuye la probabilidad de secuela 66

67 Variables Latentes. Análisis de Factores Exploratorio
Desde los estudios sobre inteligencia a principios del siglo 20, se ha manejado que puede haber conceptos que no se pueden medir directamente, sino únicamente a través de indicadores de ellos o sea de variables observables. Así se han trabajado conceptos como inteligencia, agresividad, rendimiento escolar. Estas ideas dieron origen al llamado Análisis de Factores, que debe considerarse como “exploratorio” ya que no se fijan las cargas o pesos de las variables latentes sobre las manifiestas. Las variables son condicionalmente independientes dados los factores Factor 1 Factor 2 AFE v1 v2 v3 v4 v5 Análisis de Factores Exploratorio 67

68 Variables Latentes. Análisis de Factores Confirmatorio
Posteriormente se desarrolló la idea de que con base en consideraciones teóricas se podía establecer que algunas variables son indicadoras de unos factores y otras de factores diferentes. Se llama Análisis de Factores Confirmatorio. Podría haber algunas cargas comunes de una variable con dos o mas factores . Pero entonces surge una pregunta muy importante. ¿Los datos son compatibles con el modelo? Las variables son condicionalmente independientes dados los factores Factor 1 Factor 2 AFC v1 v2 v3 v4 v5 Análisis de Factores Confirmatorio 68

69 Análisis de factores confirmatorio

70 F

71

72 Análisis de factores confirmatorio
Rykov Tenko and George A. Marcoulides. “A first course in Structural Equation Modeling”. Lawrence Erlbaum Associates, Publishers Pag 97. AFC. Son 250 estudiantes de segundo de “college”, se miden tres variables indicadoras de Habilidad, V1.-Habilidad General, V2.-Promedio en el ultimo año de high school y V3.- Promedio en el primer año del college. Tres indicadoras de Motivación: V4.- Motivación para alcances(score 1), V5.- Motivación para alcances(score 2), V6.- Motivación para alcances(score 3); y dos para Aspiración: V7.- Calificación en aspiración educacional y V8.-Calificacion en aspiración vocacional Matriz de Covarianzas GHabil GAveHS GAV1Col Motvn1 Motvn2 Motvn3 GEduAsp GVocAsp V1 V2 V3 V4 V5 V6 V7 V8 XbarSd

73 Coeficientes no estandarizados
1 Buen ajuste Coeficientes no estandarizados 1 Con escalas originales en las variables 1

74 Coeficientes estandarizados
Con escalas estandarizadas a media cero y varianza uno para las variables

75 Aspectos relevantes en la salida del EQS.
NO SPECIAL PROBLEMS WERE ENCOUNTERED DURING OPTIMIZATION LARGEST STANDARDIZED RESIDUALS: correlaciones observadas menos las reproducidas con el modelo r ij - rij NO. PARAMETER ESTIMATE V7, V V4, V V8, V V5, V Puntos de corte recomendados <0.10 CHI-SQUARE = BASED ON DEGREES OF FREEDOM PROBABILITY VALUE FOR THE CHI-SQUARE STATISTIC IS FIT INDICES BENTLER-BONETT NORMED FIT INDEX = BENTLER-BONETT NON-NORMED FIT INDEX = COMPARATIVE FIT INDEX (CFI) = ROOT MEAN-SQUARE ERROR OF APPROXIMATION (RMSEA) = 90% CONFIDENCE INTERVAL OF RMSEA ( , ) >0.95 <0.08 <0.10

76 MEASUREMENT EQUATIONS WITH STANDARD ERRORS AND TEST STATISTICS
STATISTICS SIGNIFICANT AT THE 5% LEVEL ARE MARKED GENHABIL=V1 = F E1 GRAVHAHS=V2 = *F E2 .099 GRAVHACO=V3 = *F E3 .087 MOTIVN1 =V4 = F E4 MOTIVN2 =V5 = *F E5 .121 MOTIVN3 =V6 = *F E6 .118 GEDUASP =V7 = F E7 GVOCASP =V8 = *F E8 .113

77 VARIANCES OF INDEPENDENT VARIABLES
STATISTICS SIGNIFICANT AT THE 5% LEVEL ARE MARKED V F I F F *I I I I I F F *I I I I I F F *I I I I COVARIANCES AMONG INDEPENDENT VARIABLES STATISTICS SIGNIFICANT AT THE 5% LEVEL ARE MARKED V F I F F *I I F F I I I F F *I I F F I I I F F *I I F F I I I

78 INDICES DE MODIFICACION DE AJUSTE
STANDARDIZED SOLUTION: R-SQUARED GENHABIL= V1 = F E GRAVHAHS= V2 = *F E GRAVHACO= V3 = *F E MOTIVN1 = V4 = F E MOTIVN2 = V5 = *F E MOTIVN3 = V6 = *F E GEDUASP = V7 = F E GVOCASP = V8 = *F E CORRELATIONS AMONG INDEPENDENT VARIABLES V F I F F *I I F F *I I F F *I INDICES DE MODIFICACION DE AJUSTE WALD:..NONE OF THE FREE PARAMETERS IS DROPPED IN THIS PROCESS LM : NONE OF THE UNIVARIATE LAGRANGE MULTIPLIERS IS SIGNIFICANT, (Para agregar caminos o flechas).

79 SEM MEE La Síntesis, LISREL Modelos de Ecuaciones Estructurales
Structural Equations Modelling Karl Jöreskog 1934 – al presente Trabajo fundamental de síntesis en 1973 79

80 Posteriormente K. Joreskog unió las dos ideas, senderos y análisis de factores confirmatorio, para generar los llamados Modelos de Ecuaciones Estructurales (SEM o MEE)). En los que se plantean factores latentes para grupos de variables, pero además se establecen dependencias entre los factores vía senderos. Posteriormente en SEM entre otras cosas, se incluyen variables observables o manifiestas en los senderos, junto con factores (MIMIC) y para estudios longitudinales las Curvas de Crecimiento Latente. 80

81 Se tiene como información inicial, las mediciones en las variables para los elementos de estudio, de los que se obtiene la matriz de varianzas y covarianzas de las variables manifiestas u observadas llamada S. El modelo se especifica en una gráfica y en una serie de ecuaciones que ligan las variables entre si, incluyendo las latentes, y que involucran un conjunto de parámetros θ. De acuerdo a esas ecuaciones es posible determinar como serán las covarianzas en función de los coeficientes , Σ(θ).

82 Es un método “orientado al modelo” y no a una hipótesis nula .
Algunas propiedades de SEM Es un método “orientado al modelo” y no a una hipótesis nula . 2. Es una herramienta de modelado muy flexible. Se puede usar en forma confirmatoria (prueba de ajuste del modelo propuesto) o en forma exploratoria (construcción del modelo). Frecuentemente es un mezcla, se inicia en forma confirmatoria, con la teoría que determina las causalidades (relaciones), que se representan en la gráfica de senderos, pero esta se modifica a la luz de los hallazgos empíricos. Hay una variedad de métodos de estimación y de evaluación del ajuste (Fit) 82

83 ¿¿Qué son los modelos de ecuaciones estructurales?
Se concepualizan factores que surgen al considerar que varias variables son indicadores de un concepto hipotético. Se plantean támbien asociaciones entre factores Factor 1 ξ1 Factor 4 η4 Factor 5 η5 Factor η3 Factor 2 η2 x1 x2 x3 y1 y2 y3 y4 y5 y6 y7 y8 .26 .75 .98 .92 .64 .90 .81 -.47 .95 1.13 .44 ns 1.0 .80 1.00 .59 .77 Variables latentes = elipses Flechas doble punta Para correlaciones Variables observadas = rectangulos Flechas unidireccionales Para dependencias 83 Variables manifiestas Ys y Xs. Encerradas en cuadros

84 MEDICION VARIABLES EXOGENAS
Notación de Joreskog en LISREL

85 MEDICION VARIABLES ENDOGENAS
Notación de Joreskog en LISREL

86 Notación de Joreskog en LISREL
Modelo estructural

87 Covarianzas observadas en función de parámetros

88 Covarianzas observadas en función de parámetros

89

90 Notacion matricial de Modelos de Ecuaciones Estructurales
SEM (MEE): Un sistema flexible de ecuaciones multiples Jöreskög 1973 Notacion matricial de Modelos de Ecuaciones Estructurales Matriz de covarianzas observada Sij S x = Λxξ + δ y = Λyη + ε η = α + Β η + Γξ + ζ σij Matriz de covarianzas reproducida en función de los parámetros (implicada) 90

91 Estimación y Evaluación
x1 y1 y2 Modelo Hipotético Matriz de Covarianzas Observada { 1.3 } S = + Estimación de Parámetros estimación LS, ML, Robust and BA compare Ajuste del Modelo Σ(θ) = { σ11 σ12 σ22 σ13 σ23 σ33 } Matriz de covarianzas Implicada 91

92 F = ln|Σ(θ)|–ln|S| +traza[SΣ(θ)–1]–(p + q)
La matriz de varianzas y covarianzas implicada Σ(θ) , es función de un conjunto de parámetros. En base al principio de “Máxima Verosimilitud”, basado en el supuesto de normalidad multivariada de las variables, se busca aquel valor de los parámetros θ, que minimiza la función : F = ln|Σ(θ)|–ln|S| +traza[SΣ(θ)–1]–(p + q) Se puede decir que se buscan los parámetros que reproducen, de acuerdo al modelo postulado en la grafica, las varianzas y covarianzas más cercanas posibles a las observadas. 92

93 Una vez que el modelo ha sido identificado y se han estimado sus parámetros, el siguiente problema que surge es el de evaluar qué tan bien se ajusta a los datos. Una medida global de ajuste es la estadística de la razón de verosimilitud, que sigue una distribución asintótica Ji-cuadrada dada por: x2=(n – 1)Fmín donde n es el tamaño de muestra y Fmín es el valor mínimo de la función ajustada (la anterior). 93

94 Los grados de libertad de la Ji2 son:
Si el modelo es correcto y el tamaño de muestra suficientemente grande, esta prueba permite valorar el ajuste, es decir el grado de semejanza entre la matriz de covarianzas observada en las variables xs y ys con términos sij, con la reproducida con el modelo, σij (θ),. Los grados de libertad de la Ji2 son: g.l. = 0.5 (p + q)(p + q + 1) – t donde t es el número de parámetros libres en el modelo, p es el numero de variables de factores dependientes (ys) y q el de las independientes (xs). 94

95 Sin embargo, la estadística Ji-cuadrada tiene un uso práctico limitado como medida de ajuste, ya que es una función tanto del tamaño de muestra como de la cercanía de la matriz de covarianzas estimada con la matriz de covarianzas observada. Una consecuencia de esto es que la probabilidad de rechazar un modelo aumenta con el incremento del tamaño de muestra, aún cuando la matriz de covarianzas de residuos, sij – σij (θ), presenta discrepancias triviales. Se acostumbra evaluar la magnitud de los residuos en forma estandarizada, equivale a las diferencias rij – ρij(θ), (en correlaciones: observada – implicada) 95

96 Se recomienda también una validación cruzada.
Adicionalmente, existen varias formas evaluar la “cercanía” del modelo con los datos, estas se resumen en los índices de ajuste, que son muy útiles Se recomienda también una validación cruzada. 96

97 Índices de ajuste en Ecuaciones Estructurales
Hay varios índices de ajuste para valorar si el modelo es adecuado o no. Esto es muy usado, dado que al incrementarse la muestra la Ji cuadrada se incrementa mucho, entonces un modelo “aceptable” resulta significativo. Hay muchos reportes sobre la forma de avaluar el ajuste de un modelo de EQS. Una buena referencia es el trabajo: Hu S. and Bentler P. “Cutoff Criteria for fit indexes in covariance structure analysis: Conventional criteria versus new alternatives” Structural Equation Modelling 6(1) 1-55, Solo se incluirán en lo que sigue algunos de los índices recomendados ahí. 97

98 Índice de ajuste comparativo, CFI
Un buen modelo lo tendrá cercano a uno, es considerando como bueno que sea mayor o igual a 0.95. Donde y glm son los valores para el modelo que se esta ajustando; y donde y glo son los valores para el modelo que supone independencia total de las variables. 98

99 RMSEA Raíz de cuadrados medios del error.
Se recomienda que sea inferior a 0.06 ( algunos citan 0.1) Donde Se obtienen también los intervalos de confianza al 90% para el RMSEA. Se recomienda que el limite superior sea inferior a 0.1 99

100 Dependencia condicional
Sin variables latentes Con una variable latente

101 Datos de Mardia calificaciones de 88 estudiantes de una universidad

102 Datos de Mardia sobre calificaciones de estudiantes de una universidad
Datos de Mardia sobre calificaciones de estudiantes de una universidad. Análisis de senderos

103 Modelo saturado Datos de Mardia sobre calificaciones de estudiantes de una universidad. Análisis de Factores

104 analisis de factores confirmatorio
Evaluación de procesos de medición , métodos y ocasiones o sujetos. Multilevel and Longitudinal Modeling Using Stata. Sophia Rabe-Hesketh and Anders Skrondal. A Stata Press Publication. 2005 Pags 2, y Dos métodos para determinar flujo espiratorio forzado. Wrigth peak, en ocasiones 1 y 2, y Mini Wright en ocasiones 1 y 2, en 17 sujetos. El sujeto produce correlaciones entre todas las mediciones. Cada método por separado produce correlaciones entre sus mediciones. Se usan factores tanto para sujetos como para métodos 104

105 analisis de factores confirmatorio
105

106 analisis de factores confirmatorio
RELIABILITY COEFFICIENTS CRONBACH'S ALPHA = RELIABILITY COEFFICIENT RHO = Ambos métodos son confiables y miden lo mismo, se opta por el mas barato, rápido, etc. 106

107 Ecuaciones Estructurales.
Ejemplo de Modelo de Ecuaciones Estructurales. MacKinnon D.P. “Introduction to Statistical Mediation Analysis”. Lawerence Erlbaun Associates Se hicieron mediciones en 547 jugadores de futbol de High School. Se evaluaron en tres momentos, 1, antes de la temporada de juegos, 2, poco después y 3, varios meses después de ella. En la primer época se quería medir el concepto tolerancia del coach*, con tres indicadoras: coach1.- he hablado con algún coach sobre otras formas de fortalecimiento en lugar de usar esteroides, coach2.- en mi equipo hay reglas en contra del uso de esteroide y coach3.- si me encuentran usando esteroides estaría en problemas con los “coaches”.

108 Ecuaciones Estructurales.
Ejemplo de Modelo de Ecuaciones Estructurales. En época 2, se evalúo la severidad percibida del uso de esteroides* con: severe 1.- Los malos efectos de los esteroides desaparecen en cuanto se dejan de tomar. Severe2.- solo unas pocas personas que usan esteroides anabólicos tienen efectos dañinos o desagradables, y severe 3.- Los esteroides no son dañinos si se usan pocos meses al año. En época 3, se evalúo Intención de usar esteroides* con : Intent1.-Tengo la intención de ensayar o usar esteroides. Intent2.- Estaré dispuesto a usar esteroides para saber que se siente, y Inten3.- Tengo curiosidad por usar esteroides * Factores latentes

109 Coeficientes no estandarizados

110 Coeficientes estandarizados

111 <0.1 >0.95 <0.1 DETERMINANT OF INPUT MATRIX IS .23023D+02
PARAMETER ESTIMATES APPEAR IN ORDER, NO SPECIAL PROBLEMS WERE ENCOUNTERED DURING OPTIMIZATION. LARGEST STANDARDIZED RESIDUALS: NO. PARAMETER ESTIMATE V4, V V7, V V9, V CHI-SQUARE = BASED ON DEGREES OF FREEDOM PROBABILITY VALUE FOR THE CHI-SQUARE STATISTIC IS <0.1 FIT INDICES BENTLER-BONETT NORMED FIT INDEX = BENTLER-BONETT NON-NORMED FIT INDEX = COMPARATIVE FIT INDEX (CFI) = ROOT MEAN-SQUARE ERROR OF APPROXIMATION (RMSEA) = 90% CONFIDENCE INTERVAL OF RMSEA ( , ) >0.95 <0.1

112 CONSTRUCT EQUATIONS WITH STANDARD ERRORS AND TEST STATISTICS
STATISTICS SIGNIFICANT AT THE 5% LEVEL ARE MARKED F2 =F2 = *F D2 .093 F3 =F3 = *F *F D3 La influencia directa de F1, tolerancia del coach sobre F3 intención de uso, no es significativa. Es importante sin embargo, el efecto de F1 sobre F3 con F2 severidad percibida, como mediador. F1- tolerancia del Coach F2-Severidad Percibida F3 Intención de uso de esteroides

113 PARAMETER TOTAL EFFECTS
COACH1 =V1 = F E1 COACH2 =V2 = *F E2 COACH3 =V3 = *F E3 SEVERE1 =V4 = F F E D2 .093 SEVERE2 =V5 = *F F E D2 SEVERE3 =V6 = *F F E D2 INTENT1 =V7 = F F F E D D3 INTENT2 =V8 = F *F F E D D3 INTENT3 =V9 = .399 F *F F E D D3

114 PARAMETER TOTAL EFFECTS
F2 =F2 = *F D2 F3 =F3 = *F *F D D3 PARAMETER INDIRECT EFFECTS SEVERE1 =V4 = F D2 …...F3 =F3 = *F D2 SEVERE2 =V5 = F D2 SEVERE3 =V6 = F D2 INTENT1 =V7 = F F D D3 INTENT2 =V8 = F F D D3 INTENT3 =V9 = F F D D3

115 DECOMPOSITION OF EFFECTS WITH STANDARDIZED VALUES
PARAMETER TOTAL EFFECTS COACH1 =V1 = F E1 COACH2 =V2 = *F E2 COACH3 =V3 = *F E3 SEVERE1 =V4 = F F E D2 SEVERE2 =V5 = *F F E D2 SEVERE3 =V6 = *F F E D2 INTENT1 =V7 = F F F E7 D D3 INTENT2 =V8 = F *F F E8 D D3 INTENT3 =V9 = F *F F E9 D D3 F2 =F2 = *F D2 F3 =F3 = *F *F D D3 PARAMETER INDIRECT EFFECTS SEVERE1 =V4 = F D2 SEVERE2 =V5 = F D2 SEVERE3 =V6 = F D2 INTENT1 =V7 = F F D D3 INTENT2 =V8 = F F D D3 INTENT3 =V9 = F F D D3 F3 =F3 = *F D2

116 WALD TEST (FOR DROPPING PARAMETERS)
MULTIVARIATE WALD TEST BY SIMULTANEOUS PROCESS STEP PARAMETER CHI-SQUARE D.F. PROBABILITY F3,F NONE OF THE UNIVARIATE LAGRANGE MULTIPLIERS IS SIGNIFICANT, F1 tolerancia del coach tiene efecto indirecto significativo sobre F3, Intención de usar esteroides, aun que su efecto directo no es signifcativo.

117 Modelación de medias y de covarianzas.
Si se trata de un análisis de factores confirmatorio con medias, las expresiones son. Σ = Λ Φ Λ´ μ = Λ μξ donde μξ es el vector de medias de las variables independientes, no explicadas. Máxima verosimilitud. Encontrar el mínimo de:

118

119 Análisis de factores con medias.
¡¡Medias de los factores latentes endógenos!! Análisis de factores con medias.

120 Análisis de factores con medias.

121

122

123 * * (Path analysis) * MANOVA

124 Se introduce una variable con valores iguales a 1
Regresión lineal simple de Y con X. Kline Caso X Y A B D C E Medias SD S Y = X rYX=.601 Intercepto = 20 = (11) Intercepto =Y+ b (X) El Coeficiente de regresión se puede ver como la estructura de covarianza del modelo de predicción. Este coeficiente refleja la asociación entre X y Y, pero no dice nada sobre la media de ambas variables. En cambio el intercepto (20) refleja la media de ambas variables y el coeficiente de regresión, con un solo numero. Se introduce una variable con valores iguales a 1

125 Se introduce una “variable” con valores iguales a 1
Regresión lineal simple de X con 1, sin ordenada al origen. 14.045 Ey 0.455 X 38.5 11 = X Y 1 20 Media de Y=25= Efecto total de 1 en Y= = (11) Efecto directo de 1 en Y Efecto indirecto de 1 en Y Se introduce una “variable” con valores iguales a 1

126 MATRIX CONTAINS SPECIAL VARIABLE V999, THE UNIT CONSTANT
COVARIANCE MATRIX IS IN UPPER TRIANGLE; MEANS ARE IN BOTTOM ROW OF MATRIX COVARIANCE/MEAN MATRIX TO BE ANALYZED: 2 VARIABLES (SELECTED FROM 4 VARIABLES), BASED ON CASES. X Y V999 V V V999 X V Y V V999 V

127 En un modelo estructural de medias cada variable independiente se descompone en dos nuevas variables, la media y una desviación de la media. X= μx +e En consecuencia cada variable se convierte en una variable dependiente en una nueva ecuación en la que el intercepto es la media. X= μx1 +ex . Entonces ambos 1 y ex son “variables” independientes, la varianza de ex es igual a la de X. Los parámetros de un modelo SEM con estructura de medias, son a).-los coeficientes de regresión (coeficientes de sendero), b).- varianzas y covarianzas de las variables independientes, c).- los interceptos de las variables dependientes , y d).- las medias de las independientes

128 El intercepto es la media implicada cuando no hay efectos indirectos de la constate 1 sobre esa variable. Cuando si hay efectos indirectos, la media implicada es el efecto total. Esto es válido tanto para variables observadas como para las latentes. En EQS se piden las covarianzas estimadas entre las variables Y y los factores F. (COVARIANCE en la parte de PRINT) y produce una matriz como sigue: ΣYY ΣYF ΣFY ΣFF Ultimo renglón (V999), medias. Al final medias de los factores

129 Ejemplo de “SEM” con medias. Estabilidad de la alienación.
MATRIX CONTAINS SPECIAL VARIABLE V999, THE UNIT CONSTANT COVARIANCE MATRIX IS IN UPPER TRIANGLE; MEANS ARE IN BOTTOM ROW OF MATRIX COVARIANCE/MEAN MATRIX TO BE ANALYZED: BASED ON CASES. ANOMIA67 POWERL67 ANOMIA71 POWERL V999 V V V V V999 ANOMIA67 V POWERL67 V ANOMIA71 V POWERL71 V V999 V Medias

130 Coeficientes estandarizados

131 Medias de los factores 1 y 2. Alienación en 67 y en 71 respectivamente
MODEL COVARIANCE MATRIX FOR MEASURED AND LATENT VARIABLES ANOMIA67 POWERL67 ANOMIA71 POWERL V999 V V V V V999 ANOMIA67 V POWERL67 V ANOMIA71 V POWERL71 V V999 V F1 F F2 F F F2 F1 F F2 F Medias de los factores 1 y 2. Alienación en 67 y en 71 respectivamente

132 Curvas de Crecimiento Latente
Un uso especial de las Ecuaciones Estructurales es en el contexto de estudios longitudinales, en los que se quiere valorar el ajuste de rectas o curvas, de manera que los parámetros de las curvas, la ordenada al origen y la pendiente, son variables aleatorias, es decir hay una curva para cada elemento estudiado. Se quiere conocer la media de las ordenadas al origen y de la pendiente, así como sus varianzas. Se usan factores latentes para esos parámetros. Las cargas de los factores sobre los parámetros reflejan que parámetro es. 132

133 Curvas de Crecimiento Latente
Así en el caso de la ordenada al origen todas las cargas son uno, para la pendiente las cargas son números que van creciendo según el tiempo de la variable a la que se dirige, para un coeficiente cuadrático son los cuadrados de los términos para el lineal. Se pueden modelar patrones no lineales y con puntos de cambio. 133

134 Some SEM advanced questions
Can change in responses be tracked over time? Latent Growth Curve Analysis 2/20/2006 Latent Variable Models

135 Latent Variable Models
Latent Growth Model 2/20/2006 Latent Variable Models

136 Recta de crecimiento latente
Note que todas las cargas del factor ordenada al origen se fijan en la unidad Las cargas para el efecto lineal van creciendo desde 0 a 5 , de uno en uno. Si se tuviese diferentes incrementos de tiempo, estos pueden reflejarse en las cargas de la pendiente vg, 0, 1, 3, 7, 9 Factor 1 136

137 Curva ( de segundo grado) de crecimiento latente
La variable latente que representa al efecto cuadrático, tiene como cargas los cuadrados de los coeficientes del efecto lineal o pendiente. Se pueden usar los coeficientes de polinomios ortogonales .Hay mucha flexibilidad, se pueden usar exponentes fraccionarios 137

138 Consumo de alcohol en 4 épocas en 1204 estudiantes EQS.
Medias supuestas ALC_T1 ALC_T2 ALC_T3 ALC_T V999 V V V V V999 ALC_T1 V ALC_T2 V ALC_T3 V ALC_T4 V V999 V

139 ALC_T1 ALC_T2 ALC_T3 ALC_T4 V999
V V V V V999 ALC_T1 V ALC_T2 V ALC_T3 V ALC_T4 V V999 V discontinuidad

140 Aplicación al desarrollo de niños con daño cerebral
En la tesis de Maestría en Ciencias en Rehabilitación Neurológica de Mirían Figueroa, UAM-X. se estudiaron 29 niños con daño neurológico perinatal, y tres de ellos tenían un daño severo, por lo que su desarrollo cognitivo fue prácticamente nulo. En este trabajo nos propusimos modelar el desarrollo cognitivo de los 26 niños restantes. El propósito básico de usar SEM radica en explorar las curvas de crecimiento con factores latentes. 140

141 Tipo de Estudio. Descriptivo (exploratorio) , retrospectivo parcial, longitudinal y observacional .
Se obtuvo un muestra (disponible) de 29 niños con daño neurológico perinatal referidos por la sala de terapia intensiva neonatal del Instituto Nacional de Pediatría, en quienes se pudo documentar por medio de estudios neurofisiológicos, de imagen y laboratorio el diagnostico de las encefalopatías siguientes: hemorrágica, hipóxico-isquémica, hiperbilirrubinémica y mixta. Posteriormente por tener un daño muy severo se eliminaron tres de ellos. 141

142 Los criterios de Inclusión fueron que tuviesen antecedente de encefalopatía perinatal entre el 1 de enero de 1993 y el 31 de diciembre de 1994; con domicilio en el área metropolitana de la Cd. De México. Con seguimiento por 12 meses para evaluar el desarrollo cognitivo. Los Criterios de Exclusión fueron : Que presentaran diagnóstico de enfermedad que implicase deterioro neurológico progresivo. Que presentase anomalías cromosómicas o malformaciones congénitas asociadas del sistema músculo esquelético como luxación congénita de cadera o píe equino varo. Los Criterios de Eliminación fueron, con dos o mas fallas en el seguimiento, alta voluntaria del mismo, o abandono del programa. 142

143 7 Variables Perinatales o de Base.
Genero, Condición al Nacimiento, Tipo y severidad del Síndrome Neurológico, Diagnóstico de la Encefalopatía neonatal y tipo de encefalopatía. 84 Variables del Desarrollo Sensoriomotríz (Uzgiris y Hunt) Se midieron cada mes durante 12 meses. 1.-Persecución Visual y Permanencia del Objeto (PO). 2.-Medios y Fines para lograr Eventos Ambientales Deseados (MF). 3.-Imitación Vocal (IV). 4.-Imitación Gestual (IG). 5.-Causalidad Operacional (CO). 6.-Relaciones de los Objetos en el Espacio (RE). 7.-Esquemas con Relación a los Objetos (RO). 143

144 Variables de base (Al nacer)
Temporalidad Evolución Cognitiva Variables de base (Al nacer) Genero, Condición al Nacimiento, Tipo y severidad del Síndrome Neurológico, Diagnóstico de la Encefalopatía neonatal y tipo de encefalopatía 7 escalas por 12 meses Secuelas M NC S CC CG RET 144

145 Como sólo se tenia una muestra de 26 niños, no se pueden usar modelos muy elaborados, por esto se tomaron algunos de los indicadores de desarrollo sensioromotriz, los que habían sido mas fuertes predictores de secuelas en el estudio previo. Se inicia con un análisis de factores confirmatorio para PO MF CO y RE. Considerándolos simultáneamente, para construir un indicador latente del desarrollo basado en esos cuatro aspectos. Se consideran los meses 4, 8 y 12 del seguimiento. Para un buen ajuste se necesito usar correlaciones entre las variables. El modelo en forma gráfica esta en la figura 1. Los tres factores resultan con cargas grandes en todas las variables, lo que indica que si miden el desarrollo alcanzado en esa edad 145

146 Cuadrático coeficientes no estandarizados
146

147 Término cuadratico no significativo
F1 =F1 = *V D1 .039 F2 =F2 = *V D2 .085 F3 =F3 = *V D3 .016 -1.467 147

148 No Estandarizados. Buen ajuste
BENTLER-BONETT NORMED FIT INDEX = 148 LARGEST STANDARDIZED RESIDUALS: V999,V

149 Estandarizados 149

150 No Estandarizados 150

151 Estandarizados. Buen ajuste
Se agregan correlaciones entre variables. 151

152 MODEL COVARIANCE MATRIX FOR MEASURED AND LATENT VARIABLES
PO PO PO PO PO9 V V V V V13 PO1 V PO3 V PO5 V PO7 V PO9 V PO11 V V999 V F1 F F2 F PO V F F2 V V F F2 PO11 V V999 V F1 F F2 F Medias de todas las variables observadas y latentes 152

153 Crecimiento latente de factores
Con los tres factores del AFC se construye un modelo de curva de crecimiento latente sobre ellos. Los valores iniciales están en la Fig. 2. Y los coeficientes no estandarizados o directos en la Fig. 3. Se obtienen también, las medias de los factores, las que reflejan claramente el incremento de las variables latentes. La ordenada al origen es de 0.14 y la pendiente de Es decir se considera que los niños inician con valores bajos, en mes 1, y crecen en una unidad por cada 4 meses de desarrollo. En la Fig.4 están los coeficientes estandarizados 153

154 Fig. 1.- AFC BENTLER-BONETT NORMED FIT INDEX = .872
BENTLER-BONETT NON-NORMED FIT INDEX = COMPARATIVE FIT INDEX (CFI) = BOLLEN'S (IFI) FIT INDEX = ROOT MEAN-SQUARE ERROR OF APPROXIMATION (RMSEA) = 90% CONFIDENCE INTERVAL OF RMSEA ( , ) SATORRA-BENTLER SCALED CHI-SQUARE = ON DEGREES OF FREEDOM PROBABILITY VALUE FOR THE CHI-SQUARE STATISTIC IS Todos los coeficientes de sendero son significativos con S-B 154 Fig. 1.- AFC

155 Fig. 2.- Curvas de crecimiento latente
155 Valores iniciales

156 Fig. 3.- Curvas de crecimiento latente Coeficientes directos
Media 2.013 Media 3.175 Media 4.064 Fig. 3.- Curvas de crecimiento latente Coeficientes directos 156

157 Fig. 4.- Curvas de crecimiento latente Coeficientes estandarizados
157

158 RESUMEN: Ajuste de modelos. Pasos en SEM
1.- Teoría que variables y que relaciones entre ellas se postulan. Proceso de medición, qué variables latentes se postulan. Construir la grafica que resume la teoría. 2.-Verificar que la base de datos esta completa. Análisis exploratorio para eliminar observaciones atípicas y valorar formas de distribución. Con el EQS ajustar el modelo. Valorar ajuste. Si hay buen ajuste interpretar resultados.

159 RESUMEN: Ajuste de modelos.
3.-Si no hay buen ajuste, con los índices de modificación de ajuste: Prueba de Wald y prueba de Multiplicadores de Lagrange, agregar un elemento (línea causal o correlación según teoría), volver a correr y quitar un elemento. Avanzar paso a paso (agregar y quitar lo que se indica según pruebas, pero moderado por la teoría) llevando registro para poder regresar si se encuentra no identificación o se desajusta el modelo. Observar los cambios en la ji2 e índices de ajuste. También se consideran los residuos estandarizados más grandes para orientar la inclusión de más senderos. (Se acepta en caso extremo uno menor de 0.12) Los índices de ajuste deben mejorar paulatinamente, acercarse o superar 0.95, el RMSEA inferior a 0.08 ( límite superior menor a 0.10 extremo 0.12), la p aumenta, la ji2 baja. Si el modelo se juzga adecuado se interpretan resultados y se salva la grafica con senderos y coeficientes. En general no conviene fijar en 0 una varianza de una variable, es una contradicción.

160 Diagrama de flujo Desarrollo Teórico Especificar modelo Identificación
Muestras y Mediciones Estimación de Parámetros No Modificación del Modelo Evaluar Ajuste ¿Ajusta? Si Discusión y Conclusión

161 Bibliografía: 1.- Duncan, TE, Duncan SC, Strycker LA, Li F and Alpert A. “ An introduction to Latent Variable Grow Curve Modeling”. Lawrence Erlbaum Associates Publishers Hancock G.R. and R.O. Mueller. Editors.” Structural Equation Modeling. A second course”. Information Age Publishing Inc. 2006 3.- Hoyle, Rick H. “ Structural Equation Modeling. Concepts, Issues, and Applications.“ SAGE Publications Inc 4.- Hu S. and Bentler P. “Cutoff Criteria for fit indexes in covariance structure analysis: Conventional criteria versus new alternatives” Structural Equation Modelling 6(1): 1-55, 1999. 5.- Kline, Rex B. “ Principles and Practice of Structural Equation Modeling.” The Guilford Press 6.- Loehlin John C. “ Latent Variables Models. An introduction to factor, path, and structural equation analysis” Lawrence Erlbaum Associates, Publishers. 2004 161

162 Bibliografía: 7.-MacKinnon D.P. “Introduction to Statistical Mediation Analysis. Lawrence Erlbaum Associates Publishers Preacher KJ, Wichman AL, MacCallum RC and Briggs NE. “Latent Growth Curve Modeling”. Sage Publications. Num Rykov Tenko and George A. Marcoulides. “A first course in Structural Equation Modeling”. Lawrene Erlbaum Associates, Publishers 10.-Shipley Bill “ Cause and Correlation in Biology. A User¨s Guide to Path analysis, Structural Equation and Causal Inference”. Cambridge University Press 2000 162


Descargar ppt "Introducción y panorama Ignacio Méndez Ramírez"

Presentaciones similares


Anuncios Google