Descargar la presentación
La descarga está en progreso. Por favor, espere
Publicada porRoberto Parra Soto Modificado hace 10 años
1
Introducción al Análisis factorial confirmatorio Lectura básica: Cap. 13 del texto Ampliación: Brown, T. A. (2006). Confirmatory Factor Analysis for Applied Research. New York: The Guilford Press. Programas: LISREL, AMOS, EQS, Mplus
2
2 1.) AFE versus AFC 2.) Aplicaciones
3
3 Ítems del EPQ-R (neuroticismo) Z1. ¿Su estado de ánimo sufre altibajos con frecuencia? Z2. ¿Se siente a veces desdichado sin motivo? Z3. ¿A menudo se siente solo? Z4. ¿Es usted una persona sufridora? Z5. ¿Se inquieta por cosas terribles que podrían suceder? Z6. ¿Se siente intranquilo por su salud? z1z2z3z4z5z6 Z11.529.352.294.210.146 Z21.420.259.216.086 Z31.307.240.132 Z41.276.218 Z51.271 Z61
4
4 MUCHAS SOLUCIONES POSIBLES F1F2z1z2z3z4z5z6 Z1 ?? r*\r Z1.529.352.294.210.146 Z2 ??.526.420.259.216.086 Z3 ??.364.419.307.240.132 Z4 ??.277.275.271.276.218 Z5 ??.230.205.241.288.271 Z6 ??.133.084.161.231.251 Resid ual Z1 Z2.003 Z3-.012.001 Z4.017-.016.036 Z5-.021.011-.001-.012 Z6.014.002-.029-.013.021 Minimizar diferencias entre la matriz de correlaciones observada y la reproducida 1 factor? 2 factores? 3 factores?
5
5 Análisis Factorial Exploratorio ¿Su estado de ánimo sufre altibajos con frecuencia? ¿Se siente a veces desdichado sin motivo? ¿A menudo se siente solo? ¿Es usted una persona sufridora? ¿Se inquieta por cosas terribles que podrían suceder? ¿Se siente intranquilo por su salud? z 1 =.628 * F 1 +.064 * F 2 + E 1 z 2 =.866 * F 1 -.121 * F 2 + E 2 z 3 =.453 *F 1 +.185 * F 2 + E 3 z 4 =.189 * F 1 +.424 * F 2 + E 4 z 5 =.073 * F 1 +.505 * F 2 + E 5 z 6 =.078 * F 1 +.509 * F 2 + E 6
6
6 z3z3 F1F1 z1z1 E1E1 E3E3 z2z2 E2E2 z4z4 E4E4 z5z5 E5E5 z6z6 E6E6 F2F2 Modelo exploratorio Cuantos factores? Criterio para la Rotación? DATOS MODELO REPRESENTACIÓN:
7
7 z3z3 F1F1 z1z1 E1E1 E3E3 z2z2 E2E2 z4z4 E4E4 z5z5 E5E5 z6z6 E6E6 F2F2 Modelo confirmatorio MODELO DATOS Factor 1 Factor 2 Z1Z1 0.6940 Z2Z2 0.7360 Z3Z3 0.5650 Z4Z4 00.590 Z5Z5 00.520 Z6Z6 00.383 r F1F2 =0.631
8
8 z3z3 F1F1 z1z1 E1E1 E3E3 z2z2 E2E2 z4z4 E4E4 z5z5 E5E5 z6z6 E6E6 F2F2 Modelo exploratorio: Modelo inicial DATOS MODELO Factor 1 Factor 2 Z1Z1 00 Z2Z2 X0 Z3Z3 XX Z4Z4 XX Z5Z5 XX Z6Z6 XX r F1F2 = 0
9
9 AFE versus AFC Similitudes -Técnica de reducción de dimensionalidad: Se buscan (pocos) factores comunes que expliquen la matriz de var-cov, S. -Muchos procedimientos (p.e., de estimación) son comunes a AFE y AFC. Diferencias -No explora la relación entre variables o constructos, sino que las contrasta: -Se supone un número concreto de factores comunes y qué variables empíricas (indicadores) los miden. -Se supone la existencia o no de relación entre los factores. -Se pueden establecer correlaciones entre los términos de error. -No es necesario un método de rotación.
10
10 Ventajas del modelo confirmatorio (I) Permite evaluar el ajuste estadístico de nuestros modelos teóricos… fijando: Número de factores Ítems que saturan en cada factor Especificando errores de medida correlacionados
11
11 Ventajas del modelo confirmatorio (II) x3x3 F1F1 x1x1 E1E1 E3E3 x2x2 E2E2 x4x4 E4E4 x5x5 E5E5 x6x6 E6E6 F2F2 - Contraste de hipótesis de invarianza de parámetros a través de sexo, país, nivel educativo,… (tests ó ítems –DIF-) - Análisis de las estructuras de medias x3x3 F1F1 x1x1 E1E1 E3E3 x2x2 E2E2 x4x4 E4E4 x5x5 E5E5 x6x6 E6E6 F2F2 = Grupo 1 Grupo 2
12
12 Modelo confirmatorio Modelos complejos: Análisis factorial de 2º orden, modelos con errores correlacionados Ventajas del modelo confirmatorio (III)
13
13 - Obtención de la correlación entre constructos (similar a la corrección por atenuación). Validación de constructo, mostrando la validez convergente de los indicadores que se espera que estén asociados, y la discriminante (no correlación de los que se espera que no correlacionen). Ventajas del modelo confirmatorio (Iv)
14
14 - Tratamiento de los efectos de método: por ejemplo, los ítems directos e inversos en los cuestionarios. En AFE salen como factores espúreos, no sustantivos. Ventajas del modelo confirmatorio (V)
15
15 -Evaluación psicométrica de tests: - Enfoque alternativo a TRI… análisis factorial para datos categóricos -Modelo logístico de 2 parámetros -Modelo de respuesta graduada. -modelos multidimensionales de TRI… - Nuevas medidas de fiabilidad… Ventajas del modelo confirmatorio (VI)
16
Representación de los modelos
17
17 Se representan mediante “diagramas causales” o “path diagrams”: Tipos de variables: OBSERVABLES: LATENTES: Muy importante el concepto de factor latente! F1 x2 x1 x3 x1 Representación de modelos
18
18 Tipos de relaciones (siempre lineales): FLECHAS BIDIRECCIONALES: Covarianzas o correlaciones FLECHAS UNIDIRECCIONALES: Pesos no estandarizados o pesos estandarizados x1 F1 x1 x2 E1 E2
19
19 EXOGENAS: Variables que el modelo NO intenta explicar (ninguna flecha las apunta) ENDOGENAS: Variables que en el modelo se intentan explicar. Toda variable endogena tiene un error. F1 x1 x2 x3 e1 e2 e3
20
20 Objetivo cuando se genera un modelo confirmatorio: Generar un modelo que sea compatible con la matriz de varianzas-covarianzas entre todas las variables. Las varianzas y covarianzas son función de los parámetros del modelo.
21
21 Ingredientes del modelo Para especificar el modelo, hay que fijar: 1)Número de factores comunes. 2) Relaciones entre las x s y los factores comunes. 3) Si existe o no covariación entre los factores comunes (y entre cuales). 4) Si existe o no covariación entre los factores únicos (y entre cuales).
22
Ecuaciones del modelo
23
23 Análisis Factorial (1 factor) Matriz de varianzas-covarianzas reproducida x1x1 x2x2 e1e1 x3x3 e2e2 e3e3 F1 λ 11 λ 21 λ 31 1 1 1 e1 2 e2 2 e3 2 x4x4 e4e4 e4 2 1 λ 41 F1 2 Modelo: Ecuaciones: x1x1 x2x2 x3x3 x4x4 x1x1 100 x2x2 16100 x3x3 24 100 x4x4 28 42100
24
24 Análisis Factorial (1 factor)
25
x1x1 x2x2 e1e1 x3x3 e2e2 e3e3 F1 λ 11 λ 21 λ 31 1 1 1 e1 2 e2 2 e3 2 x4x4 e4e4 e4 2 1 λ 41 F1 2 Path analysis (Análisis de Senderos)
26
26 Análisis Factorial (1 factor)
27
x1x1 x2x2 e1e1 x3x3 e2e2 e3e3 F1 λ 11 λ 21 λ 31 1 1 1 e1 2 e2 2 e3 2 x4x4 e4e4 e4 2 1 λ 41 F1 2 Path analysis (Análisis de Senderos)
28
Identificación del modelo
29
Ecuaciones… e incognitas x+u=1 y+v=1 x*y=0.24 ----- x+u=1 y+v=1 z+w=1 x*y=0.25 z*y=0.24 z*x=0.24 ----- x+u=1 y+v=1 z+w=1 t+r=1 x*y=0.25 z*y=0.24 z*x=0.24 t*x=0 t*y=0 t*z=0 Infinitas soluciones Identificación… Ajuste….
30
30 ¿es estimable el modelo? Datos o ecuaciones disponibles (p(p+1)/2) Elementos de la matriz de varianzas-covarianzas Parámetros a estimar (t): -10 ecuaciones -9 parámetros Parámetros del modelo: t - Pesos libres entre las variables exógenas y las endogenas - Varianzas/covarianzas entre las variables exógenas No son parámetros del modelo: -Varianzas y Covarianzas de las variables endógenas
31
31 Métrica del factor latente…
32
32 Métrica del factor latente…
33
33 Análisis Factorial (1 factor) Matriz de varianzas-covarianzas reproducida x1x1 x2x2 x3x3 x4x4 x1x1 100 x2x2 16100 x3x3 24 100 x4x4 28 42100 x1x1 x2x2 e1e1 x3x3 e2e2 e3e3 F1 λ 11 λ 21 λ 31 1 1 1 e1 2 e2 2 e3 2 x4x4 e4e4 e4 2 1 λ 41 F1 2 Modelo: Restricciones: - Fijar un peso factorial a 1 - Fijar la varianza del factor a 1
34
34 ¿es estimable el modelo? Datos o ecuaciones disponibles (p(p+1)/2) Elementos de la matriz de varianzas-covarianzas: 10 Parámetros a estimar (t): 8 Grados de libertad: 2 Gl=(p(p+1)/2)-t < 0: Modelo no identificado, hay más incógnitas que ecuaciones 0: Modelo saturado o exactamente identificado. Solución única. Reproduce exactamente la matriz de varianzas-covarianzas >0: Modelo sobreidentificado. Si hay más ecuaciones que incógnitas no hay una solución exacta. Buscaremos aquella solución que haga lo más parecidas posibles la matriz de varianzas-covarianzas observada y la reproducida.
35
SINTAXIS MPLUS (MATRIZ DE VARIANZAS-COVARIANZAS)
36
x1x1 x2x2 e1e1 x3x3 e2e2 e3e3 F1 1 1.1.5 1 1 1 84 64 x4x4 e4e4 51 1 1.75 Parámetros obtenidos (sin estandarizar): 16
37
MODEL RESULTS Estimates S.E. Est./S.E. Std(**) StdYX(*) F BY X1 1.000 0.000 0.000 4.000 0.400 X2 1.000 0.417 2.398 4.000 0.400 X3 1.500 0.536 2.799 6.000 0.600 X4 1.750 0.640 2.734 7.000 0.700 Variances F 16.000 9.707 1.648 1.000 1.000 Residual Variances X1 84.000 13.285 6.323 84.006 0.840 X2 84.000 13.285 6.323 83.999 0.840 X3 64.000 14.206 4.505 63.995 0.640 X4 51.000 16.272 3.135 51.010 0.510 RESULTADOS MPLUS - Coeficientes de la ecuación de regresión (cambios de x en función de cambios en F). Por ejemplo, 4 puntos de cambio en F (una DT) llevan a 4 puntos de cambio en X1. - Varianza de los errores de pronóstico. La varianza de X1 es 100 (en la población general). Sin embargo, para gente igualada en F la varianza de X1 es 84. Significación estadística
38
38 Matriz de varianzas-covarianzas reproducida x1x1 x2x2 x3x3 x4x4 x1x1 100 x2x2 16100 x3x3 24 100 x4x4 28 42100 x1x1 x2x2 x3x3 x4x4 x1x1 x2x2 16100 x3x3 24 100 x4x4 28 42100 OBSERVADA REPRODUCIDA SEGÚN LOS PARÁMETROS DEL MODELO RESIDUOS (observada – estimada) x1x1 x2x2 x3x3 x4x4 x1x1 0 x2x2 00 x3x3 000 x4x4 0000
39
MODEL RESULTS Estimates S.E. Est./S.E. Std(**) StdYX(*) F BY X1 1.000 0.000 0.000 4.000 0.400 X2 1.000 0.417 2.398 4.000 0.400 X3 1.500 0.536 2.799 6.000 0.600 X4 1.750 0.640 2.734 7.000 0.700 Variances F 16.000 9.707 1.648 1.000 1.000 Residual Variances X1 84.000 13.285 6.323 84.000 0.840 X2 84.000 13.285 6.323 84.000 0.840 X3 64.000 14.206 4.505 64.000 0.640 X4 51.000 16.272 3.135 51.000 0.510 RESULTADOS MPLUS: - Coeficientes de la ecuación de regresión estandarizados - Varianza de los errores de pronóstico (unicidades) Correlaciones (si las variables exógenas son independientes) unicidades
40
40 x1x1 z2z2 e1e1 x3x3 e2e2 e3e3 F1.4.6 1 1 1.84.64 z4z4 e4e4.51 1.7 Parámetros obtenidos (sin estandarizar): Parámetros obtenidos (estandarizados): 1 Para obtener el parámetro estandarizado se multiplica por la desviación típica de la variable exógena y se divide por la desviación típica de la variable endogena
41
Matriz de correlaciones reproducida OBSERVADA REPRODUCIDA SEGÚN LOS PARÁMETROS DEL MODELO RESIDUOS x1x1 x2x2 x3x3 x4x4 x1x1 0 x2x2 00 x3x3 000 x4x4 0000 zx 1 zx 2 zx 3 zx 4 zx 1 1 zx 2.161 zx 3.24 1 zx 4.28.421 zx 1 zx 2 zx 3 zx 4 zx 1 1 zx 2.161 zx 3.24 1 zx 4.28.421
42
42 Modelo no identificado ξ1ξ1 x1x1 x2x2 e1e1 e2e2 Con dos indicadores, 3 datos: las dos varianzas y la covarianza. En el ejemplo habría que estimar: 1 lambda (la otra se fija una a 1, para fijar la escala), la varianza del factor común, las varianzas de los 2 factores únicos (la covarianza entre ellos se ha fijado a cero) (4 parámetros). Luego gl = -1. p q 0.24=p*q
43
10-9=1 10-8=2 p q p q r s
44
Puede ocurrir que los grados de libertad no sean negativos y, sin embargo, que el modelo no tenga solución: -Falta de Falta de identificación identificación parcial empírica 10-8=210-9=1 p q p q z
45
45 Modelo en ecuaciones (2 factores) x1x1 x2x2 x3x3 x4x4 x5x5 e1e1 e2e2 e3e3 e4e4 e5e5 ξ1ξ1 ξ2ξ2 λ 11 λ 21 λ 32 λ 42 λ 52 1 1 1 1 1 λ 31
46
Pesos factoriales Varianzas-Covarianzas entre factores latentes Varianzas-Covarianzas entre errores Varianzas-Covarianzas teóricas
48
48 x1x1 x2x2 x3x3 x4x4 x5x5 e1e1 e2e2 e3e3 e4e4 e5e5 ξ1ξ1 ξ2ξ2
49
49 x1x1 x2x2 x3x3 x4x4 x5x5 e1e1 e2e2 e3e3 e4e4 e5e5 ξ1ξ1 ξ2ξ2
50
50 x1x1 x2x2 x3x3 x4x4 x5x5 e1e1 e2e2 e3e3 e4e4 e5e5 ξ1ξ1 ξ2ξ2
51
51 Identificación del modelo 15 ecuaciones: (5*6)/2 12 parámetros: 6 lambdas (λ), 1 covarianza entre factores comunes (Φ ij ), 2 varianzas de los factores comunes (Φ ii ), 5 varianzas de los factores únicos (θ ii ) [Para fijar la escala, se fijan a 1 bien las dos varianzas de los factores comunes o bien una lambda de cada factor común] Luego, tendríamos 15 – 12 = 3 grados de libertad. x1x1 x2x2 x3x3 x4x4 x5x5 e1e1 e2e2 e3e3 e4e4 e5e5 ξ1ξ1 ξ2ξ2 λ 11 λ 21 λ 32 λ 42 λ 52 1 1 1 1 1 λ 31
53
Covariances/Correlations/Residual Correlations X1 X2 X3 X4 X5 ________ ________ ________ ________ ________ X1 100.000 X2 36.000 100.000 X3 38.000 40.000 100.000 X4 13.000 25.000 46.000 100.000 X5 13.000 10.000 48.000 53.000 100.000
54
MODEL RESULTS Estimates S.E. Est./S.E. Std StdYX F1 BY X1 5.854 1.223 4.787 5.854 0.588 X2 6.089 1.240 4.912 6.089 0.612 X3 4.850 1.222 3.970 4.850 0.487 F2 BY X3 4.764 1.128 4.222 4.764 0.479 X4 7.004 1.069 6.552 7.004 0.704 X5 7.492 1.079 6.943 7.492 0.753 F2 WITH F1 0.340 0.157 2.168 0.340 0.340 Variances F1 1.000 0.000 0.000 1.000 1.000 F2 1.000 0.000 0.000 1.000 1.000 Residual Variances X1 64.733 13.288 4.872 64.733 0.654 X2 61.932 13.611 4.550 61.932 0.626 X3 37.086 10.160 3.650 37.086 0.375 X4 49.953 11.311 4.416 49.953 0.505 X5 42.870 11.788 3.637 42.870 0.433
55
Cuando los predictores están correlacionados los pesos estandarizados no son correlaciones de Pearson… son correlaciones semi-parciales r F1F2 1 1 1 F1 F2 X3 E x3 F2’ r x3F1 1 Cambios en X3, en función de la parte de F2 que no tiene que ver con F1. Manteniendo F1, constante: cuál es el efecto de F2 en X3 1
56
Estimación de parámetros
57
57 Estimación de parámetros Estimadores de los elementos de Σ; es decir, de Λ, Θ y Φ, que hagan que Σ se acerque los más posible a S. Se llama función de ajuste (o discrepancia) a F(S, ) Procedimientos de estimación: -Mínimos cuadrados no ponderados (ULS) -Mínimos cuadrados generalizados (GLS) -Máxima verosimilitud (ML) -Mínimos cuadrados ponderados (WLS)
58
-.001 -.002 -.244.218 … p*(p+1)/2 elementos distintos de la matriz de varianzas-covarianzas residuales Residuals for Covariances/Correlations/Residual Correlations X1 X2 X3 X4 X5 ________ ________ ________ ________ ______ X1 -0.001 X2 -0.001 -0.002 X3 -0.244 0.218 -0.002 X4 -1.056 10.266 0.637 -0.003 X5 -2.027 -5.594 -0.516 -0.001 -0.001 ¿Cómo ponderarlos?
59
Estimación de parámetros Función de discrepancia: Se busca minimizar el tamaño de los residuos. 1) Valor mínimo = 0 (Ajuste perfecto) 2) Cuanto mayores son los residuos mayor es F (independientemente de la dirección de los residuos) 3) Ser cauto al utilizarlo, sensible a la escala de las variables. No asume distribución de las variables. No proporciona errores típicos. ULS: Mínimos Cuadrados no Ponderados
60
El tamaño de las discrepancias depende de las unidades de medida de las variables 60
61
Matriz de varianzas-covarianzas asintótica s 11 S 12 s 22 10690 9387 11484 12572 ……… s 11 s 12 s 22 10*k 2 6*k90 9*k 2 3*k87 11*k 2 4*k84 12*k 2 5*k72 ………
62
62 s 11 s 12 s 22 s 11 S 2 S11 s 12 S S11,S11 S 2 S12 s 22 S S11,S22 S S12,S22 S 2 S22
63
63 Ponderación de las discrepancias ULS: s i = j, w=1, de lo contrario w=0 GLS: w depende de las varianzas y covarianzas de las variables (S), más peso a la discrepancia cuanto menor las varianzas (covarianzas) de las variables implicadas. No cambia de iteración a iteración. ML: w depende de las varianzas y covarianzas de las variables , más peso a la discrepancia cuanto menor las varianzas (covarianzas) de las variables implicadas. Cambia de iteración a iteración. WLS: w tiene en cuenta la falta de normalidad de las variables, pero requiere estimar la matriz W de k*(k+1)/2 elementos, donde k=p*(p+1)/2 Se relaciona inversamente con la varianza muestral del producto de discrepancias i y j -.001 -.002 -.244.218 …
64
64 ML: Máxima Verosimilitud Asumiendo una distribución multivariada normal para las variables (en diferenciales) la función de verosimilitud sólo depende de la matriz de varianzas-covarianzas : Si la distribución es multivariada normal. La matriz de varianzas- covarianzas sigue una distribución conocida (de Wishart). Por lo tanto, se maximiza la siguiente función: Maximizar lo anterior es equivalente a minimizar la siguiente función de discrepancia: Ventaja: Proporciona medidas estadísticas de ajuste del modelo y de errores típicos de estimación
65
Máxima verosimilitud (ML): Qué parámetros hacen más probables los datos observados Se asume que las variables se distribuyen normalmente. Mínimos cuadrados generalizados (GLS): Se asume que las variables se distribuyen normalmente. Mínimos cuadrados ponderados (WLS). No asume normalidad de las variables… …pero requiere muestras muy grandes. Métodos robustos: Nuevos métodos (DWLS/WLSMV/MLMV)
66
Teóricamente… 66 ML diferirá de GLS y WLS: Si el modelo es incorrecto. WLS diferirá de ML y GLS : Si los datos no se distribuyen normalmente.
67
67 Recomendaciones Se cumplen supuestos: ML, pues ofrece errores típicos (y contrastes estadísticos), aunque: -Problemas de convergencia (muestras pequeñas/nº indicadores por factor pequeño) -más casos Heywood (p.e., unicidades negativas) -resultados más distorsionados si el modelo se especifica mal o si no se cumplen los supuestos, ULS puede ser incorrecto si las diferencias de varianzas en las variables son arbitrarias
68
Comprobación del ajuste
70
Ajuste de los modelos 2 CRITERIOS DE AJUSTE BIEN DIFERENCIADOS: Modelos que hagan los residuos pequeños en nuestra muestra Modelos parsimoniosos (¿se repetirían los resultados en otra muestra?)
71
71 Indicadores de ajuste Índices de ajuste absoluto: Medidas basadas en los residuos: Standardized Root Mean Squared Residuals (SRMR ) Índices de ajuste comparativo: Normed Fit Index (NFI) Non-Normed Fit Index (NNFI o TLI) Comparative Fit Index (CFI) Medidas en errores de aproximación: Root Mean Square Error of Aproximation (RMSEA) Medidas basadas en la información: Akaike Information Criterion (AIC) Bayes Information Criterion (BIC)
72
Estadístico chi-cuadrado La p asociada indica la probabilidad de obtener una función de discrepancia tan grande como la obtenida en la muestra si nuestro modelo fuera correcto en la población. Hipótesis nula: La función de discrepancia es cero en la población Hipótesis alternativa: La función de discrepancia no es cero en la población Problemas: 1.La hipótesis nula nunca es cierta. 2.Depende del tamaño de la muestra. CHI/DF: Regla informal. El valor esperado de CHI es DF. Si la ratio es 1 entonces el modelo se ajusta. Suelen considerarse aceptables si son menores de 5 (preferiblemente menores que 3 ó 2). Problema: sensible al tamaño muestral
73
x1x1 x2x2 x3x3 x4x4 x5x5 e1e1 e2e2 e3e3 e4e4 e5e5 ξ1ξ1 ξ2ξ2 λ 11 λ 21 λ 32 λ 42 λ 52 1 1 1 1 1 λ 31 Residuals for Covariances/Correlations/Residual Correlations X1 X2 X3 X4 X5 ________ ________ ________ ________ ______ X1 -0.001 X2 -0.001 -0.002 X3 -0.244 0.218 -0.002 X4 -1.056 10.266 0.637 -0.003 X5 -2.027 -5.594 -0.516 -0.001 -0.001
74
TESTS OF MODEL FIT Chi-Square Test of Model Fit Value 3.465 Degrees of Freedom 3 P-Value 0.3254 Chi-Square Test of Model Fit for the Baseline Model Value 110.211 Degrees of Freedom 10 P-Value 0.0000 Modelo de independencia de variables Nuestro modelo MODELO DE INDEPENDENCIA: MODELO EN EL QUE SE ESTIMAN COMO PARÁMETROS LAS VARIANZAS Y SE FIJAN EL RESTO DE PARÁMETROS (COVARIANZAS) A 0.
75
x5x5 x4x4 x3x3 x1x1 x2x2 e1e1 e2e2 e3e3 e4e4 e5e5
76
76 Medidas de bondad de ajuste Índices de ajuste comparativo Regla: ≥ 0.95. Rango: 0 – 1.
77
Chi-Square Test of Model Fit Value 3.465 Degrees of Freedom 3 P-Value 0.3254 Chi-Square Test of Model Fit for the Baseline Model Value 110.211 Degrees of Freedom 10 P-Value 0.0000 CFI/TLI CFI 0.995 TLI 0.985
78
RMR: - El promedio de los residuos. Poco informativo si no se analiza la matriz de correlaciones. SRMR: - promedio de los residuos calculados sobre la matriz de correlaciones, debe ser menor que.06..
79
SRMR (Standardized Root Mean Square Residual) Value 0.031
80
Afecta al tamaño de los residuos: Σ(modelo real) Σ (nuestro modelo) S (observada) F P : Error de Aproximación en la población (disminuye al aumentar el número de parámetros) (no depende del tamaño de la muestra) S (nuestro modelo) VARIACION MUESTRAL VARIACION DEBIDA AL MODELO F: Función de discrepancia (mayor que el error de aproximación) Error de estimación (depende del tamaño de la muestra)
81
81 Medidas de bondad de ajuste Medidas basadas en errores de aproximación RMSEA (root mean square error of aproximation) Hemos visto que (N-1)F ~χ 2 con parámetro gl. si el modelo propuesto en H 0 es correcto. En ese caso, en sucesivas muestras, tendremos diferentes valores de (N-1)F cuya distribución es χ 2 con parámetro gl. Error de estimación. En realidad, (N-1)F ~χ 2 es no centrada con parámetros gl y parámetro de no centralidad (N-1)F 0, (cuando el modelo no es correcto. Error de aproximación.
82
RMSEA (Raiz del Error Cuadrático de Aproximación) - mayor que 0. Preferiblemente por debajo de 0.05 (recomendable por debajo de 0.08, nunca por encima de 0.10) - Indica el error de aproximación medio por cada grado de libertad. - No depende del tamaño de la muestra - Penaliza por la complejidad del modelo.
83
Ejemplo (continua) RMSEA (Root Mean Square Error Of Approximation) Estimate 0.039 90 Percent C.I. 0.000 0.178 Probability RMSEA <=.05 0.433
84
84 Medidas de bondad de ajuste Medidas basadas en la información Akaike Information criterion: AIC = 2k - 2ln(L) Medidas basadas en la información Bayes Information criterion: BIC = kln(N) - 2ln(L) k = número de parámetros libres L = función de verosimilitud H 0 N= tamaño muestra Regla: cuanto menor, mas apropiado el modelo. Medida indicada para la comparación de modelos no anidados.
85
Loglikelihood H0 Value -1804.876 H1 Value -1803.144 Information Criteria Number of Free Parameters 12 Akaike (AIC) 3633.752 Bayesian (BIC) 3665.014
86
86 The Journal of Educational Research, 2006, 99, 6, 323-337
87
87 Recomendaciones Para decidir el ajuste hay que fijarse en -Los indicadores de ajuste vistos. - Si los coeficientes estimados son significativos. -La comunalidad de cada indicador.
88
Reespecificación de los modelos Índices de modificación: Cambio 2 si añadieramos el nuevo parámetro al modelo. Si es mayor que 3.84 eso indica que el cambio sería significativo al 5%. Preferiblemente no utilizar o solo utilizar si las muestras son muy grandes (capitalización del azar).
Presentaciones similares
© 2025 SlidePlayer.es Inc.
All rights reserved.