Introducción al Análisis factorial confirmatorio Lectura básica: Cap. 13 del texto Ampliación: Brown, T. A. (2006). Confirmatory Factor Analysis for Applied.

Slides:



Advertisements
Presentaciones similares
DISEÑO DE EXPERIMENTOS EXPERIMENTOS DE COMPARACIÓN SIMPLE
Advertisements

Tema 6: Regresión lineal.
Técnicas para el análisis de datos en el enfoque cuantitativo
Modelos de Variable Dependiente Binaria -Logit y Probit-
Selección del modelo adecuado
KRIGING.
ESTRATEGIAS Y DISEÑOS AVANZADOS DE INVESTIGACIÓN
MANUAL DE LABORATORIO DE CÓMPUTO ECONOMETRÍA I MULTICOLINEALIDAD
ESTRATEGIAS Y DISEÑOS AVANZADOS DE INVESTIGACIÓN SOCIAL
METODOLOGÍA DE INVESTIGACIÓN Titular: Agustín Salvia
Econometria 2. Modelo de Regresión Lineal Simple
Modelo básico de regresión Lineal
Tests de permutaciones y tests de aleatorización
Capitulo 10: La metodología Box-Jenkins
Regresión y correlación
ANÁLISIS DISCRIMINANTE
Problema de la medición en Psicología
CONTRASTE Y VALIDACIÓN DE UN MODELO
Estadística Descriptiva: 4. Correlación y Regresión Lineal
Tema 1- Regresión lineal simple.
COEFICIENTE DE CORRELACIÓN PRODUCTO-MOMENTO DE PEARSON
Estadística Descriptiva: 4. Correlación y Regresión Lineal Ricardo Ñanculef Alegría Universidad Técnica Federico Santa María.
9 Regresión Lineal Simple
División de Estudios Políticos, CIDE
Tema 2: Métodos de ajuste
Prueba de hipótesis Equivalencia entre la prueba de hipótesis y los intervalos de confianza Valor de probabilidad Valor de probabilidad unilateral Prueba.
Tests de hipótesis Los tres pasos básicos para testear hipótesis son
Análisis de la estructura de medias. 2 Hasta ahora, análisis de la estructura de covarianzas (como trabajar con puntuaciones diferenciales) En los análisis.
Análisis Factorial de Datos Categóricos
1 Planteamiento del problema ¿Tenemos los humanos la capacidad de percibir si nos miran desde atrás? O, más exactamente: ¿Es defendible que existen otras.
MODELOS DE ELECCIÓN BINARIA: ANÁLISIS LOGIT
CONTRASTE Y VALIDACIÓN DE UN MODELO
TIPOS DE MODELOS DE REGRESIÓN Y SUPUESTOS PARA EL MODELO A
MODELOS GENERALIZADOS
Pronósticos, Series de Tiempo y Regresión
Modelo de regresión simple: Y =  1 +  2 X + u 1 Hemos visto que los coeficientes de regresión b 1 y b 2 son variables aleatorias. Estos, respectivamente,
Tema 17: Contraste paramétrico de hipótesis I: Pruebas de contraste para un grupo. Pruebas de contraste para dos grupos: independientes o relacionados.
Tema 7: Regresión Simple y Múltiple. EJEMPLO: Aproxima bien el número de préstamos que efectúa una biblioteca a lo largo de su primer año de vida. Nos.
ESTADÍSTICA BÁSICA EN ECOLOGÍA EVOLUTIVA Juan J. Soler Cruz Estación Experimental de Zonas Áridas Almería.
Modelo de regresión con dos variables: Estimación
Unidad V: Estimación de
Métodos de calibración: regresión y correlación
Introducción La inferencia estadística es el procedimiento mediante el cual se llega a inferencias acerca de una población con base en los resultados obtenidos.
Titular: Agustín Salvia
Introducción a la Inferencia Estadística
LA RECTA DE REGRESIÓN CONTENIDOS:
Herramientas básicas.
Estimador de Efectos Fijos
Capítulo 1. Conceptos básicos de la Estadística
Tema 5: Contrastes de Hipótesis no-paramétricos
Segunda sesión.
CO-2124 Análisis de Varianza con Un Criterio de Clasificación En clases anteriores se deseaba determinar si existían diferencias entre las medias de dos.
Pruebas de hipótesis.
Maestría en Transporte Regresamos... (el problema de la regresión lineal) Clase 5.
Estadística II Regresión Lineal.
Análisis de los Datos Cuantitativos
ESTIMACIÓN DE PARÁMETROS
Correlación Decimos que dos variables, X e Y, están correlacionadas cuando hay una relación cuantitativa entre ellas. X suele ser la variable independiente.
Ejercicios Dado un conjunto de datos, aplicar el Criterio de Fourier para desechar los posibles valores atípicos.
Unidad 4 Análisis de los Datos.
INFERENCIA ESTADÍSTICA
Germán Fromm R. 1. Objetivo Entender los diseños metodológicos predictivos 2.
TEMA 4 LA VALIDEZ DE LA INVESTIGACIÓN
ESTADISTICA DESCRIPTIVA BIVARIADA MEDIDAS DE RELACIÓN ENTRE VARIABLES CUANTITATIVAS.
Introducción a la Estadística Inferencial con SPSS Juan José Igartua Perosanz Universidad de Salamanca
REGRESIÓN LINEAL SIMPLE TEMA INTRODUCCIÓN Determinar la ecuación de regresión sirve para: – Describir de manera concisa la relación entre variables.
Licenciatura en Psicopedagogía: Métodos, Diseños y Técnicas de Investigación Psicológica Tema 9 Fiabilidad de las puntuaciones.
Bioestadística Inferencia estadística y tamaño de muestra
Free and Quick translation of Prof. Anderson's slides1 Analisis de Regresion Multiple y =  0 +  1 x 1 +  2 x  k x k + u 1. Estimacion.
TEMA 7 ANÁLISIS DE LOS RESULTADOS TEMA 7 ANÁLISIS DE LOS RESULTADOS.
Transcripción de la presentación:

Introducción al Análisis factorial confirmatorio Lectura básica: Cap. 13 del texto Ampliación: Brown, T. A. (2006). Confirmatory Factor Analysis for Applied Research. New York: The Guilford Press. Programas: LISREL, AMOS, EQS, Mplus

2 1.) AFE versus AFC 2.) Aplicaciones

3 Ítems del EPQ-R (neuroticismo) Z1. ¿Su estado de ánimo sufre altibajos con frecuencia? Z2. ¿Se siente a veces desdichado sin motivo? Z3. ¿A menudo se siente solo? Z4. ¿Es usted una persona sufridora? Z5. ¿Se inquieta por cosas terribles que podrían suceder? Z6. ¿Se siente intranquilo por su salud? z1z2z3z4z5z6 Z Z Z Z Z Z61

4 MUCHAS SOLUCIONES POSIBLES F1F2z1z2z3z4z5z6 Z1 ?? r*\r Z Z2 ?? Z3 ?? Z4 ?? Z5 ?? Z6 ?? Resid ual Z1 Z2.003 Z Z Z Z Minimizar diferencias entre la matriz de correlaciones observada y la reproducida 1 factor? 2 factores? 3 factores?

5 Análisis Factorial Exploratorio ¿Su estado de ánimo sufre altibajos con frecuencia? ¿Se siente a veces desdichado sin motivo? ¿A menudo se siente solo? ¿Es usted una persona sufridora? ¿Se inquieta por cosas terribles que podrían suceder? ¿Se siente intranquilo por su salud? z 1 =.628 * F * F 2 + E 1 z 2 =.866 * F * F 2 + E 2 z 3 =.453 *F * F 2 + E 3 z 4 =.189 * F * F 2 + E 4 z 5 =.073 * F * F 2 + E 5 z 6 =.078 * F * F 2 + E 6

6 z3z3 F1F1 z1z1 E1E1 E3E3 z2z2 E2E2 z4z4 E4E4 z5z5 E5E5 z6z6 E6E6 F2F2 Modelo exploratorio Cuantos factores? Criterio para la Rotación? DATOS  MODELO REPRESENTACIÓN:

7 z3z3 F1F1 z1z1 E1E1 E3E3 z2z2 E2E2 z4z4 E4E4 z5z5 E5E5 z6z6 E6E6 F2F2 Modelo confirmatorio MODELO  DATOS Factor 1 Factor 2 Z1Z Z2Z Z3Z Z4Z Z5Z Z6Z r F1F2 =0.631

8 z3z3 F1F1 z1z1 E1E1 E3E3 z2z2 E2E2 z4z4 E4E4 z5z5 E5E5 z6z6 E6E6 F2F2 Modelo exploratorio: Modelo inicial DATOS  MODELO Factor 1 Factor 2 Z1Z1 00 Z2Z2 X0 Z3Z3 XX Z4Z4 XX Z5Z5 XX Z6Z6 XX r F1F2 = 0

9 AFE versus AFC Similitudes -Técnica de reducción de dimensionalidad: Se buscan (pocos) factores comunes que expliquen la matriz de var-cov, S. -Muchos procedimientos (p.e., de estimación) son comunes a AFE y AFC. Diferencias -No explora la relación entre variables o constructos, sino que las contrasta: -Se supone un número concreto de factores comunes y qué variables empíricas (indicadores) los miden. -Se supone la existencia o no de relación entre los factores. -Se pueden establecer correlaciones entre los términos de error. -No es necesario un método de rotación.

10 Ventajas del modelo confirmatorio (I) Permite evaluar el ajuste estadístico de nuestros modelos teóricos… fijando: Número de factores Ítems que saturan en cada factor Especificando errores de medida correlacionados

11 Ventajas del modelo confirmatorio (II) x3x3 F1F1 x1x1 E1E1 E3E3 x2x2 E2E2 x4x4 E4E4 x5x5 E5E5 x6x6 E6E6 F2F2 - Contraste de hipótesis de invarianza de parámetros a través de sexo, país, nivel educativo,… (tests ó ítems –DIF-) - Análisis de las estructuras de medias x3x3 F1F1 x1x1 E1E1 E3E3 x2x2 E2E2 x4x4 E4E4 x5x5 E5E5 x6x6 E6E6 F2F2 = Grupo 1 Grupo 2

12 Modelo confirmatorio Modelos complejos: Análisis factorial de 2º orden, modelos con errores correlacionados Ventajas del modelo confirmatorio (III)

13 - Obtención de la correlación entre constructos (similar a la corrección por atenuación). Validación de constructo, mostrando la validez convergente de los indicadores que se espera que estén asociados, y la discriminante (no correlación de los que se espera que no correlacionen). Ventajas del modelo confirmatorio (Iv)

14 - Tratamiento de los efectos de método: por ejemplo, los ítems directos e inversos en los cuestionarios. En AFE salen como factores espúreos, no sustantivos. Ventajas del modelo confirmatorio (V)

15 -Evaluación psicométrica de tests: - Enfoque alternativo a TRI… análisis factorial para datos categóricos -Modelo logístico de 2 parámetros -Modelo de respuesta graduada. -modelos multidimensionales de TRI… - Nuevas medidas de fiabilidad… Ventajas del modelo confirmatorio (VI)

Representación de los modelos

17 Se representan mediante “diagramas causales” o “path diagrams”: Tipos de variables: OBSERVABLES: LATENTES: Muy importante el concepto de factor latente! F1 x2 x1 x3 x1 Representación de modelos

18 Tipos de relaciones (siempre lineales): FLECHAS BIDIRECCIONALES: Covarianzas o correlaciones FLECHAS UNIDIRECCIONALES: Pesos no estandarizados o pesos estandarizados x1 F1 x1 x2 E1 E2

19 EXOGENAS: Variables que el modelo NO intenta explicar (ninguna flecha las apunta) ENDOGENAS: Variables que en el modelo se intentan explicar. Toda variable endogena tiene un error. F1 x1 x2 x3 e1 e2 e3

20 Objetivo cuando se genera un modelo confirmatorio: Generar un modelo que sea compatible con la matriz de varianzas-covarianzas entre todas las variables. Las varianzas y covarianzas son función de los parámetros del modelo.

21 Ingredientes del modelo Para especificar el modelo, hay que fijar: 1)Número de factores comunes. 2) Relaciones entre las x s y los factores comunes. 3) Si existe o no covariación entre los factores comunes (y entre cuales). 4) Si existe o no covariación entre los factores únicos (y entre cuales).

Ecuaciones del modelo

23 Análisis Factorial (1 factor) Matriz de varianzas-covarianzas reproducida x1x1 x2x2 e1e1 x3x3 e2e2 e3e3 F1 λ 11 λ 21 λ  e1 2  e2 2  e3 2 x4x4 e4e4  e4 2 1 λ 41  F1 2 Modelo: Ecuaciones: x1x1 x2x2 x3x3 x4x4 x1x1 100 x2x x3x x4x

24 Análisis Factorial (1 factor)

x1x1 x2x2 e1e1 x3x3 e2e2 e3e3 F1 λ 11 λ 21 λ  e1 2  e2 2  e3 2 x4x4 e4e4  e4 2 1 λ 41  F1 2 Path analysis (Análisis de Senderos)

26 Análisis Factorial (1 factor)

x1x1 x2x2 e1e1 x3x3 e2e2 e3e3 F1 λ 11 λ 21 λ  e1 2  e2 2  e3 2 x4x4 e4e4  e4 2 1 λ 41  F1 2 Path analysis (Análisis de Senderos)

Identificación del modelo

Ecuaciones… e incognitas x+u=1 y+v=1 x*y= x+u=1 y+v=1 z+w=1 x*y=0.25 z*y=0.24 z*x= x+u=1 y+v=1 z+w=1 t+r=1 x*y=0.25 z*y=0.24 z*x=0.24 t*x=0 t*y=0 t*z=0 Infinitas soluciones Identificación… Ajuste….

30 ¿es estimable el modelo? Datos o ecuaciones disponibles (p(p+1)/2) Elementos de la matriz de varianzas-covarianzas Parámetros a estimar (t): -10 ecuaciones -9 parámetros Parámetros del modelo: t - Pesos libres entre las variables exógenas y las endogenas - Varianzas/covarianzas entre las variables exógenas No son parámetros del modelo: -Varianzas y Covarianzas de las variables endógenas

31 Métrica del factor latente…

32 Métrica del factor latente…

33 Análisis Factorial (1 factor) Matriz de varianzas-covarianzas reproducida x1x1 x2x2 x3x3 x4x4 x1x1 100 x2x x3x x4x x1x1 x2x2 e1e1 x3x3 e2e2 e3e3 F1 λ 11 λ 21 λ  e1 2  e2 2  e3 2 x4x4 e4e4  e4 2 1 λ 41  F1 2 Modelo: Restricciones: - Fijar un peso factorial a 1 - Fijar la varianza del factor a 1

34 ¿es estimable el modelo? Datos o ecuaciones disponibles (p(p+1)/2) Elementos de la matriz de varianzas-covarianzas: 10 Parámetros a estimar (t): 8 Grados de libertad: 2 Gl=(p(p+1)/2)-t < 0: Modelo no identificado, hay más incógnitas que ecuaciones 0: Modelo saturado o exactamente identificado. Solución única. Reproduce exactamente la matriz de varianzas-covarianzas >0: Modelo sobreidentificado. Si hay más ecuaciones que incógnitas no hay una solución exacta. Buscaremos aquella solución que haga lo más parecidas posibles la matriz de varianzas-covarianzas observada y la reproducida.

SINTAXIS MPLUS (MATRIZ DE VARIANZAS-COVARIANZAS)

x1x1 x2x2 e1e1 x3x3 e2e2 e3e3 F x4x4 e4e Parámetros obtenidos (sin estandarizar): 16

MODEL RESULTS Estimates S.E. Est./S.E. Std(**) StdYX(*) F BY X X X X Variances F Residual Variances X X X X RESULTADOS MPLUS - Coeficientes de la ecuación de regresión (cambios de x en función de cambios en F). Por ejemplo, 4 puntos de cambio en F (una DT) llevan a 4 puntos de cambio en X1. - Varianza de los errores de pronóstico. La varianza de X1 es 100 (en la población general). Sin embargo, para gente igualada en F la varianza de X1 es 84. Significación estadística

38 Matriz de varianzas-covarianzas reproducida x1x1 x2x2 x3x3 x4x4 x1x1 100 x2x x3x x4x x1x1 x2x2 x3x3 x4x4 x1x1 x2x x3x x4x OBSERVADA REPRODUCIDA SEGÚN LOS PARÁMETROS DEL MODELO RESIDUOS (observada – estimada) x1x1 x2x2 x3x3 x4x4 x1x1 0 x2x2 00 x3x3 000 x4x4 0000

MODEL RESULTS Estimates S.E. Est./S.E. Std(**) StdYX(*) F BY X X X X Variances F Residual Variances X X X X RESULTADOS MPLUS: - Coeficientes de la ecuación de regresión estandarizados - Varianza de los errores de pronóstico (unicidades) Correlaciones (si las variables exógenas son independientes) unicidades

40 x1x1 z2z2 e1e1 x3x3 e2e2 e3e3 F z4z4 e4e Parámetros obtenidos (sin estandarizar): Parámetros obtenidos (estandarizados): 1 Para obtener el parámetro estandarizado se multiplica por la desviación típica de la variable exógena y se divide por la desviación típica de la variable endogena

Matriz de correlaciones reproducida OBSERVADA REPRODUCIDA SEGÚN LOS PARÁMETROS DEL MODELO RESIDUOS x1x1 x2x2 x3x3 x4x4 x1x1 0 x2x2 00 x3x3 000 x4x zx 1 zx 2 zx 3 zx 4 zx 1 1 zx zx zx zx 1 zx 2 zx 3 zx 4 zx 1 1 zx zx zx

42 Modelo no identificado ξ1ξ1 x1x1 x2x2 e1e1 e2e2 Con dos indicadores, 3 datos: las dos varianzas y la covarianza. En el ejemplo habría que estimar: 1 lambda (la otra se fija una a 1, para fijar la escala), la varianza del factor común, las varianzas de los 2 factores únicos (la covarianza entre ellos se ha fijado a cero) (4 parámetros). Luego gl = -1. p q 0.24=p*q

10-9=1 10-8=2 p q p q r s

Puede ocurrir que los grados de libertad no sean negativos y, sin embargo, que el modelo no tenga solución: -Falta de Falta de identificación identificación parcial empírica 10-8=210-9=1 p q p q z

45 Modelo en ecuaciones (2 factores) x1x1 x2x2 x3x3 x4x4 x5x5 e1e1 e2e2 e3e3 e4e4 e5e5 ξ1ξ1 ξ2ξ2 λ 11 λ 21 λ 32 λ 42 λ λ 31

Pesos factoriales Varianzas-Covarianzas entre factores latentes Varianzas-Covarianzas entre errores Varianzas-Covarianzas teóricas

48 x1x1 x2x2 x3x3 x4x4 x5x5 e1e1 e2e2 e3e3 e4e4 e5e5 ξ1ξ1 ξ2ξ2

49 x1x1 x2x2 x3x3 x4x4 x5x5 e1e1 e2e2 e3e3 e4e4 e5e5 ξ1ξ1 ξ2ξ2

50 x1x1 x2x2 x3x3 x4x4 x5x5 e1e1 e2e2 e3e3 e4e4 e5e5 ξ1ξ1 ξ2ξ2

51 Identificación del modelo 15 ecuaciones: (5*6)/2 12 parámetros: 6 lambdas (λ), 1 covarianza entre factores comunes (Φ ij ), 2 varianzas de los factores comunes (Φ ii ), 5 varianzas de los factores únicos (θ ii ) [Para fijar la escala, se fijan a 1 bien las dos varianzas de los factores comunes o bien una lambda de cada factor común] Luego, tendríamos 15 – 12 = 3 grados de libertad. x1x1 x2x2 x3x3 x4x4 x5x5 e1e1 e2e2 e3e3 e4e4 e5e5 ξ1ξ1 ξ2ξ2 λ 11 λ 21 λ 32 λ 42 λ λ 31

Covariances/Correlations/Residual Correlations X1 X2 X3 X4 X5 ________ ________ ________ ________ ________ X X X X X

MODEL RESULTS Estimates S.E. Est./S.E. Std StdYX F1 BY X X X F2 BY X X X F2 WITH F Variances F F Residual Variances X X X X X

Cuando los predictores están correlacionados los pesos estandarizados no son correlaciones de Pearson… son correlaciones semi-parciales r F1F F1 F2 X3 E x3 F2’ r x3F1 1 Cambios en X3, en función de la parte de F2 que no tiene que ver con F1. Manteniendo F1, constante: cuál es el efecto de F2 en X3 1

Estimación de parámetros

57 Estimación de parámetros Estimadores de los elementos de Σ; es decir, de Λ, Θ y Φ, que hagan que Σ se acerque los más posible a S. Se llama función de ajuste (o discrepancia) a F(S, ) Procedimientos de estimación: -Mínimos cuadrados no ponderados (ULS) -Mínimos cuadrados generalizados (GLS) -Máxima verosimilitud (ML) -Mínimos cuadrados ponderados (WLS)

… p*(p+1)/2 elementos distintos de la matriz de varianzas-covarianzas residuales Residuals for Covariances/Correlations/Residual Correlations X1 X2 X3 X4 X5 ________ ________ ________ ________ ______ X X X X X ¿Cómo ponderarlos?

Estimación de parámetros Función de discrepancia: Se busca minimizar el tamaño de los residuos. 1) Valor mínimo = 0 (Ajuste perfecto) 2) Cuanto mayores son los residuos mayor es F (independientemente de la dirección de los residuos) 3) Ser cauto al utilizarlo, sensible a la escala de las variables. No asume distribución de las variables. No proporciona errores típicos. ULS: Mínimos Cuadrados no Ponderados

El tamaño de las discrepancias depende de las unidades de medida de las variables 60

Matriz de varianzas-covarianzas asintótica s 11 S 12 s ……… s 11 s 12 s 22 10*k 2 6*k90 9*k 2 3*k87 11*k 2 4*k84 12*k 2 5*k72 ………

62 s 11 s 12 s 22 s 11 S 2 S11 s 12 S S11,S11 S 2 S12 s 22 S S11,S22 S S12,S22 S 2 S22

63 Ponderación de las discrepancias ULS: s i = j, w=1, de lo contrario w=0 GLS: w depende de las varianzas y covarianzas de las variables (S), más peso a la discrepancia cuanto menor las varianzas (covarianzas) de las variables implicadas. No cambia de iteración a iteración. ML: w depende de las varianzas y covarianzas de las variables , más peso a la discrepancia cuanto menor las varianzas (covarianzas) de las variables implicadas. Cambia de iteración a iteración. WLS: w tiene en cuenta la falta de normalidad de las variables, pero requiere estimar la matriz W de k*(k+1)/2 elementos, donde k=p*(p+1)/2 Se relaciona inversamente con la varianza muestral del producto de discrepancias i y j …

64 ML: Máxima Verosimilitud Asumiendo una distribución multivariada normal para las variables (en diferenciales) la función de verosimilitud sólo depende de la matriz de varianzas-covarianzas : Si la distribución es multivariada normal. La matriz de varianzas- covarianzas sigue una distribución conocida (de Wishart). Por lo tanto, se maximiza la siguiente función: Maximizar lo anterior es equivalente a minimizar la siguiente función de discrepancia: Ventaja: Proporciona medidas estadísticas de ajuste del modelo y de errores típicos de estimación

Máxima verosimilitud (ML): Qué parámetros hacen más probables los datos observados Se asume que las variables se distribuyen normalmente. Mínimos cuadrados generalizados (GLS): Se asume que las variables se distribuyen normalmente. Mínimos cuadrados ponderados (WLS). No asume normalidad de las variables… …pero requiere muestras muy grandes. Métodos robustos: Nuevos métodos (DWLS/WLSMV/MLMV)

Teóricamente… 66 ML diferirá de GLS y WLS: Si el modelo es incorrecto. WLS diferirá de ML y GLS : Si los datos no se distribuyen normalmente.

67 Recomendaciones Se cumplen supuestos: ML, pues ofrece errores típicos (y contrastes estadísticos), aunque: -Problemas de convergencia (muestras pequeñas/nº indicadores por factor pequeño) -más casos Heywood (p.e., unicidades negativas) -resultados más distorsionados si el modelo se especifica mal o si no se cumplen los supuestos, ULS puede ser incorrecto si las diferencias de varianzas en las variables son arbitrarias

Comprobación del ajuste

Ajuste de los modelos 2 CRITERIOS DE AJUSTE BIEN DIFERENCIADOS: Modelos que hagan los residuos pequeños en nuestra muestra Modelos parsimoniosos (¿se repetirían los resultados en otra muestra?)

71 Indicadores de ajuste Índices de ajuste absoluto: Medidas basadas en los residuos: Standardized Root Mean Squared Residuals (SRMR ) Índices de ajuste comparativo: Normed Fit Index (NFI) Non-Normed Fit Index (NNFI o TLI) Comparative Fit Index (CFI) Medidas en errores de aproximación: Root Mean Square Error of Aproximation (RMSEA) Medidas basadas en la información: Akaike Information Criterion (AIC) Bayes Information Criterion (BIC)

Estadístico chi-cuadrado La p asociada indica la probabilidad de obtener una función de discrepancia tan grande como la obtenida en la muestra si nuestro modelo fuera correcto en la población. Hipótesis nula: La función de discrepancia es cero en la población Hipótesis alternativa: La función de discrepancia no es cero en la población Problemas: 1.La hipótesis nula nunca es cierta. 2.Depende del tamaño de la muestra. CHI/DF: Regla informal. El valor esperado de CHI es DF. Si la ratio es 1 entonces el modelo se ajusta. Suelen considerarse aceptables si son menores de 5 (preferiblemente menores que 3 ó 2). Problema: sensible al tamaño muestral

x1x1 x2x2 x3x3 x4x4 x5x5 e1e1 e2e2 e3e3 e4e4 e5e5 ξ1ξ1 ξ2ξ2 λ 11 λ 21 λ 32 λ 42 λ λ 31 Residuals for Covariances/Correlations/Residual Correlations X1 X2 X3 X4 X5 ________ ________ ________ ________ ______ X X X X X

TESTS OF MODEL FIT Chi-Square Test of Model Fit Value Degrees of Freedom 3 P-Value Chi-Square Test of Model Fit for the Baseline Model Value Degrees of Freedom 10 P-Value Modelo de independencia de variables Nuestro modelo MODELO DE INDEPENDENCIA: MODELO EN EL QUE SE ESTIMAN COMO PARÁMETROS LAS VARIANZAS Y SE FIJAN EL RESTO DE PARÁMETROS (COVARIANZAS) A 0.

x5x5 x4x4 x3x3 x1x1 x2x2 e1e1 e2e2 e3e3 e4e4 e5e5

76 Medidas de bondad de ajuste Índices de ajuste comparativo Regla: ≥ Rango: 0 – 1.

Chi-Square Test of Model Fit Value Degrees of Freedom 3 P-Value Chi-Square Test of Model Fit for the Baseline Model Value Degrees of Freedom 10 P-Value CFI/TLI CFI TLI 0.985

RMR: - El promedio de los residuos. Poco informativo si no se analiza la matriz de correlaciones. SRMR: - promedio de los residuos calculados sobre la matriz de correlaciones, debe ser menor que.06..

SRMR (Standardized Root Mean Square Residual) Value 0.031

Afecta al tamaño de los residuos: Σ(modelo real) Σ (nuestro modelo) S (observada) F P : Error de Aproximación en la población (disminuye al aumentar el número de parámetros) (no depende del tamaño de la muestra) S (nuestro modelo) VARIACION MUESTRAL VARIACION DEBIDA AL MODELO F: Función de discrepancia (mayor que el error de aproximación) Error de estimación (depende del tamaño de la muestra)

81 Medidas de bondad de ajuste Medidas basadas en errores de aproximación RMSEA (root mean square error of aproximation) Hemos visto que (N-1)F ~χ 2 con parámetro gl. si el modelo propuesto en H 0 es correcto. En ese caso, en sucesivas muestras, tendremos diferentes valores de (N-1)F cuya distribución es χ 2 con parámetro gl. Error de estimación. En realidad, (N-1)F ~χ 2 es no centrada con parámetros gl y parámetro de no centralidad (N-1)F 0, (cuando el modelo no es correcto. Error de aproximación.

RMSEA (Raiz del Error Cuadrático de Aproximación) - mayor que 0. Preferiblemente por debajo de 0.05 (recomendable por debajo de 0.08, nunca por encima de 0.10) - Indica el error de aproximación medio por cada grado de libertad. - No depende del tamaño de la muestra - Penaliza por la complejidad del modelo.

Ejemplo (continua) RMSEA (Root Mean Square Error Of Approximation) Estimate Percent C.I Probability RMSEA <=

84 Medidas de bondad de ajuste Medidas basadas en la información Akaike Information criterion: AIC = 2k - 2ln(L) Medidas basadas en la información Bayes Information criterion: BIC = kln(N) - 2ln(L) k = número de parámetros libres L = función de verosimilitud H 0 N= tamaño muestra Regla: cuanto menor, mas apropiado el modelo. Medida indicada para la comparación de modelos no anidados.

Loglikelihood H0 Value H1 Value Information Criteria Number of Free Parameters 12 Akaike (AIC) Bayesian (BIC)

86 The Journal of Educational Research, 2006, 99, 6,

87 Recomendaciones Para decidir el ajuste hay que fijarse en -Los indicadores de ajuste vistos. - Si los coeficientes estimados son significativos. -La comunalidad de cada indicador.

Reespecificación de los modelos Índices de modificación: Cambio  2 si añadieramos el nuevo parámetro al modelo. Si es mayor que 3.84 eso indica que el cambio sería significativo al 5%. Preferiblemente no utilizar o solo utilizar si las muestras son muy grandes (capitalización del azar).