4. Métodos psicofísicos de medida en clínica. 12345678910 1234567 98.

Slides:



Advertisements
Presentaciones similares
DISEÑO DE EXPERIMENTOS EXPERIMENTOS DE COMPARACIÓN SIMPLE
Advertisements

ANOVA DE UN FACTOR.
PRUEBAS DE HIPÓTESIS.
DISEÑO DE EXPERIMENTOS
REGRESION LINEAL SIMPLE
Introducción En toda investigación, y antes de extraer conclusiones acerca de los objetivos e hipótesis planteados, es necesario llevar a cabo un análisis.
ESTADISTICA INFERENCIAL
Modelos de Variable Dependiente Binaria -Logit y Probit-
KRUSKAL WALLIS Jorge Iván Betancur Marta Isabel Naranjo García
ANÁLISIS EXPLORATORIO DE DATOS
Estimación por intervalos de confianza.
Diseño de Experimentos
ESTRATEGIAS Y DISEÑOS AVANZADOS DE INVESTIGACIÓN SOCIAL
Estimación por Intervalos de confianza
Regresión y correlación
Bioestadística Aplicada I
HERRAMIENTAS PARA EL CONTROL ESTADÍSTICO DE CALIDAD.
COEFICIENTE DE CORRELACIÓN PRODUCTO-MOMENTO DE PEARSON
Regresión lineal Es un modelo matemático para predecir el efecto de una variable sobre otra, ambas cuantitativas. Una variable es la dependiente y otra.
Curso de Estadística Básica
9 Regresión Lineal Simple
Prueba de hipótesis Equivalencia entre la prueba de hipótesis y los intervalos de confianza Valor de probabilidad Valor de probabilidad unilateral Prueba.
Tests de hipótesis Los tres pasos básicos para testear hipótesis son
Inferencia Estadística
Clases 4 Pruebas de Hipótesis
1 Planteamiento del problema ¿Tenemos los humanos la capacidad de percibir si nos miran desde atrás? O, más exactamente: ¿Es defendible que existen otras.
Diseño Estadístico y Herramientas para la Calidad
Pronósticos, Series de Tiempo y Regresión
Tema 17: Contraste paramétrico de hipótesis I: Pruebas de contraste para un grupo. Pruebas de contraste para dos grupos: independientes o relacionados.
Fundamentos del contraste de hipótesis
ESTADÍSTICA BÁSICA EN ECOLOGÍA EVOLUTIVA Juan J. Soler Cruz Estación Experimental de Zonas Áridas Almería.
Unidad V: Estimación de
ESTIMACION En varios pasajes de este libro hemos planteado la dificultad que se confronta en las investigaciones, de llegar a conclusiones sobre una población.
Estimación Sea una característica, un parámetro poblacional cuyo valor se desea conocer a partir de una muestra. Sea un estadístico ( función.
Curso de Bioestadística. ANOVA
Métodos de calibración: regresión y correlación
Introducción La inferencia estadística es el procedimiento mediante el cual se llega a inferencias acerca de una población con base en los resultados obtenidos.
ESTIMACION POR INTERVALOS
Análisis Cuantitativo de Datos (Básico)
Titular: Agustín Salvia
Capacidad de Proceso.
Herramientas básicas.
Tema 5: Numéricas en varios grupos
Variables estadísticas bidimensionales
Tema 5: Contrastes de Hipótesis no-paramétricos
Pruebas de hipótesis.
PRUEBAS ESTADISTICAS NO PARAMETRICAS
Si comparamos este intervalo con (10.5), vemos que el intervalo de confianza para la Y 0 individual es más amplio que el intervalo para el valor medio.
SEMINARIO DE INVESTIGACION Titular: Agustín Salvia
Herramientas avanzadas. Lo primero: abrir el modelo.
Análisis de los Datos Cuantitativos
Conceptos básicos: Población Muestra Variable Datos Estadístico
BASES PARA EL RAZONAMIENTO EN ESTADÍSTICA INFERENCIAL
ESTIMACIÓN DE PARÁMETROS
Variables estadísticas bidimensionales
Ejercicios Dado un conjunto de datos, aplicar el Criterio de Fourier para desechar los posibles valores atípicos.
Distribuciones de Probabilidad
Calidad de las Mediciones; Repetibilidad y Reproducibilidad
CONTRASTE DE HIPÓTESIS Dimensiones Largo275mm. 169 mm 2 Ancho175mm.49 mm 2 Alto175mm.49 mm 2 Peso16 Kg.1 Kg 2. SITUACIÓN PROBLEMA.
INFERENCIA ESTADÍSTICA
Pruebas paramétricas y no paramétricas
Clase 17 Introducción a la Estadística Universidad de la República Centro Universitario Regional del Este Pablo Inchausti Licenciatura en Gestión Ambiental.
Coeficiente de variación
(niveles o categorías)
REGRESIÓN LINEAL SIMPLE
ESTADISTICA DESCRIPTIVA BIVARIADA MEDIDAS DE RELACIÓN ENTRE VARIABLES CUANTITATIVAS.
Intervalos de Confianza M. C. José Juan Rincón Pasaye UMSNH – FIE Mayo de 2003.
Yuly Vanessa Agudelo Jessy Carolina Buitrago Edwin Salazar Henao.
1 REGRESIÓN CON VARIABLES DICOTÓMICAS TEMA 1 (CONTINUACIÓN)
Evaluando los promedios de grupos distintos UNIDAD 7 1.
Transcripción de la presentación:

4. Métodos psicofísicos de medida en clínica

2.Métodos de escalera. 3.Métodos de elección forzosa. 4.PEST. ZEST. MOBS. 5.Otros métodos adaptativos. 6. Medidas de la fiabilidad de un método psicofísico. Índice 1. Introducción

2.3. Métodos psicofísicos de medida Para asegurar la repetibilidad y la fiabilidad de las medidas, la tarea debe realizarse con un método psicofísico adecuado. Aunque el método de estímulos constantes es el más fiable, consume demasiado tiempo para un test clínico. Normalmente se prefiere alguna variación del método de escalera. Hay que controlar el criterio que utiliza el observador para realizar la tarea. ¡Cuidado con los observadores mayores! Normalmente, sus criterios son demasiado conservadores.

Clasificación de los métodos en función de la lógica del test: a) Adaptativos: Los parámetros del test se modifican en función de respuestas previas del observador. Ejemplos: escalera y estimadores de máxima probabilidad (bestPEST, QUEST, ZEST). b) No adaptativos: El observador controla la variable dependiente. Ejemplos: ajuste (p.e., anomaloscopios), límites (p.e. test de agudeza), estímulos constantes 2.3. Métodos psicofísicos de medida

Con métodos no adaptativos 1) El observador establece el criterio de respuesta 2) La eficiencia del test depende de los tiempos de respuesta del observador. 3)En clínica, límites y ajuste se ven influidos por problemas de memorización, habituación y anticipación. El método de estímulos constantes consume demasiado tiempo y es difícil para el observador. Con métodos adaptativos 1) El test es eficiente, ya que la mayoría de los estímulos se presentan cerca del umbral Métodos psicofísicos de medida

3, 4 y 5 Revisión de métodos de medida Ejercicios: 1) Implementación de un método de escalera 2) Comparación de métodos de medida (simulación, demometodosdemedida.m)

6. Medidas de fiabilidad de un método psicofísico Medidas de fiabilidad: 1) Repetibilidad: las diferencias entre dos medidas con el mismo método (material y clínico que administra el test) y con los mismos observadores, son estadísticamente no significativas. 2) Concordancia: las diferencias entre los resultados obtenidos con el método problema y uno de referencia son estadísticamente no significativas. Ejercicios: Hemos medido agudezas visuales con 3 métodos distintos (fiabilidad.mat o fiabilidad.exe contienen los resultados). Analiza la repetibilidad y la concordancia entre métodos.

6. Medidas de fiabilidad de un método psicofísico Consideremos un conjunto de pacientes, a los que les medimos dos veces el mismo parámetro (en el ejercicio, la AV). De una medida a la otra, sólo cambia un factor: el clínico que realiza el experimento, los observadores, el dispositivo, el método, la presencia o ausencia de ciertos factores (aprendizaje, fatiga, etc.). Supongamos que los observadores son los mismos, como en el ejercicio propuesto En lo que sigue, veremos qué pruebas podemos hacer para averiguar si las medidas son repetibles.

1ª Pregunta: ¿Qué indica la correlación entre las medidas? En la figura de arriba, la primera y la segunda medida tienen una correlación no significativa (Sig=0,6>0,05). Por tanto, para un valor particular de la primera medida (p.e., 1.4) podemos obtener casi cualquier valor en la segunda (de 1.65 a 2). ¿El método empleado es repetible? En la figura de abajo, las dos medidas están fuertemente correlacionadas. Pero mirad la línea de tendencia ¿El método empleado es repetible?

Pregunta 2ª: ¿Qué nos dicen los tests de hipótesis? Tenemos dos conjuntos de muestras relacionadas (el mismo observador hace dos medidas). Testeamos la siguiente hipótesis nula: “Las dos muestras provienen de la misma distribución”, o, alternativamente, si calculamos la diferencia entre ambas muestras, “La media (o la mediana) de las restas es cero” Pregunta 2ª, a: ¿Qué test de hipótesis debemos usar? Si las muestras siguen una distribución normal, usaremos un test paramétrico: t de Student Si las muestras no siguen una distribución normal, usaremos un test no paramétrico: Kolmogorov-Smirnoff, U de Mann-Whitney, Wilcoxon,…

Ejemplo: Datos_1 y Datos_4 Según el test de Lilliefords, las dos muestras siguen la distribución normal. Para decidir si las medidas son iguales, aplicamos el t-test

El t-test dice que las dos medidas son iguales (p=0,996). Como veis, el intervalo de confianza de la mediana contiene al cero

Ejemplo: Datos_1 y Datos_3 Según el test de Lilliefords, las dos muestras siguen la distribución normal (p>0.35), a pesar del aspecto de las figuras. Para decidir si las medidas son iguales, aplicamos de nuevo el t-test

El t-test dice que las dos medidas son diferentes (p=1.59e -29 ). El test de dos colas dice que la segunda medida es mayor (p=7.7e - 30 ). Como veis, el intervalo de confianza de la mediana no contiene al cero, con lo que podemos decir que la segunda medida da valores superiores. ¿Efecto del aprendizaje?

Ejemplo: Datos_1 y Datos_2 La correlación entre estas muestras no es significativa Según el test de Lilliefords, no se puede descartar que las dos muestras sigan la distribución normal, a pesar del aspecto de la segunda. Para decidir si las medidas son iguales, aplicamos el t-test

El t-test dice que las dos medidas son iguales (p=0,49). Como veis, el intervalo de confianza de la mediana contiene al cero. Visto el diagrama de dispersión, donde hemos representado las parejas de valores para cada observador, ¿esta conclusión sería razonable?

En el ejemplo anterior, el test de hipótesis nos llevaría a una conclusión errónea. Veamos técnicas alternativas para evaluar la repetibilidad. Gráfico Passing-Bablok: Representamos la segunda muestra de datos en función de la primera y ajustamos con una recta. Si el intervalo de confianza del ajuste contiene a la recta x=y, las medidas son iguales. En el ejemplo, comparación de Datos_1 y Datos_4.

Test de Bland-Altman: Representamos la diferencia entre las medidas a comparar en función de la media de las mismas. Se muestra el valor medio de la diferencia y su intervalo del 95% de confianza de la muestra. Si el intervalo contiene al cero, las muestras serían iguales. Se analiza cuántas medidas estarían fuera del intervalo de confianza de la población y si eso ocurre en zonas particulares del rango de medida. De nuevo, en el ejemplo Datos_4 y Datos_1. La diferencia calculada es Datos_4-Datos_1 Intervalo de confianza de la media Intervalo de confianza de la población

Datos_1 comparados con Datos_2, Datos_4 y Datos_3. Analiza el resultado.