Ajuste de curvas v v = f[S] Modelo Teórico Modelo Empírico

Slides:



Advertisements
Presentaciones similares
Ajuste de curvas Métodos de ajuste de curvas: regresión lineal y no lineal Fco. Javier Burguillo Universidad de Salamanca Tema 8.
Advertisements

REGRECION LINEAL SIMPLE, MULTIPLE Y CORRELACION. REGRECION LINEAL SIMPLE.
Un criterio para detectar outliers. Otro criterio para detectar errores groseros (outliers)
Estadística y Biometría Modelación Estadística Regresión lineal.
Estadística inferencial. ¿Qué es? La Estadística inferencial o Inferencia estadística estudia cómo sacar conclusiones generales para toda la población.
Estimación e intervalos de confianza. Estimaciones puntuales e intervalos de confianza Estimación puntual: Estadístico calculado a partir de la información.
Modelado y Parametrización de una Planta Para Control de Niveles
DISTRIBUCION F DE FISHER.
PRUEBAS DE BONDAD DE AJUSTE estas pruebas permiten verificar que la población de la cual proviene una muestra tiene una distribución especificada o supuesta.
Facultad de Ciencias Sociales
RESUMEN DE LAS ECUACIONES DE OBSERVACIÓN TOPOGRÁFICAS
ESCUELA POLITÉCNICA NACIONAL PRODUCCIÓN DE GAS NATURAL
El modelo simple de regresión
FUNCIONES MATEMÁTICAS
MAESTRÍA EN CONTROL DE OPERACIONES Y GESTIÓN LOGÍSTICA
CHI CUADRADO  2 OBJETIVOS –Describir situaciones donde es adecuado la utilización de la prueba de Chi Cuadrado (  2 ) –Formular Hipótesis para diferentes.
ESTIMACION DEL TAMAÑO DE LA MUESTRA.
Facultad de Ciencias Sociales
CAPÍTULO 9: DETECCIÓN DE LÍNEAS
Unidad 4. Capítulo VIII. Ecuaciones no homogéneas.
Modelado de Sistemas Eloy Edmundo Rodríguez Vázquez
MÉTODOS NUMÉRICOS ..
ESTADÍSTICA UNIDIMENSIONAL
Bioestadística Regresión y Correlación Múltiple:
NOTAS TECNICAS 1 METODO DE NEWTON-RAPHSON
REGRESÍON LINEAL SIMPLE
Universidad de las Ciencias Informáticas
REGRESIÓN LINEAL SIMPLE
Ashu Handa Universidad de Carolina del Norte en Chapel Hill
Unidad 4. Capítulo IX. Búsqueda de Yp: Variación de parámetros.
DISTRIBUCIÓN MUESTRAL DE UNA MEDIA.
UNIVERSIDAD ALONSO DE OJEDA FACULTAD DE CIENCIAS ADMINISTRATIVAS
CONTENIDO Teoría del muestreo ¿Cómo seleccionar una muestra?
FUNCIONES, MATRICES Y DETERMINANTES
CONCEPTOS MATEMATICOS BASICOS I
Tema 7 LÍMITES Y CONTINUIDAD Bloque Análisis Matemático.
ESTADÍSTICA BÁSICA.
Más allá de la regresión lineal de medias
AJUSTE DE CURVAS TEMA #10. AJUSTE DE CURVAS Si se necesita la versión simplificada de una función complicada. Una manera de hacerlo es calcular valores.
ANALISIS DE VARIANZA
DISEÑO Y ANALISIS DE EXPERIMENTOS
DISEÑO Y ANALISIS DE EXPERIMENTOS
METODOS PARA ANALISIS DE TALUDES
Estadística Administrativa II
REGRESION LINEAL SIMPLE
PARA LA REGRESIÓN LINEAL SIMPLE
Identificación de los efectos de los diseños experimentales.
Sea la ecuación diferencial lineal de orden “n” y de coeficientes variables
Dr. Carlomagno Araya Alpízar
Modelos de predicción de quiebra
Tema 7b Tests estadísticos habituales (con variable cualitativa)
REGRESION LOGISTICA (Logit).
DISEÑO Y ANALISIS DE EXPERIMENTOS
IMPORTANCIA DEL ANÁLISIS Y CONTROL QUÍMICO ENOLÓGICO
PROBABILIDAD Y ESTADISTICA
2/23/2019 TRAZADOR CUBICO SPLINE.
MODELOS DE PRONOSTICOS
ESTADISTICOS Y DISTRIBUCIONES MUESTRALES
Regresión Logística App4stats © Todos los derechos reservados.
Caso práctico 5.
METODOLOGÍA Y TÉCNICAS DE INVESTIGACIÓN EN CIENCIAS SOCIALES
ANALISIS DE REGRESION SIMPLE
U de Mann Whitney.
ANALISIS DE REGRESION MULTIPLE
DISEÑO Y ANALISIS DE EXPERIMENTOS
REGRESION LINEAL SIMPLE
REGRESION LINEAL SIMPLE
UNIDAD EDUCATIVA “MARIANO PICON SALAS REGRESION LINEAL SIMPLE
Transcripción de la presentación:

Ajuste de curvas v v = f[S] Modelo Teórico Modelo Empírico En matemáticas: y = f(x)

Modelos empíricos (y = f(x)) Datos sin mucho ruido, curvas suaves Cuidado porque son demasiado flexibles (hiperajuste) Nudo 1 Nudo 2 Nudo 3 Adecuados para datos con ruido en calibración Subjetividad al elegir el nº de nudos (hiperajuste)

fracción de sitios ocupados Modelos teóricos En ecuaciones algebraicas + L K1 K2 fracción de sitios ocupados Binding

Ecuaciones de interés en Biomedicina Decaimientos exponenciales: Suma de Michaelis-Menten: Unión de Ligandos a macromoléculas: Curvas de crecimiento y curvas dosis-respuesta (modelo Logístico):

Conceptos de linealidad x Linealidad en las variables Ecuación lineal Ecuación no lineal y Linealidad en los parámetros Ecuación lineal Ecuación no lineal Ejemplos (Lineal en variables, lineal en parámetros) (No lineal en variables, lineal en parámetros) (No lineal en variables, no lineal en parámetros)

Previo: Comparación cualitativa entre la forma de los datos y el tipo de curva a ajustar 1) Ordenada en el origen (0,0) C Y=f(x)+C Y=f(x) (Corrección por línea base) (bien) (0,0) (mal) a 2) Maximos, mínimos, puntos de inflexión y asíntotas Asíntota (Máximos, mínimos…) (mal) (bien)

Estimación de los parámetros Ecuación lineal Datos y = a + b x + c x 2 x 8.4 5.6 3.4 .. . y 1 3 ... Encontrar los valores de los parámetros que mejor ajustan la ecuación a los datos Regresión lineal Optimizar los parámetros que mejor ajustan la ecuación a los datos: Ecuación no lineal Datos y = K1 [L] + 2 K1 K2 [L] 2 n ( 1+ 2 K1 K2 [L] y [L] 0.9 0.6 0.4 0.1 0.2 0.5 ... Regresión no lineal

Criterio de ajuste en regresión (de una ecuación a unos datos) Regresión: cuando la variable “x” es exacta y la “y” es aleatoria residual Curva suave debida a la ecuación con los parámetros optimizados y x Minimizar los residuales al cuadrado (Mínimos Cuadrados)CV

Regresión por mínimos cuadrados Objetivos Encontrar las mejores estimas de los parámetros Cuantificar precisión parámetros usando límites de confianza Regresión lineal simple (Ecuaciones lineales en los parámetros, por ej. y= a+bx, polinomios en x, ….) Se puede explicitar cada parámetro, solución única, método exacto (Ecuaciones no lineales en parámetros, por ej. y =Ae-kx) Regresión no lineal No se pueden explicitar los parámetros, solución aproximada. Métodos iterativos tipo: “Búsqueda” (Random Search) “Gradiente” (Gauss-Newton) Regresión lineal múltiple

Regresión lineal simple p< 0.05 , luego los dos parámetros son significativamente distintos de cero

Regresión lineal múltiple

Representación de los residuales (deben estar al azar): Bondad de un ajuste en regresión lineal (Respecto a los residuales) (1/2) (Debe de ser pequeño) y (debe ser del orden del error experimental) (R2 = 0.95 significaría que el modelo explica el 95% de la variabilidad) Representación de los residuales (deben estar al azar): Test de las rachas Test de los signos Residual - +

Bondad de un ajuste en regresión lineal (Respecto a los parámetros) (2/2)

Regresión no lineal: Métodos iterativos, mínimo global y mínimos locales Ecuación no lineal Parámetro 1 Parámetro 2 SSQ Mínimo local Mínimo global No existe una solución única, no son métodos exactos Ningún algoritmo garantiza el encontrar el mínimo global. Se puede caer en mínimos locales Lo recomendable es alcanzar un mismo mínimo a partir de diferentes estimas iniciales de los parámetros

Algoritmos iterativos en regresión no lineal “De búsqueda (Random Search)” “Gradiente” (Gauss-Newton, Marquardt) D Importancia de las estimas iniciales de los parámetros: límite inferior, valor inicial, límite superior (1, 100, 10000)

Bondad de un ajuste en regresión no-lineal Los parámetros se obtienen por métodos aproximados (iterativos) No obstante se toma como válida la estadística de la regresión lineal ( sólo cierto en condiciones asintóticas de Hincapié: la estadística asociada a la regresión no lineal se suele interpretar de una manera más flexible que en la regresión lineal (por ejemplo se admiten coeficientes de variación de los parámetros de hasta el 50%) En resumen, lo mismo que en lineal pero con mayor flexibilidad

Discriminación entre modelos Análisis de datos (Ajuste de curvas) En Ciencias Experimentales lo habitual es que se dude entre modelos alternativos dentro de una secuencia: 1) Es necesario comparar la bondad de los 2 ajustes rivales: SSQ, R2, distribución residuales, test de las rachas, límites de confianza de los parámetros..etc 2) Se debe aplicar el test “F”: Estadístico

Discriminación por superposición de ajustes (Basado en Bardsley 2011, SIMFIT statistical package)

Superposición de ajustes en otros espacios

Regresión con pesos estadísticos El error en la respuesta es aditivo : yi = f ( p , xi ) + u i Todos los errores (ui, u j , ... ) siguen una distribución normal de media cero y varianza constante (todas las medidas tienen la misma precisión ) El criterio de mínimos cuadrados asume que: La variable x no tiene error Los errores u i y u j son independientes La última suposición no se suele cumplir y hay que “normalizar” los residuales con un factor llamado “peso estadístico”: (weight) (estas varianzas se determinan a partir de réplicas) El criterio de optimización es ahora : (weighted sum of squares)

Ajustar siempre ecuaciones directas y nunca transformaciones lineales Ecuación Michaelis-Menten Linealización Lineweaver -Burk Conclusión: Lo ortodoxo para determinar parámetros es la regresión no lineal con pesos estadísticos a la ecuación directa

Análisis de datos (Ajuste de curvas) Ejemplo: Curvas Dosis-Respuesta Parámetro Valor Error est. ..95% conf. lim. .. A 9.989E-01 7.86E-03 9.83E-01 1.01E+00 B 9.890E+00 3.33E-01 9.21E+00 1.06E+01 k 9.881E-01 2.68E-02 9.33E-01 1.04E+00 Parámetro Valor Error est. ..95% conf. lim. .. C(50%) 2.319E+00 4.51E-02 2.23E+00 2.41E+00 (Basado en Bardsley 2011, SIMFIT statistical package)

Diferencia entre curvas de 2 tratamientos Ojo: aquí A y B significan los tratamientos Test Mahalanobis Ji-cuadrado ===================================================== Q = (A-B)^T(Ca+Cb)^(-1)(A-B) = 2.806E+03 Nº grados de libertad = 3 Prob.(Ji-cuadr. >= Q) = 0.0000 Test t entre parámetros para 2 tratamientos(A,B) con covarianzas (Ca,Cb). ====================================================== Param. A B A - B p 1 1.397E+00 9.989E-01 3.981E-01 0.9750 2 1.295E+01 9.890E+00 3.060E+00 0.0000 ***** 3 1.306E+00 9.881E-01 3.179E-01 0.3781 (A) (B) (k)

Diferencia entre las 2 CE50 estimadas Test t con varianzas distintas para H0: CE50_1 = CE50_2 ================================================================== estimado err.est. ...95% lim.conf. ... npts npar 2.319E+00 4.510E-02 2.227E+00 2.411E+00 33 3 1.961E+00 1.710E-02 1.926E+00 1.996E+00 33 3 C (test t corregido) = 7.422E+00 Grados de libertad = 38 P(t=<-|C|) + P(t>=|C|) = 0.0000 Reject H0 at 1% sig.level

Ej: Regr. logística binaria Análisis de datos (Ajuste de curvas) y(i) 1=vivo 0=muerto variables: X1 , X2 , X3 ,...... p(1) = probabilidad de que y = 1 La aplicación importante es estimar p(1) para un caso nuevo del que se conocen X1, , X2, , X3, …. (ej: p(1) = 0.73 de sobrevivir)

Análisis de supervivencia Técnicas especiales Curvas de supervivencia de Kaplan-Meier: Probabilidad de que un sujeto viva más allá de un tiempo “t” (KMS(t)). S(t) en KMS(t) significa función de supervivencia y es la probabilidad de que un sujeto sobreviva más allá de un tiempo determinado. Censurado significa que a ese tiempo el sujeto se ha perdido o estaba vivo, se denota con + .

Cálculos curvas supervivencia Kaplan-Meier Fármaco: tiempo, muere o vive Placebo: tiempo, muere o vive Ensayo Tiempo (meses) Nº sobreviven (intervalo) Nº mueren S(t) (Superv. Acumulada) Fármaco 10 1 5 1x(9/10) = 0.90 9 0.9x(8/9)=0.8 15 8 0.80x(7/8)=0.70 20 7 0.70x(7/7)=0.70 Placebo 3 1x(9/10) = 0.9

En la práctica las curvas son con más datos Curvas de supervivencia de Kaplan-Meier: Probabilidad de que un sujeto viva más allá de un tiempo “t” (KMS(t)). Fármaco Placebo

Comparación de curvas de supervivencia Test Mantel-Haenszel (log-Rank test) QMH=16.79 (p<0.01) (supervivencia diferente) Fármaco Placebo