Descargar la presentación
La descarga está en progreso. Por favor, espere
Publicada porCatherina Tabares Modificado hace 10 años
1
Ajuste de curvas Métodos de ajuste de curvas: regresión lineal y no lineal Fco. Javier Burguillo Universidad de Salamanca Tema 8
2
Ajuste de curvas Antecedentes Bibliográficos Diseño de experimentos Obtención datos, calibrados, etc. Exploración de datos Análisis : tests estadísticos, ajuste de curvas Etapas de una investigación
3
Ajuste de curvas [S] : 1.2 5.2 6.3 7.2 9.4 v : 4.3 5.4 7.2 8.4 9.5 Ajuste de curvas v [S] v = f[S] Modelo Empírico Modelo Teórico En matemáticas: y = f(x)
4
Ajuste de curvas Datos sin mucho ruido, curvas suaves Cuidado porque son demasiado flexibles (hiperajuste) Adecuados para datos con ruido en calibración Subjetividad al elegir el nº de nudos (hiperajuste) Modelos empíricos (y = f(x)) Nudo 1 Nudo 2 Nudo 3
5
Ajuste de curvas Ejemplo de ajustes por cubic splines (para comparación de curvas: áreas, pendientes...) Área bajo la curva 1 (B1) = 2.69E+00 Área bajo la curva 2 (B2) = 2.63E+00 Integral |curva1 - curva2| (AA) = 2.62E-01 Porcentaje de diferencias entre las curvas: 100*AA/(B1 + B2) = 4.92 %
6
Ajuste de curvas En ecuaciones algebraicas + L K1K1 K2K2 fracción de sitios ocupados En ecuaciones diferenciales E* + S E*S E P E Modelos teóricos Lipasa Binding
7
Ajuste de curvas Ecuaciones de interés en Biomedicina Decaimientos exponenciales: Suma de Michaelis-Menten: Unión de Ligandos a macromoléculas: Curvas de crecimiento y curvas dosis-respuesta (modelo Logístico):
8
Ajuste de curvas Otras ecuaciones algebraicas Ejemplos : De dos variables y varios parámetros :
9
Ajuste de curvas Ejemplos (Lineal en variables, lineal en parámetros) (No lineal en variables, lineal en parámetros) (No lineal en variables, no lineal en parámetros) x Linealidad en las variables Ecuación linealEcuación no lineal y y x Linealidad en los parámetros Ecuación linealEcuación no lineal Concepto de linealidad
10
Ajuste de curvas Previo: Comparación cualitativa entre la forma de los datos y el tipo de curva a ajustar 1) Ordenada en el origen (0,0) C Y=f(x)+C Y=f(x) (Corrección por línea base) (bien) (0,0) (mal) a (bien) 2) Maximos, mínimos, puntos de inflexión y asíntotas Asíntota (Máximos, mínimos…)
11
Ajuste de curvas Estimación de los parámetros Optimizar los parámetros que mejor ajustan la ecuación a los datos: Ecuación no linealDatos y = K 1 [L] +2 K 1 K 2 [L] 2 n ( 1+K 1 [L] +2 K 1 K 2 [L] 2 y [L] y 0.9 0.6 0.4 0.1 0.2 0.5... Regresión no lineal Ecuación linealDatos y = a + b x + c x 2 x 8.4 5.6 3.4... y 1 2 3... y x Encontrar los valores de los parámetros que mejor ajustan la ecuación a los datos Regresión lineal
12
Ajuste de curvas Criterio de ajuste (de una ecuación a unos datos) residual Curva suave debida a la ecuación con los parámetros optimizados y x Minimizar los residuales al cuadrado (Mínimos Cuadrados) residual
13
Ajuste de curvas Regresión lineal múltiple (Ecuaciones no lineales en parámetros, por ej. y =Ae -kx ) Regresión no lineal No se pueden explicitar los parámetros, solución aproximada. Métodos iterativos tipo: “Búsqueda” (Random Search) “Gradiente” (Gauss-Newton) Objetivos Encontrar las mejores estimas de los parámetros Cuantificar precisión parámetros usando límites de confianza Regresión por mínimos cuadrados Regresión lineal simple (Ecuaciones lineales en los parámetros, por ej. y= a+bx, polinomios en x, ….) Se puede explicitar cada parámetro, solución única, método exacto
14
Ajuste de curvas Cálculos en regresión lineal (simple y múltiple) usando notación matricial
15
Ajuste de curvas Regresión lineal simple p< 0.05, luego los dos parámetros son significativamente distintos de cero
16
Ajuste de curvas Regresión lineal múltiple
17
Ajuste de curvas Representación de los residuales: Test de las rachas Test de los signos Residual - + 0 (R 2 = 0.95 significaría que el modelo explica el 95% de la variabilidad) Bondad de un ajuste en regresión lineal (Respecto a los residuales) y (Debe de ser pequeño) (del orden error relativo experimental)
18
Ajuste de curvas Bondad de un ajuste en regresión lineal (Respecto a los parámetros) (1/2) Matriz de correlación
19
Ajuste de curvas 1.No existe una solución única, no son métodos exactos 2.Ningún algoritmo garantiza el encontrar el mínimo global. Se puede caer en mínimos locales 3.Lo recomendable es alcanzar un mismo mínimo a partir de diferentes estimas iniciales de los parámetros Parámetro 1 Parámetro 2 SSQ Mínimo local Mínimo global Regresión no lineal: Métodos iterativos, mínimo global y mínimos locales Ecuación no lineal
20
Ajuste de curvas Algoritmos iterativos en regresión no lineal “De búsqueda (Random Search)” Importancia de las estimas iniciales de los parámetros: límite inferior, valor inicial, límite superior (1, 100, 10000) “Gradiente” (Gauss-Newton, Marquardt)
21
Ajuste de curvas Los parámetros se obtienen por métodos aproximados (iterativos) No obstante se toma como válida la estadística de la regresión lineal ( sólo cierto en condiciones asintóticas de Hincapié: la estadística asociada a la regresión no lineal se suele interpretar de una manera más flexible que en la regresión lineal ( por ejemplo se admiten coeficientes de variación de los parámetros de hasta el 50%) Bondad de un ajuste en regresión no-lineal
22
Ajuste de curvas Estadística asociada a la regresión no lineal En resumen, lo mismo que en lineal pero con mayor flexibilidad : (n = nº puntos, m = nº parámetros)
23
Ajuste de curvas 1) Es necesario comparar la bondad de los 2 ajustes rivales: SSQ, R 2, distribución residuales, test de las rachas, límites de confianza de los parámetros..etc 2) Se debe aplicar el test “F”: En Ciencias Experimentales lo habitual es que se dude entre modelos alternativos dentro de una secuencia: Discriminación entre modelos Análisis de datos (Ajuste de curvas) Estadístico
24
Ajuste de curvas Discriminación por superposición de ajustes (Basado en Bardsley 2011, SIMFIT statistical package)
25
Ajuste de curvas Superposición de ajustes en otros espacios
26
Ajuste de curvas Regresión con pesos estadísticos (estas varianzas se determinan a partir de réplicas) El criterio de optimización es ahora : (weighted sum of squares) La última suposición no se suele cumplir y hay que “normalizar” los residuales con un factor llamado “peso estadístico”: (weight) El error en la respuesta es aditivo : y i = f ( p, x i ) + u i Todos los errores (u i, u j,... ) siguen una distribución normal de media cero y varianza constante (todas las medidas tienen la misma precisión ) El criterio de mínimos cuadrados asume que: La variable x no tiene error Los errores u i y u j son independientes
27
Ajuste de curvas Ajustar siempre ecuaciones directas y nunca transformaciones lineales Conclusión: Lo ortodoxo para determinar parámetros es la regresión no lineal con pesos estadísticos a la ecuación directa Ecuación Michaelis-MentenLinealización Lineweaver -Burk
28
Ajuste de curvas Ejemplo de regresión no lineal con SIMFIT Con una preparación enzimática de dos isoenzimas se realizó el siguiente estudio: 8 puntos experimentales, en el margen de concentraciones de 0.05 a 50 mM, espaciados logarítmicamente y realizándose 5 réplicas por punto (40 datos en total). [S] vs 0.0500.05300.0006 0.0500.05310.0006 0.0500.05230.0006 0.0500.05220.0006 0.0500.05200.0006 ….. 50.01.730.06 50.01.860.06 50.01.860.06 50.01.770.06 50.01.760.06 ¿Tienen las 2 isoenzimas la misma Vmax y Km?
29
Ajuste de curvas Algoritmo Búsqueda al azar Algoritmo Cuasi-Newton (p<0.05)
30
Ajuste de curvas sisi y exp. y ajus. y exp. - y ajus.
31
Ajuste de curvas Tabla de análisis global de los residuales (importante) Test 2 (p < 0.01) weighted sum of squares Test rachas (p < 0.01) cualitativo (poco valor)
32
Ajuste de curvas Hay 7 rachas (pocas para 40 residuales), eso significa un ajuste “sesgado” (los residuales debieran estar al azar y no en “racimos”)
33
Ajuste de curvas
34
Entra automáticamente el ajuste a 2 Michaelis-Menten Algoritmo búsqueda al azar Algoritmo Cuasi-Newton Las 4 “p” son < 0.05, parámetros distintos “0”
35
Ajuste de curvas Residuales
36
Ajuste de curvas Análisis global de los residuales para 2 Michaelis-Menten (disminuyó (antes 2.43E+02)) Test 2 (buen ajuste p > 0.05) (disminuyó (antes 5.66 %)) (aumentó (antes 7 )) (test rachas (buen ajuste ( p > 0.05 ))
37
Ajuste de curvas Los residuales están más al azar (18 rachas frente a 7 de antes). El ajuste no está sesgado (es mejor ajuste)
38
Ajuste de curvas
39
(disminuye, pero hay que probar que es significativo ) (p < 0.05, la disminución en WSSQ es significativa ) (Cp/M 1 > 1 rechazar modelo previo ) (disminuye AIC, rechazar modelo previo) Discriminación estadística entre los 2 modelos rivales
40
Ajuste de curvas (Basado en Bardsley 2011, SIMFIT statistical package)
41
Ajuste de curvas Ejemplo: Curvas Dosis-Respuesta Análisis de datos (Ajuste de curvas) Parámetro Valor Error est...95% conf. lim... A 9.989E-01 7.86E-03 9.83E-01 1.01E+00 B 9.890E+00 3.33E-01 9.21E+00 1.06E+01 k 9.881E-01 2.68E-02 9.33E-01 1.04E+00 Parámetro Valor Error est...95% conf. lim... C(50%) 2.319E+00 4.51E-02 2.23E+00 2.41E+00 (Basado en Bardsley 2011, SIMFIT statistical package)
42
Ajuste de curvas Diferencia entre curvas de 2 tratamientos Test t con varianzas distintas para H0: CE50_1 = CE50_2 ================================================================== estimado err.est....95% lim.conf.... npts npar 2.319E+00 4.510E-02 2.227E+00 2.411E+00 33 3 1.961E+00 1.710E-02 1.926E+00 1.996E+00 33 3 C (test t corregido) = 7.422E+00 Grados de libertad = 38 P(t= =|C|) = 0.0000 Reject H0 at 1% sig.level Test Mahalanobis Ji-cuadrado ===================================================== Q = (A-B)^T(Ca+Cb)^(-1)(A-B) = 2.806E+03 Nº grados de libertad = 3 Prob.(Ji-cuadr. >= Q) = 0.0000 Test t entre parámetros para 2 tratamientos(A,B) con covarianzas (Ca,Cb). ====================================================== Param. A B A - B p 1 1.397E+00 9.989E-01 3.981E-01 0.9750 2 1.295E+01 9.890E+00 3.060E+00 0.0000 ***** 3 1.306E+00 9.881E-01 3.179E-01 0.3781 (A) (B) (k) Ojo: aquí A y B significan los tratamientos
43
Ajuste de curvas Ecuación: Ajuste a ecuaciones de 2 variables Datos: Inhibidor : Sustrato : velocidad : 1 1 1 1 2 2 2 2....... 5.2 6.3 7.1 9.1 3.2 5.2 6.4 7.5........ 2 4 6 8 2 4 6 8......
44
Ajuste de curvas Superficie ajustada
45
Ajuste de curvas No es válido el criterio de los mínimos cuadrados. Los ajustes se harán ahora por el método de “máxima verosimilitud”. Los errores en “y” no siguen una distribución normal sino una distribución binomial, de Poisson etc. Existe una función predictora que es función lineal de las variables: Distribución de Poisson: Logaritmo Recíproco Regr. Lineal generalizada Análisis de datos (Ajuste de curvas) Distribución Binomial: f. Logística f. probit
46
Ajuste de curvas y(i) 1=vivo 0=muerto variables: X 1, X 2, X 3,...... p(1) = probabilidad de que y = 1 La aplicación importante es estimar p(1) para un caso nuevo del que se conocen X 1,, X 2,, X 3, …. (ej: p(1) = 0.73 de sobrevivir) Ej: Regr. logística binaria Análisis de datos (Ajuste de curvas)
47
Ajuste de curvas N(i) = nº animales, y(i) =nº muertos, p i = y(i)/N(i), X(i) = concentración de tóxico Ejemplo. : DL50 porregresión logística, probit o log-log complementario Ejemplo. : DL50 por regresión logística, probit o log-log complementario Se ajustan:Función Logística, función probit o log-log complementario DL50 = 4.66 (IC95%: 3.63-5.68) Función logística
48
Ajuste de curvas Modelos en ecuaciones diferenciales Ecuaciones diferenciales simultáneas (varias variables dependientes) Susceptibles Ejemplo : Epidemia Infectados Recuperados k1k1 k2k2 d S dt = k 1. S. I d I dt = k 1. S. I – k 2. I d R dt = k 2. I Integran numéricamente (Adams, Gear) S I R
49
Ajuste de curvas Ejemplo: Modelos en ecuaciones diferenciales Suscept. d S dt = k 1. S. I Infect. Recup. k1k1 k2k2 d I dt = k 1. S. I – k 2. I d R dt = k 2. I Ejemplo : Epidemia (Basado en Bardsley 2011, SIMFIT statistical package)
50
Ajuste de curvas Suscept. d S dt = k 1. S. I Infect. Recup. k1k1 k2k2 d I dt = k 1. S. I – k 2. I d R dt = k 2. I Ejemplo : Epidemia Ejemplo de modelos en ecuaciones diferenciales Condiciones iniciales: S 0, I 0 y R 0 k 1 y k 2
51
Ajuste de curvas Curvas de supervivencia de Kaplan-Meier: Probabilidad de que un sujeto viva más allá de un tiempo “t” (KMS(t)). Análisis de supervivencia Técnicas especiales Censurado significa que a ese tiempo el sujeto se ha perdido o estaba vivo, se denota con +. S(t) en KMS(t) significa función de supervivencia y es la probabilidad de que un sujeto sobreviva más allá de un tiempo determinado.
52
Ajuste de curvas Cálculos curvas supervivencia Kaplan-Meier Fármaco: tiempo, muere o vivePlacebo: tiempo, muere o vive EnsayoTiempo (meses) Nº sobreviven (intervalo) Nº mueren S(t) (Superv. Acumulada) Fármaco01001 Fármaco51011x(9/10) = 0.90 Fármaco10910.9x(8/9)=0.8 Fármaco15810.80x(7/8)=0.70 Fármaco20700.70x(7/7)=0.70 Placebo01001 Placebo31011x(9/10) = 0.9 Placebo5910.9x(8/9)=0.8 Placebo7810.80x(7/8)=0.70 Placebo8700.70x(7/7)=0.70
53
Ajuste de curvas Formato curvas Kaplan Meier en SIMFIT Códigos : 0 = muere 1= censurado (perdido o sobrevive) EnsayoTiempo (meses) Código (0 ó 1) Frecuencia Fármaco501 1001 Fármaco1501 Fármaco2017 Placebo301 501 701 817
54
Ajuste de curvas Curvas de supervivencia de Kaplan-Meier: Probabilidad de que un sujeto viva más allá de un tiempo “t” (KMS(t)). Curvas del ejemplo sencillo anterior
55
Ajuste de curvas Curvas de supervivencia de Kaplan-Meier: Probabilidad de que un sujeto viva más allá de un tiempo “t” (KMS(t)). En la práctica las curvas son con más datos Fármaco Placebo
56
Ajuste de curvas Test Mantel-Haenszel (log-Rank test) QMH=16.79 (p<0.01) (supervivencia diferente) Comparación de curvas de supervivencia Fármaco Placebo
Presentaciones similares
© 2025 SlidePlayer.es Inc.
All rights reserved.