Descargar la presentación
La descarga está en progreso. Por favor, espere
Publicada porBrian Salazar Modificado hace 6 años
1
Ajuste de curvas v v = f[S] Modelo Teórico Modelo Empírico
En matemáticas: y = f(x)
2
Modelos empíricos (y = f(x))
Datos sin mucho ruido, curvas suaves Cuidado porque son demasiado flexibles (hiperajuste) Nudo 1 Nudo 2 Nudo 3 Adecuados para datos con ruido en calibración Subjetividad al elegir el nº de nudos (hiperajuste)
3
fracción de sitios ocupados
Modelos teóricos En ecuaciones algebraicas + L K1 K2 fracción de sitios ocupados Binding
4
Ecuaciones de interés en Biomedicina
Decaimientos exponenciales: Suma de Michaelis-Menten: Unión de Ligandos a macromoléculas: Curvas de crecimiento y curvas dosis-respuesta (modelo Logístico):
5
Conceptos de linealidad
x Linealidad en las variables Ecuación lineal Ecuación no lineal y Linealidad en los parámetros Ecuación lineal Ecuación no lineal Ejemplos (Lineal en variables, lineal en parámetros) (No lineal en variables, lineal en parámetros) (No lineal en variables, no lineal en parámetros)
6
Previo: Comparación cualitativa entre la forma de los datos y el tipo de curva a ajustar
1) Ordenada en el origen (0,0) C Y=f(x)+C Y=f(x) (Corrección por línea base) (bien) (0,0) (mal) a 2) Maximos, mínimos, puntos de inflexión y asíntotas Asíntota (Máximos, mínimos…) (mal) (bien)
7
Estimación de los parámetros
Ecuación lineal Datos y = a + b x + c x 2 x 8.4 5.6 3.4 .. . y 1 3 ... Encontrar los valores de los parámetros que mejor ajustan la ecuación a los datos Regresión lineal Optimizar los parámetros que mejor ajustan la ecuación a los datos: Ecuación no lineal Datos y = K1 [L] + 2 K1 K2 [L] 2 n ( 1+ 2 K1 K2 [L] y [L] 0.9 0.6 0.4 0.1 0.2 0.5 ... Regresión no lineal
8
Criterio de ajuste en regresión (de una ecuación a unos datos)
Regresión: cuando la variable “x” es exacta y la “y” es aleatoria residual Curva suave debida a la ecuación con los parámetros optimizados y x Minimizar los residuales al cuadrado (Mínimos Cuadrados)CV
9
Regresión por mínimos cuadrados
Objetivos Encontrar las mejores estimas de los parámetros Cuantificar precisión parámetros usando límites de confianza Regresión lineal simple (Ecuaciones lineales en los parámetros, por ej. y= a+bx, polinomios en x, ….) Se puede explicitar cada parámetro, solución única, método exacto (Ecuaciones no lineales en parámetros, por ej. y =Ae-kx) Regresión no lineal No se pueden explicitar los parámetros, solución aproximada. Métodos iterativos tipo: “Búsqueda” (Random Search) “Gradiente” (Gauss-Newton) Regresión lineal múltiple
10
Regresión lineal simple
p< 0.05 , luego los dos parámetros son significativamente distintos de cero
11
Regresión lineal múltiple
12
Representación de los residuales (deben estar al azar):
Bondad de un ajuste en regresión lineal (Respecto a los residuales) (1/2) (Debe de ser pequeño) y (debe ser del orden del error experimental) (R2 = 0.95 significaría que el modelo explica el 95% de la variabilidad) Representación de los residuales (deben estar al azar): Test de las rachas Test de los signos Residual - +
13
Bondad de un ajuste en regresión lineal (Respecto a los parámetros) (2/2)
14
Regresión no lineal: Métodos iterativos, mínimo global y mínimos locales
Ecuación no lineal Parámetro 1 Parámetro 2 SSQ Mínimo local Mínimo global No existe una solución única, no son métodos exactos Ningún algoritmo garantiza el encontrar el mínimo global. Se puede caer en mínimos locales Lo recomendable es alcanzar un mismo mínimo a partir de diferentes estimas iniciales de los parámetros
15
Algoritmos iterativos en regresión no lineal
“De búsqueda (Random Search)” “Gradiente” (Gauss-Newton, Marquardt) D Importancia de las estimas iniciales de los parámetros: límite inferior, valor inicial, límite superior (1, 100, 10000)
16
Bondad de un ajuste en regresión no-lineal
Los parámetros se obtienen por métodos aproximados (iterativos) No obstante se toma como válida la estadística de la regresión lineal ( sólo cierto en condiciones asintóticas de Hincapié: la estadística asociada a la regresión no lineal se suele interpretar de una manera más flexible que en la regresión lineal (por ejemplo se admiten coeficientes de variación de los parámetros de hasta el 50%) En resumen, lo mismo que en lineal pero con mayor flexibilidad
17
Discriminación entre modelos Análisis de datos (Ajuste de curvas)
En Ciencias Experimentales lo habitual es que se dude entre modelos alternativos dentro de una secuencia: 1) Es necesario comparar la bondad de los 2 ajustes rivales: SSQ, R2, distribución residuales, test de las rachas, límites de confianza de los parámetros..etc 2) Se debe aplicar el test “F”: Estadístico
18
Discriminación por superposición de ajustes
(Basado en Bardsley 2011, SIMFIT statistical package)
19
Superposición de ajustes en otros espacios
20
Regresión con pesos estadísticos
El error en la respuesta es aditivo : yi = f ( p , xi ) + u i Todos los errores (ui, u j , ... ) siguen una distribución normal de media cero y varianza constante (todas las medidas tienen la misma precisión ) El criterio de mínimos cuadrados asume que: La variable x no tiene error Los errores u i y u j son independientes La última suposición no se suele cumplir y hay que “normalizar” los residuales con un factor llamado “peso estadístico”: (weight) (estas varianzas se determinan a partir de réplicas) El criterio de optimización es ahora : (weighted sum of squares)
21
Ajustar siempre ecuaciones directas y nunca transformaciones lineales
Ecuación Michaelis-Menten Linealización Lineweaver -Burk Conclusión: Lo ortodoxo para determinar parámetros es la regresión no lineal con pesos estadísticos a la ecuación directa
22
Análisis de datos (Ajuste de curvas) Ejemplo: Curvas Dosis-Respuesta
Parámetro Valor Error est % conf. lim. .. A E E E E+00 B E E E E+01 k E E E E+00 Parámetro Valor Error est % conf. lim. .. C(50%) E E E E+00 (Basado en Bardsley 2011, SIMFIT statistical package)
23
Diferencia entre curvas de 2 tratamientos
Ojo: aquí A y B significan los tratamientos Test Mahalanobis Ji-cuadrado ===================================================== Q = (A-B)^T(Ca+Cb)^(-1)(A-B) = 2.806E+03 Nº grados de libertad = 3 Prob.(Ji-cuadr. >= Q) = Test t entre parámetros para 2 tratamientos(A,B) con covarianzas (Ca,Cb). ====================================================== Param. A B A - B p E E E E E E ***** E E E (A) (B) (k)
24
Diferencia entre las 2 CE50 estimadas
Test t con varianzas distintas para H0: CE50_1 = CE50_2 ================================================================== estimado err.est % lim.conf npts npar 2.319E E E E 1.961E E E E C (test t corregido) = E+00 Grados de libertad = P(t=<-|C|) + P(t>=|C|) = Reject H0 at 1% sig.level
25
Ej: Regr. logística binaria Análisis de datos (Ajuste de curvas)
y(i) 1=vivo 0=muerto variables: X1 , X2 , X3 , p(1) = probabilidad de que y = 1 La aplicación importante es estimar p(1) para un caso nuevo del que se conocen X1, , X2, , X3, …. (ej: p(1) = 0.73 de sobrevivir)
26
Análisis de supervivencia
Técnicas especiales Curvas de supervivencia de Kaplan-Meier: Probabilidad de que un sujeto viva más allá de un tiempo “t” (KMS(t)). S(t) en KMS(t) significa función de supervivencia y es la probabilidad de que un sujeto sobreviva más allá de un tiempo determinado. Censurado significa que a ese tiempo el sujeto se ha perdido o estaba vivo, se denota con + .
27
Cálculos curvas supervivencia Kaplan-Meier
Fármaco: tiempo, muere o vive Placebo: tiempo, muere o vive Ensayo Tiempo (meses) Nº sobreviven (intervalo) Nº mueren S(t) (Superv. Acumulada) Fármaco 10 1 5 1x(9/10) = 0.90 9 0.9x(8/9)=0.8 15 8 0.80x(7/8)=0.70 20 7 0.70x(7/7)=0.70 Placebo 3 1x(9/10) = 0.9
28
En la práctica las curvas son con más datos
Curvas de supervivencia de Kaplan-Meier: Probabilidad de que un sujeto viva más allá de un tiempo “t” (KMS(t)). Fármaco Placebo
29
Comparación de curvas de supervivencia
Test Mantel-Haenszel (log-Rank test) QMH=16.79 (p<0.01) (supervivencia diferente) Fármaco Placebo
Presentaciones similares
© 2025 SlidePlayer.es Inc.
All rights reserved.