La descarga está en progreso. Por favor, espere

La descarga está en progreso. Por favor, espere

DINAMICA MOLECULAR Métodos de simulación

Presentaciones similares


Presentación del tema: "DINAMICA MOLECULAR Métodos de simulación"— Transcripción de la presentación:

1 DINAMICA MOLECULAR Métodos de simulación
-Permitir el estudio de propiedades de sistemas complejos -Generación de conjunto de configuraciones distintas para un mismo sistema -Predicción del comportamiento temporal de un sistema (MD) Dos métodos: -Dinámica molecular - promedio temporal -Monte Carlo - promedio de ensamblado Propiedad A: dependiente de las posiciones y momentos de todas las partículas: A(pN(t), rN(t)) pN(t) = momentos de las partículas en el tiempo t rN(t) = posiciones de las partículas en el tiempo t Momentos y posiciones definen el ESPACIO DE FASE La minimización de energía genera configuraciones de mínima energía individuales. En algunos casos, esto es suficiente para predecir de manera adecuada las propiedades del sistema. Ej.: conociendo todos los mínimos, a partir de la mecánica estadística se puede obtener la función de partición y a partir de ella derivar las propiedades termodinámicas. Esto es posible para moléculas pequeñas y en la fase gaseosa. Para sistemas sólidos, líquidos o inhomogeneos en general , la superficie de potencial va a ser muy compleja como para poder conocer sus características completamente. Además, los experimentos sobre esos sistemas se llevan a cabo sobre muestras macroscópicas con muchísimas moléculas, cada una pudiendo encontrarse en puntos distintos de la superficie de energía potencial. Los métodos de simulación permiten el estudio de tales sistemas mediante técnicas de muestreo configuracional, ya sea dependiente del tiempo (MD) o no (MC). En ambos casos se obtienen promedios de estructuras y diferentes propiedades que se aproximan a los valores medidos experimentalmente. El valor de la propiedad de un sistema va a depender de las posiciones y momentos de las N partículas del sistema (en un momento determinado). El espacio de fase esta determinado por 6N valores para un sistema de N átomos, es decir, 3 coordenadas y 3 momentos (por átomo). Cada combinación de 3N posiciones y 3N momentos define un punto en el espacio de fase. Def.: un ensamble molecular es una colección de puntos en el espacio de fase. Notar que MC no muestrea del espacio de fases total, sino sólo del espacio de coordenadas e igualmente sirve para obtener promedios de ensamble.

2 Valor exp. = promedio durante el tiempo del exp. (promedio temporal)
Aave = lim t ∞ Se puede calcular el valor promedio de una propiedad simulando el comportamiento de un sistema, i.e. determinando los valores instantáneos de la propiedad Alternativa: promedio de ensamble  mecánica estadística <A> = valor esperado de la propiedad r(pN, rN) = densidad de probabilidad Hipótesis ergódica <A> = Aave Si el tiempo en el cual se realiza un experimento se aproxima a infinito, entonces el valor de la integral (de los valores instantáneos de la propiedad) se aproxima al valor promedio de la propiedad. Una manera entonces de calcular valores de propiedades es simular el comportamiento dinámico del sistema (a lo largo del tiempo) para determinar los valores de la propiedad en particular. Las configuraciones obtenidas están relacionadas directamente entre si ya que se derivan de aplicar las leyes de Newton al sistema. El problema es que para números macroscópicos de átomos o moléculas es muy difícil determinar una configuración inicial para someter a la evolución temporal y como los cálculos son deterministas, partiendo de una misma configuración inicial siempre se obtendrá el mismo resultado. La alternativa de promedio de ensamble se basa en los fundamentos de la mecánica estadística y la idea es reemplazar un único sistema evolucionando en el tiempo por una gran cantidad de replicaciones del mismo que se consideran simultáneamente. En realidad deberían ser 6N integrales (en la ecuación del valor esperado de la propiedad A), una para cada coordenada del espacio de fase. Ro es la densidad de probabilidad del ensamble, es decir, la probabilidad de encontrar una configuración determinada (valores determinados de p y r). El promedio de ensamblado de la propiedad entonces se determina integrando todas las posibles configuraciones del sistema. El muestreo por DM introduce un sesgo en la generación de conformaciones de acuerdo a lo que dice la segunda ley de Newton (ver más adelante) mientras que al obtener ensambles por métodos como Monte Carlo, se generan conformaciones sin sesgo (en teoría después se verá que en la práctica no es así) a las que luego se las pondera considerando su factor de boltzmann (densidad de probabilidad).

3 r corresponde a la distribución de Boltzmann:
E(pN, rN) = energía Q = función de partición Q para el ensamble canónico = N, V y T ctes. Propiedades termodinámicas Mecánicas -Energía La función de partición es una de las ecuaciones más importantes de la termodinámica estadística y describe un sistema en equilibrio térmico. Da una idea del peso estadístico (poblamiento) de cada uno de los estados macroscópicos accesibles al sistema. Estrictamente Q depende del hamiltioniano del sistema que a nuestros efectos es igual a la energía. En realidad, las simulaciones basadas en promedios de ensambles se desarrollaron primero que las simulaciones de dinámica molecular. La energía interna de un sistema se obtiene fácilmente a partir del promedio de las energías de cada configuración obtenida. La capacidad calorífica puede permitir detectar transiciones de fase. Se puede calcular mediante una serie de simulaciones a diferentes temperaturas y luego diferenciar la energía con respecto a la temperatura (numérica o analíticamente). Alternativamente se puede obtener de una sola simulación considerando las fluctuaciones instantáneas de la energía. -Capacidad calorífica

4 A partir de una sola simulación:
CV = {<E2> - <E>2}/kBT2 = <(E -<E>)2>/kBT2 -Presión Teorema del virial xi = coordenada i p´xi = derivada de p a lo largo de coordenada i (fuerza) Para un gas real: Para eso, se obtienen el valor esperado de la energía al final de la simulación y se hacen las diferencias al cuadrado correspondientes. El término virial proviene del griego significa fuerza o energía. El virial se utiliza, entre otras cosas, para calcular la temperatura (y energía cinética) de un sistema de una manera simple cuando otros métodos no lo hacen posible. Para un gas ideal, las únicas fuerzas de interacción son con el contenedor, por lo que el virial vale -3PV. La interacción en un gas ( o molécula real) afecta el virial y por lo tanto la presión. En la formula de presión se sustituye la derivada parcial por fij, las fuerzas. La fuerza se calcula rutinariamente durante DM por lo que el cálculo de la presión es rápido, no así en MC, donde las fuerzas no se calculan normalmente.

5 NC = número de “constricciones” del sistema
Temperatura NC = número de “constricciones” del sistema Térmicas -Entropía -Energía libre -Potencial químico No son fácilmente derivables  técnicas especiales Propiedades mecánicas  dependen de la derivada primera de la función de partición Propiedades térmicas - dependen de la función de partición misma La temperatura se relaciona directamente con la energía cinética del sistema a partir del teorema de equipartición de la energía cinética que establece que la energía cinética se distribuye de manera igual entre las distintas partículas del sistema cuando se alcanza el equilibrio térmico. Las constraints tienen el efecto de reducir los grados de libertad del sistema. Ej: el momento lineal total se setea como 0 en las simulaciones muy a menudo. Ahí ya se pierden 3 grados de libertad. Hay otro tipo de constricciones impuestas al sistema también. De acuerdo al teorema de equipartición de la energía, cada grado de libertad aporta kbT/2. Otro tipo de propiedades a calcular se relacionan con las funciones de distribución radial, como ser la densidad de partículas por volumen que se relaciona con la función de distribución par, g(r) que da la probabilidad de encontrar un átomo a una distancia r de otro átomo comparado con la distribución de un gas ideal. Las propiedades termodinámicas térmicas no son fácilmente obtenibles de las simulaciones por lo que se debe de recurrir a técnicas especiales a los efectos. No se va a demostrar, pero el problema es que mientras las propiedades termodinámicas mecánicas dependen de la derivada primera de la función de partición, las propiedades térmicas dependen de la función de partición misma. El desarrollo matemático demuestra claramente que para obtener valores representativos de por ejemplo la energía, basta con visitar las configuraciones más estables del sistema (muestreo de las configuraciones más estables, de menor energía). Esto es lo que normalmente se realiza durante una DM o MC. En cambio para poder obtener valores convenientes de las propiedades térmicas, ejemplo, la energía libre, es necesario visitar las configuraciones de mayor energía pues influyen en buena medida sobre la energía libre. Esto no se hace con DM o MC clásicos, por eso hay que desarrollar otras variantes. Es claro que si pudiéramos muestrear extensivamente el sistema, es decir obtener todas las configuraciones accesibles a él, el problema no existiría pues se tendrían en cuenta tanto estados de baja energía como estados de alta energía. Esto se puede hacer bastante sencillamente con moléculas pequeñas aisladas con curvas de energía potencial sencillas.

6 Método de Dinámica Molecular (DM o MD)
Concepto básico: generación de configuraciones sucesivas de un sistema a partir de la integración de las leyes de movimiento de Newton: Fxi = fuerza sobre una partícula en la dirección xi Tres situaciones Conjunto de moléculas que sufren colisiones en ausencia de fuerzas externas entre colisiones Cada partícula experimenta una fuerza constante entre las colisiones (ej: carga en un campo eléctrico) La fuerza sobre cada partícula depende de la posición relativa de las demás partículas Refrescar las leyes de Newton: Un cuerpo se mueve en línea recta a velocidad constante en ausencia de fuerzas que actúen sobre el. La fuerza es igual a la velocidad de cambio del momento lineal Para una acción existe siempre una reacción igual y contraria. La trayectoria se obtiene resolviendo las ecuaciones diferenciales generadas por la segunda ley de Newton En el caso más simple, no hay fuerza externa, por lo que el cambio de posición (entre colisiones) será igual a la velocidad por el tiempo entre colisiones. El tercer caso es muy complejo y es imposible solucionarlo analíticamente para sistemas de tres átomos independientes (many body problem). En el modelo de esferas duras (hard sphere potential), las esferas se mueven con velocidad constante en línea recta entre las colisiones. Las colisiones son elásticas (se conserva la cantidad de movimiento) y ocurren cuando la separación entre los centros de las moléculas es igual a la suma de los radios de ambas. En el modelo de pozo cuadrado, existen dos valores de distancia (cutt off) entre los cuales el potencial tiene un determinado valor, Por debajo del primer cut off, el potencial es infinito, y por encima es 0. En las primeras simulaciones, se seguían 3 pasos: Identificación del par de esferas a colisionar y calcular el momento en que se da la colisión Cálculo de las posiciones de todas las esferas en la colisión Determinación de las nuevas velocidades de las esferas que colisionaron Este ciclo de tres pasos se repite para formar la trayectoria. Primeras simulaciones fueron del tipo 1 (modelos de esferas duras) Primera simulación “real”: Argon (1964)

7 Simulaciones con potenciales continuos y variables
Para resolver las ecuaciones diferenciales (Newton) se aplican métodos de “diferencia finita” Idea básica: la integración de las ecuaciones se realiza en etapas de tiempo muy pequeñas (Dt) Para cada Dt: 1) Evaluar la energía potencial de sistema (FF) a partir de las posiciones actuales de las partículas 2) Derivar la fuerza para cada partícula 3) Obtener la aceleración para cada partícula 4) Calcular nuevas posiciones a partir de aceleración, velocidad y posiciones actuales Se asume fuerzas ctes. durante cada Dt La idea esencial es la división del tiempo en pequeños intervalos en los cuales se calculan las magnitudes de interés. Todos los algoritmos de DM asumen que las posiciones, velocidades, aceleraciones, etc. se aproximan por series de Taylor (again!) las cuales se van a truncar en diferentes niveles dependiendo del algoritmo.

8 Algortimos de integración Verlet
Ventajas: -Simple y expeditivo -Combinable con otros algoritmos Desventajas: -Poca precisión -Cálculo de velocidades 2) Leap-frog Utiliza la aceleración y velocidad para el cálculo de la posición: En Verlet, se calculan las nuevas posiciones a partir de las anteriores y la aceleración. El método Verlet no es demasiado preciso ya que trunca la expansión luego del tercer termino. Además, las nuevas posiciones se obtienen de sumar un termino muy pequeño a la diferencia de dos magnitudes más grandes. El otro problema del método Verlet, es que las velocidades no aparecen explícitamente en el algoritmo sino que se derivan secundariamente (errores al restar) No es un algoritmo auto-iniciativo pues se necesitan las r del paso anterior para calcular las de cada paso. Al inicio, no existen!! El método leap-frog sí calcula explícitamente las velocidades, pero desfasadas con respecto a las posiciones, de ahí su nombre, las posiciones se calculan en intervalos enteros y las velocidades en el medio de intervalos.

9 -Calculas las velocidades explícitamente Desventajas:
-Simple -Calculas las velocidades explícitamente Desventajas: -Posiciones y velocidades se obtienen desfasadas en el tiempo El inconveniente de leap-frog es que no puede saberse la contribución cinética a la energía total a la misma vez que se determinan posiciones. En Velocity verlet, las posiciones se calculan igual que en Verlet, pero comparte con leap-frog que se calculan explícitamente las velocidades en los mismos momentos que las posiciones 3) Velocity Verlet

10 -Calcula velocidades explícitamente y en fase con posiciones 4) Beeman
Ventajas: -Calcula velocidades explícitamente y en fase con posiciones 4) Beeman Asume una variación lineal de la aceleración en el intervalo Dt El método Beeman es de orden mayor que los anteriores pues asume una variación temporal de la aceleración en el intervalo en vez de considerarla constante. Ventajas: -Mayor precisión -Mayor tamaño de Dt -Cálculo explícito de velocidades Desventajas: -Mayor costo computacional

11 5) Gear (predictor-corrector) 3 pasos:
1) Predicción de r(t + Dt), v(t + Dt), a(t + Dt), etc. a partir de expansiones de Taylor 2) Cálculo de la fuerza en las nuevas posiciones y obtención de a(t + Dt) 3) Comparación de a (t + Dt) calculadas y predichas La diferencia entre los valores predichos y calculados se usan para corregir las posiciones, velocidades, etc., en el paso de corrección: Los métodos predictores-correctores forman una familia de algoritmos de los cuales se puede seleccionar uno que sea correcto a un orden dado. Se debe asignar valores a los coeficientes de las expansiones. En el ejemplo, se trunca la expansión luego de la tercera derivada (orden 4). aceleración teórica

12 -Mayor espacio de almacenamiento
Ventajas: -Gran precisión -Uso de Dt mayor Desventajas: -Mayor espacio de almacenamiento -Evaluación doble de las fuerzas en cada Dt SHAKE Algoritmo de constricción Permite el uso de Dt significativamente mayores  simulaciones más largas Constraints del tipo: rij2 – dij2 = 0 constricción holonómica rij = distancia entre átomos i y j dij= valor fijo de distancia entre i y j El mayor tiempo de cálculo en cada deltaT queda balanceado por el uso de un Dt mayor (el doble del normal) en el método de Gear. Constraint distinto a restraint Las constraints son condiciones que el sistema debe cumplir. Ej: un valor fijo de una distancia de enlace. Restraints son penalizaciones que se introducen en el modelo para restringir (hacer menos fácil) el movimiento en cierta coordenada (ej.: potencial suplementario restaurador en una posición para no permitir su libre movimiento). El método SHAKE no se va a desarrollar aquí por falta de tiempo sólo se aportan los conceptos fundamentales. Fue diseñado para eliminar las vibraciones de mayor frecuencia del sistema, que son justamente las que determinan el tamaño del delta de integración en la simulación. Típicamente, el deltat debe ser un orden de magnitud menor que las oscilaciones de mayor frecuencia (es decir menor periodo). Estas oscilaciones corresponden a las coordenadas de enlace (bond stretching). Se asume que en general dichas vibraciones no son importantes en la evolución del sistema (cambios de conformación), ya que estos últimos son causados por movimientos de frecuencia baja. Esto es así porque la amplitud de un movimiento es inversamente proporcional a la constante de fuerza asociada, a su vez entonces a la frecuencia. A movimientos mayores, menor frecuencia de vibración. SHAKE impone tantas constricciones como enlaces tenga el sistema, las cuales se deben cumplir a la misma vez. El sistema de ecuaciones planteado por el algoritmo de constricción puede ser resuelto analíticamente mediante multiplicadores de Lagrange pero SHAKE utiliza un método numérico (iterativo). Va tratando cada distancia de enlace una por vez y reestableciendo la restricción. Esto puede provocar que al satisfacer una de las constraints, otra previa puede violarse por lo que debe iteracionar alrededor de todas las constraints hasta que todas a la vez se satisfagan. SHAKE se aplica sólo a enlaces y no a ángulos (a pesar que la constricción en un ángulo puede satisfacerse introduciendo una constricción de distancia adicional. Pero constreñir ángulos puede afectar considerablemente las propiedades dinámicas de un sistema. Esto es debido a que muchas transiciones conformacionales involucran apertura o cierre de ángulos como también rotaciones alrededor de enlaces.

13 Elección del algoritmo de DM Factores:
SHAKE utiliza un procedimiento iterativo que en cada Dt ajusta todas las distancias de enlace a valores pre-establecidos Elección del algoritmo de DM Factores: 1) Esfuerzo computacional en cada paso 2) Tamaño de Dt 3) Conservación de la energía (ens. microcanónico) 4) Requerimientos de memoria y espacio en disco 5) Precisión En general, el algoritmo óptimo debe demandar poco costo computacional (cálculo, memoria y espacio), debe ser preciso (resultados similares a los experimentales), posibilitar trayectorias largas en tiempos razonables, ser moldeable (sencillo de modificar) y adaptarse adecuadamente a diferentes condiciones de simulación En el ensamble micro-canónico, la energía del sistema debe mantenerse pues no hay fuerzas externas sobre el mismo, o sea que la cantidad de movimiento debe ser constante (se puede demostrar que el cambio de energía debe ser nulo) A menudo las simulaciones se hacen en condiciones diferentes al ensamble micro-canónico (canónico, isotermo-isobárico, etc.)

14 Dinámica Molecular a temperatura y presión constantes
-Ensamble microcanónico: N, V y E ctes. -Ensamble canónico: N, V y T ctes. -Ensamble isotermo-isobárico: N, T y P ctes. Temperatura: <K>NVT = 3/2NkBT Escalamiento de velocidades Se multiplican las velocidades por un cierto factor (l) A menudo interesa realizar simulaciones que se correspondan más directamente con el experimento, el cual casi invariablemente se realiza a presión y temperatura constantes. En general no es válido extrapolar valores de propiedades obtenidas con un ensamble hacia otro (diferentes condiciones). Salvo en el limite de tamaño del sistema infinito. En algunos casos también, es necesario tener control de la temperatura del sistema, como en la etapa de equilibrio (para llevarlo a la temperatura de corrida adecuada). Existen varios métodos para mantener la temperatura constante aunque todos ellos parten de la relación entre la temperatura y la velocidad de las partículas. En el método de escalamiento de velocidades, se multiplican las velocidades de los átomos por un factor constante (proporcional al cociente entre la temperatura actual y la de referencia) de manera de aproximar la temperatura a la de referencia. T0 = temperatura de referencia T(t) = temperatura instantánea DT = (l2 -1)T(t)

15 Tba = temperatura del baño = constante de acoplamiento
2) Acople térmico Se acopla el sistema a un baño térmico (T) con el cual intercambia energía Tba = temperatura del baño = constante de acoplamiento DT = Dt/t(Tba – T(t)) Dt = tiempo de integración En el acople térmico a un baño, el baño actúa como una fuente de energía, introduciendo o sacando energía térmica según se necesite para mantener la temperatura cercana al valor de referencia. Las velocidades se escalan en cada deltat de manera que el cambio de temperatura sea proporcional a la diferencia entre la temperatura del baño y la del sistema. El acople esta gobernado por el parámetro tau, si este es grande, el acople es débil, si es pequeño el acople es fuerte. Esto se ve en la formula de lambda. Lambda se aproxima a uno para valores grandes de tau. Si tau es igual al tamaño del paso, el método es igual al anterior. Ventaja -Permite la fluctuación de temperatura alrededor del valor de referencia

16 3) Colisiones estocásticas
Se reasignan velocidades a partir de una distribución de Maxwell-Boltzmann a la temperatura de referencia Baño térmico emitiendo partículas térmicas! La frecuencia de “colisiones” para una partícula es: k = conductividad térmica h = densidad de partículas N = número de partículas El método de colisiones supone la elección de un átomo del sistema cada tanto tiempo (típicamente uno por deltat) y la asignación de su velocidad a partir de una distribución gaussiana a la temperatura de referencia. La frecuencia de colisiones de cada partícula va a depender del cambio de energía introducido en cada colisión. o n =nc/N2/3 nc = frecuencia de colisión intermolecular Desventaja -Introduce discontinuidades en la trayectoria

17 Escalamiento del volumen Acople a baño de presión
k = compresibilidad isotérmica La presión en general fluctúa mucho más que la energía pues se relaciona con el virial el cual cambia con r mucho más que la energía. Los métodos para fijar la presión son similares a los encontrados para la temperatura, esta vez en lugar de reescalar las velocidades, se reescala el volumen del sistema (posiciones de las partículas). La compresibilidad isotérmica es el análogo de presión a la capacidad calorífica y se relaciona con la cantidad de fluctuación volumétrica en un sistema. Cuanto más compresible una sustancia, mayor kapa tendrá. En el caso del método de baño de presión, es enteramente análogo al baño térmico sólo que se sustituye la presión por la temperatura y lo que se re-escala es la posición y no las velocidades. Nuevamente el cambio en la presión es proporcional a la diferencia entre la presión del baño y la del sistema en un momento dado. El volumen se escala por un factor lambda y las posiciones por un factor raíz cúbica de lambda. Nuevamente tau gobierna la magnitud del acople al baño de presión. Lambda puede ser igual en las tres direcciones (isotrópico) o distinto (anisotrópico), independiente para cada dirección. Esto permite el cambio de las dimensiones de la caja del sistema (PBC) independiente. r´i = l1/3ri Escalamiento: -isotrópico -anisotrópico

18 Algoritmo de Dinámica Molecular
En cada Dt de integración, el algoritmo tipo (basado en leap-frog) de DM puede resumirse en los siguientes pasos: 0) Las posiciones (ri(tn)) y velocidades (vi(tn – Dt/2) para todos los átomos y el largo (Rbox(tn)) y volumen (Vbox(tn) ) de la caja son conocidos en t = tn Cálculo de las fuerzas (no constreñidas): 2) Cálculo de la energía cinética, el virial y la presión:

19 Algoritmo de Dinámica Molecular
3) Cálculo de la temperatura: 4) Cálculo de las nuevas velocidades no constreñidas: 5) En caso de ajuste de temperatura, multiplicación de velocidades por factor: 6) Cálculo de las nuevas posiciones no constreñidas:

20 Algoritmo de Dinámica Molecular
7) En caso de aplicación de constricciones (SHAKE), almacenamiento de posiciones no constreñidas: 8) En caso de aplicación de constricciones (SHAKE), cálculo de nuevas posiciones constreñidas: 9) En caso de aplicación de constricciones (SHAKE) cálculo de nuevas velocidades constreñidas:

21 Algoritmo de Dinámica Molecular
10) En caso de aplicación de constricciones (SHAKE), cálculo de fuerzas no constreñidas: 11) En caso de ajuste de presión, multiplicación de posiciones por factor: y cálculo del nuevo largo y volumen de la caja:

22 Fases de una simulación (MD o MC) 1) Inicio
Elección del modelo energético (FF) Elección de la configuración de partida y entorno Asignación de velocidades 2) Equilibramiento Evolución del sistema desde la configuración inicial hasta el equilibrio (incluye pre-calentamiento) 3) Producción Recolección de datos y cálculo de propiedades simples 4) Análisis Cálculos más complejos de propiedades Examen estructural Detección de problemas Estimación de errores En el inicio, se debe elegir el modelo de energía a utilizar (casi siempre un campo de fuerza) de manera de describir adecuadamente interacciones moleculares. En la actualidad para sistemas no demasiado grandes se pueden usar métodos híbridos QM/MM. Luego de tener el modelo teórico, hay que elegir una estructura de partida. Acá varía bastante según la naturaleza del sistema. En el caso de macromoléculas, es común partir de estructuras cristalográficas o NMR o de lo contrario de modelos teóricos con cierto grado de validez. Para moléculas pequeñas, en general un modelo de mínima energía es suficiente. Para líquidos, muchas veces se elige una estructura de red estándar (si hay x-ray mejor) Si no hay información experimental se puede elegir el arreglo de red cúbica centrado en cara. La configuración de las moléculas individuales puede basarse en moléculas lineales (co2). Es importante siempre tratar de partir de una estructura cercana al equilibrio o cercana al estado que se quiere simular, de manera que la siguiente etapa no sea de demasiada duración. La estabilidad se monitorea durante el equilibramiento (típicamente la energía total, aunque también puede ser la T o P). También se pueden hacer comparaciones estructurales del sistema global (rms de posiciones, etc.) En el caso de DM, es necesario también asignar velocidades iniciales a los átomos (para poder producir el siguiente set de posiciones). Para eso las velocidades se obtienen de una distribución gaussiana (distribución de Maxwell-Boltzmann) a la temperatura correspondiente. En la etapa de producción (típicamente más corta que el equilibramiento) se salvan configuraciones en disco para estudios estructurales. En el análisis se pueden calcular propiedades como por ejemplo energías libres u otras complejas que no se realizan durante la etapa de producción de datos. La evaluación estructural y energética es importante para detectar las causas de errores en la simulación (en el limite, el colapso del modelo!).

23 Condiciones de borde o frontera Aspecto relevante en una simulación
Tipos de borde 1) Vacío El sistema se encuentra totalmente aislado Aproximación pobre: -Distorsión de la forma molecular en la interfase -Cambios en la forma global por efecto de interacciones intramoleculares 2) Seudovacío Sin solvente explícito pero se incluyen efectos del solvente Ej: campo de fuerza NIS, dinámica estocástica Mejor aproximación: algunos efectos del solvente son tenidos en cuenta: apantallamiento de cargas e interacciones de van der Waals. El vacío provoca distorsión en la forma de las moléculas pues tiende a minimizar el área superficial. También se adoptan formas más compactas de las moléculas pues existen mayor cantidad de interacciones no enlazantes que en presencia de solvente se debilitarían en gran medida.

24 3) Condiciones periódicas (PBC)
Copias del modelo repetidas periódicamente Las condiciones periódicas posibilitan simulaciones con un número de átomos bastante bajo pero el efecto es similar a si se encontraran en el medio de un fluido (solvente). Lo que se hace es replicar el sistema en todas las direcciones, de manera de obtener 27 copias del mismo. Cada átomo del sistema poseerá 26 imágenes distintas del mismo. Las coordenadas de las imágenes son múltiplos de las originales y se calculan fácilmente a partir de las dimensiones de la unidad que se este usando para replicar (ej: caja cúbica, octaédrica truncada, dodecaedro rómbico, etc.). El efecto que se logra es que los átomos del sistema siempre estén rodeados por partículas y no “vean” el vacio circundante. Cuando una particula sale de la caja central durante la simulación, la imagen de la misma penetra en la misma caja por el lado opuesto. El sistema puede estar aislado o acompañado de solvente. Pero en casos donde existan muchos átomos, puede no ser aplicable este tipo de esquema. La celda cúbica es la que más átomos demanda en el caso de simular sistemas solvatados pues el solvente en principio debería llenar el área de la celda. En estos casos, se puede reducir el número de átomos utilizando las otras celdas, ej: octaedro truncado que como se ve en la figura tiene un volumen menor que la caja cúbica.

25 -Pérdida de interacciones no enlazantes
Ventaja: -Permite simular sistemas pequeños atenuando efectos de vacío: los átomos siempre están rodeados de otros átomos Desventajas: -Pérdida de fluctuaciones con longitud de onda mayor al largo de la celda -Pérdida de interacciones no enlazantes 4) Solvente -Condiciones periódicas -Pared extendida (“extended wall”) Para que una interacción no se compute dos veces (con el átomo verdadero y su imagen), las interacciones no enlazantes deben calcularse hasta un radio igual o menor que la mitad del largo de la celda (para una caja cúbica). Como recién se mencionó, PBC puede no ser práctico cuando tenemos un sistema con muchos átomos o un sistema inhomogeneo con un soluto rodeado por solvente (caso típico, una proteína). A menudo en este último caso, nos interesa estudiar una parte de la molécula de polímero y no toda su extensión. Entonces es posible utilizar la condición de frontera conocida como extended wall region. Se divide el sistema en dos porciones, una donde se llevara a cabo la dinámica completa del sistema y que contiene la zona de interés (ej.: sitio activo). La zona circundante tendrá una dinámica restringida (potencial armónico en las posiciones). Para esto se usan dos radios, centrados en algún punto de la molécula). La esfera se completa con agua. La región entre los dos radios (cascarón) con dinámica restringida actúa como un reservorio o buffer de la zona de interés con respecto al vacío.

26 Tratamiento de las interacciones no enlazantes
Evaluación costosa - pares de interacciones prop. a N2 Potenciales no enlazantes dependen inversamente de la distancia: Uso de radios de cut off: 1) Twin range method Dos radios de cut off -rc1 Lennard Jones + Coulomb -rc2 Coulomb rc2 > rc1 (ej: rc1 = 8Å y rc2 = 15Å) En PBC  convención de mínima imagen: la interacción se calcula con respecto al átomo mismo o a su imagen más cercana (una sólo vez) rc2 < l/2 (caja cúbica) Combinación de radios cut off con lista de vecinos no enlazantes (non bonded neighbour list) La evaluación de las interacciones no enlazantes (coulomb y van der waals) es junto con el cálculo de la fuerza la tarea que más tiempo consume en cada deltaT. Mientras que los restantes términos del campo de fuerza varían proporcionales a la cantidad de átomos, las int. no enlazantes varían con el cuadrado de los átomos. Como las interacciones no enlazantes dependen del inverso de alguna potencia de la distancia, a menudo son de corto alcance por lo que en principio no se justificaría su evaluación a distancias demasiado grandes (para cada átomo). Esto se aplica muy bien al potencial de van der waals, donde la componente atractiva disminuye según la sexta potencia de la distancia. En la practica, se calculan las interacciones usando el concepto del radio de cut off. En esta aproximación, se van a calcular todas las interacciones de cada átomo con los átomos que se encuentren dentro del radio utilizado, mientras que los átomos que yacen fuera no son tenidos en cuenta. El inconveniente es que las interacciones electrostáticas aun cuando dependen del inverso de la distancia, son de mucho mayor alcance que las de van der waals por lo cual si se usan radios inadecuados, se introducen errores importantes. Una forma de mejorar esto es usar dos radios, uno para el cual se calculan los dos tipos de interacciones (en cada Deltat) y para la región entre ambos radios se calculan sólo las interacciones electrostáticas (cada cierto tiempo, ver más abajo). Más allá del segundo radio, no se evalúan las interacciones. Como recién se dijo, si se están usando condiciones periódicas de frontera, hay que tener cuidado en no evaluar una misma interacción dos veces, como por ejemplo, con respecto a un átomo y a su imagen a la vez. Para eso se impone una restricción al radio de cut off más grande, que va a variar según la geometría de la caja. El concepto de radios de cut off está directamente relacionado con el de las listas de vecinos no enlazantes.

27 Necesidad de actualizar la lista de vecinos periódicamente
Los vecinos se determinan cada n Dts y se almacenan en una lista: En cada Dt, se calculan las distancias con respecto a la lista de vecinos rcnei >= rc2 Necesidad de actualizar la lista de vecinos periódicamente 2) Twin range + neighbour pair list r < rc1  todas las interacciones en cada Dt rc1 < r < rc2 - sólo interacciones electrostáticas cada vez que se actualiza la lista de vecinos La utilización de radios de cut off en si misma no es del todo efectiva para disminuir el costo computacional del cálculo de interacciones de largo alcance. Pues aunque es verdad que disminuye la cantidad de términos a evaluar, igualmente es necesario calcular las distancias entre todos los átomos del sistema, lo cual es el aspecto que más tiempo insume en la evaluación de las interacciones no enlazantes. Lo que se hace es introducir el concepto de lista de vecinos no enlazantes, aceptando que los vecinos de cada átomo se mantienen aproximadamente constantes a lo largo de una serie de pasos de dinámica. Así, en cada paso, sólo se calculan las distancias con respecto a la lista de vecinos, ignorando el resto. Se asume que el resto está más allá del radio de cut off. En general, el radio de la lista de vecinos es un poco mayor que el radio de cut off de manera de evitar que entre actualizaciones de la lista, haya algún atomo (inicialmente más allá del cut off) que por su movimiento quede dentro del cut off, y no se evalúe hasta la siguiente actualización. Evidentemente que esto tiene un limite, por eso es que la lista de vecinos debe actualizarse periódicamente (típicamente cada deltats). Cuando se usa el método twin range en combinación con la lista de vecinos, lo que se hace es calcular las interacciones de largo alcance sólo cuando se actualiza la lista de vecinos, entre actualizaciones, el valor de la interacción de largo alcance se mantiene constante (aproximación).

28 3) Radios de cut off entre grupos
Cálculo de interacciones no enlazantes entre grupos de átomos en vez de átomos aislados. Concepto de grupos de carga (charge groups): Carga total = 0  dipolo-dipolo término dominante Radios de cut off entre grupos: -Medido entre los centros de masa -Considerando un átomo marcador Ventajas -Menor alcance de interacciones electrostáticas (1/r3) -Funciona mejor con radios de cut off En algunos programas de DM (Gromos), se utiliza el concepto de grupos de carga en el cual, los átomos son agrupados en conjuntos atómicos con la particularidad que la suma de sus cargas es cero. Esto no siempre es posible dada la existencia de especies con carga neta evidentemente. En estos casos, los radios de cut off se van a aplicar entre grupos de átomos y no átomos individuales. Esto tiene la ventaja que se eliminan fluctuaciones violentas en la magnitud de las interacciones no enlazantes que a menudo ocurren cuando se consideran átomos individuales (ej.: en un momento una interacción puntual no es considerada pues el átomo se encuentra fuera del cut off, en el momento siguiente si, y si la interacción es fuerte, hay cambios bruscos en el potencial). La otra ventaja es que se reduce el alcance de las interacciones electrostáticas pues al calcularse la misma entre grupos de carga 0, el termino que domina en la expansión multipolar es el dipolar que cae mucho más rápido con la distancia. Refuerza más el concepto de truncar las interacciones electrostáticas más allá de cierto limite. Para medir la distancia entre dos grupos, pueden haber varios criterios. Uno puede ser el de considerar la distancia entre los centros de masa del grupo. Otro, elegir un átomo marcador en el grupo y medir las distancias a partir de este. Esto tiene el inconveniente que si el grupo es grande, a menudo, aunque el átomo no este dentro de un cut off particular, el resto de los átomos si pueden estarlo, y entonces se están perdiendo interacciones importantes. Las desventajas básicas del uso de cut off son dos: aproximación (aunque esta es la menos grave si se eligen adecuadamente los mismos) y discontinuidad en el potencial. Esto surge claramente de notar que justo después de pasar el radio de cut off, la interacción no enlazante pasa de un valor determinado a 0 bruscamente. Desventajas del uso de radios de cut off 1) Aproximación 2) Introducción de discontinuidades en el potencial y la fuerza

29 Mejoras en la discontinuidad del potencial
1) Potenciales corridos: “shifted potentials” V´(r) = V(r) – Vc r <= rc V´(r) = 0 r > rc Vc = valor del potencial en rc 2) Funciones de cambio: “switching functions” S = 1 rij < rc1 S = (rc2 –rij)/(rc2 –rc1) rc1<=rij<=rc2 S = 0 rc2 < rij V´(r) = V(r)S(r) El potencial corrido se corrige introduciendo una constante (igual al potencial en el cut off) que se resta en todo momento al valor real del potencial. Esto elimina la discontinuidad en el potencial pero no en la fuerza pues la derivada de una cte. es cero y la fuerza seguirá siendo igual. Se pueden mejorar las expresiones dadas arriba agregando otros términos. Igual no se usa mucho esta estrategia porque al cambiar el potencial, las propiedades termodinámicas también lo harán y es necesario corregir los valores obtenidos. Otra alternativa es el uso de funciones de switching que son funciones polinómicas de las distancias que multiplican el potencial real. Un ejemplo es que la función opere sólo entre los dos valores de cut off (no son los mismos que los usados para las interacciones no enlazantes). La función del ejemplo también tiene discontinuidades en los cut offs. Puede mejorarse con términos suplementarios (derivadas) Las funciones de switching pueden definirse también para átomos aislados o grupos de átomos. En el ultimo caso, hay que asegurarse que el potencial sea el mismo para todos los átomos de los dos grupos interactuando. Además del uso de cut offs para el tratamiento de las fuerzas no enlazantes, en particular electrostáticas, hay otros métodos que manejan el problema de manera más eficiente (aunque a mayor coste computacional). Sólo veremos el segundo método. Tratamiento de las fuerzas de largo alcance -Sumatoria de Ewald -Campo de reacción -Celdas multipolo

30 Término adicional al potencial electrostático (calculado dentro de rc)
Campo de reacción Término adicional al potencial electrostático (calculado dentro de rc) Vi = Ei.mi mi: dipolo de molécula i mj: dipolo de molécula j dentro de rc es: constante dieléctrica del medio fuera de rc Se modelan los átomos fuera del radio de cut off como un dieléctrico continuo (buena aproximación para fluidos) Ventajas -Simple conceptualmente -Fácil de implementar Desventajas: -Necesidad de conocer es En este método, el potencial electrostático se calcula normalmente como ya vimos, usando los radios de cut off, pero se le agrega una corrección por las interacciones perdidas, más allá del radio de cut off. Para eso, se considera al resto de la molécula/s (fuera del radio) como un dieléctrico continuo que va a producir un campo electroestático el cual va a incidir sobre la molécula en cuestión. Se pueden usar también charge groups.

31 Análisis de la simulación 1) Energético:
Evolución de la energía total (cinética + potencial) Evolución de la energía potencial Evaluación de componentes de energía potencial: -Energía covalente: enlaces y ángulos -Energía no covalente: diedros e interacciones no enlazantes -Energías de interacción no enlazante entre grupos (soluto-solvente, ligando- proteína, etc.) Promedios de energía total y potencial y cálculo de energías libres 2) Estructural: RMSD (desviaciones cuadráticas medias) Valor de la desviación promedio entre todos los átomos o coordenadas de conformaciones Habiendo considerado los detalles de índole práctico que implican la realización de una simulación molecular (en particular la Dinámica Molecular) y luego de finalizar la misma, la etapa que sigue es la del análisis de los resultados. Básicamente se pueden distinguir dos tipos de análisis: energético y estructural. En el primero, lo que interesa es estudiar la evolución de la energía total y/o de la energía potencial del sistema a lo largo de la simulación para determinar si se obtuvo un modelo estable. Este estudio puede hacerse de forma bastante simple (visualizando el comportamiento de las correspondientes gráficas) o bien más complejo echando mano a técnicas y procedimientos estadísticos. Luego de esto, puede interesar analizar en detalle los distintos componentes de la energía potencial, en particular los componentes correspondientes a interacciones no enlazantes entre distintos átomos y grupos de átomos predefinidos, con lo cual poder por ejemplo tener ideas de afinidades de unión. Si interesa tener una medida de la energía total del sistema (o de parte del sistema) se calcula rápidamente un promedio de los distintos valores que se fueron obteniendo en la simulación. Para el caso de la energía libre u otras propiedades térmicas, existen métodos especiales que difieren ya desde la concepción e implementación de la simulación, por lo cual se los verá aparte. En el segundo tipo de análisis, el estructural, el enfoque es fundamentalmente en la evaluación de la estabilidad del modelo (tal como hacíamos también en el análisis energético) aunque también interesa ver la evolución de los posibles cambios estructurales del sistema, ya sea global como más localmente. Existen algunas medidas que se realizan de forma rutinaria en esta etapa, algunas de las cuales son: RMSD, B-factors y momentos de inercia (PMI). 31

32 Factores B (temperatura)
Valor de la desviación promedio de cada átomo por separado en las distintas conformaciones m: masa del átomo i ri(tk): posición de átomo i en el tiempo tk <r>i: posición promedio de átomo i Para medir el rmsd, ya sea con respecto a los átomos o ponderado para cada coordenada, se debe elegir una conformación de referencia sobre la cual computar las diferencias cuadráticas. En general, la conformación de referencia es la de partida de la DM (obtenida por minimización energética o alguna otra fuente). Observar que rmsdat = rmsd*1/sqrt(3). Los factores beta o factores de temperatura (similar noción a la cristalografía de rayos X) dan también una idea del cambio estructural del sistema molecular pero ahora considerando cada átomo por separado. De esta forma se puede visualizar el valor del factor B sobre un átomo como una medida de la movilidad del átomo. Muchas veces importa más analizar la movilidad de una unidad estructural más grande como ser un residuo proteico, por lo cual se hacen gráficas que implican promedios de factores B de grupos de átomos (residuos, etc.). 32

33 P.M.I. (momentos principales de inercia)
Medida de la distribución de masa del sistema entre los ejes cartesianos Noción de volumen y forma del sistema Centro de masas para fragmento k: ri: posición de átomo i ; mi: masa del átomo i nk: número de átomos de fragmento k Radio de giro para fragmento k: Matriz de momentos de inercia: 3 valores propios de Mk --- momentos de inercia del fragmento K Los tres valores (uno por eje) que se reportan para los momentos de inercia dan una idea aproximada del volumen y forma del sistema o el fragmento considerado. Notar que cualquier geometría va a tener asociados 3 momentos de inercia sin importar si cuenta con simetría o no. De esta forma, otro uso de esta magnitud es el análisis de la evolución temporal de la estructura y la conservación de la misma (estabilidad). La matriz de momentos de inercia tiene dimensiones 3X3. Al diagonalizarla, sus valores propios corresponden a los tres momentos de inercia de la molécula o fragmento. 1: matriz identidad 33


Descargar ppt "DINAMICA MOLECULAR Métodos de simulación"

Presentaciones similares


Anuncios Google