Bioinformática: Fundamentos y aplicaciones de actualidad Curso de verano 2005 Revisión de algunos modelos probabilísticos de evolución genética (Procesos.

Slides:



Advertisements
Presentaciones similares
Introducción a la Estadística
Advertisements

Tema 7: Probabilidad 1. Introducción. 2. Variables aleatorias.
Tema.10. Conceptos básicos de muestreo y probabilidad aplicados a modelos en Psicología. Principales conceptos. Teoremas básicos. Variables aleatorias.
AZAR Y PROBABILIDAD..
DEFINICIONES       Experiencia Aleatoria: es aquella cuyo resultado depende del azar: ( lanzto de un dado, una moneda, extraer una bola, una carta, etc.)
DEFINICIONES       Experiencia Aleatoria: es aquella cuyo resultado depende del azar: ( lanzto de un dado, una moneda, extraer una bola, una carta, etc.)
AZAR Y PROBABILIDAD.
7. Máquinas Estocásticas
PROBABILIDAD.
Matemáticas, juego,...fortuna: Este año me toca la lotería
Conocimiento de la escala de probabilidad
Ingeniería en Ciencias Económicas y Financieras
Ingeniería Matemática
Ingeniería en Ciencias Económicas y Financieras
Introducción a la probabilidad
KRIGING.
2. INTRODUCCION A LA TEORIA DE LA PROBABILIDAD
MODELOS DE MARKOV OCULTOS
SUCESOS Y SUS PROBABILIDADES
1.2 Variables aleatorias..
Instituto San Lorenzo Departamento de Matemática Probabilidades.
Introducción a la Probabilidad
CÁLCULO DE PROBABILIDADES
Cadenas de Markov de Tiempo Discreto
E Experimentos aleatorios. Espacio muestral
Proceso estocástico Cadena de Markov Estado Transición
AZAR Y PROBABILIDAD..
Probabilidad. Variables aleatorias.
TEMA 5 PROBABILIDAD.
Probabilidad 1. Espacio muestral 2. Sucesos. Tipos de sucesos
Control Estadístico de Procesos Introducción a la Probabilidad.
Conceptos Básicos de Probabilidad
Tema 5: Probabilidad Lecturas recomendadas:
PROBABILIDADES Yolanda y Alberto están jugando con un dado cuyas caras están numeradas del 1 al 6. Pero Alberto es muy tramposo y ha cambiado el dado por.
Estadística - Probabilidad
PROBABILIDAD.
REGLA DE LAPLACE ESPAD III * TC 38.
1º BACHILLERATO | Matemáticas © Oxford University Press España, S.A Hacer clic en la pantalla para avanzar VARIABLE ALEATORIA Errores comunes Es.
ESTADISTICA II PARTE PRIMERA: PROBABILIDAD Y VARIABLES ALEATORIAS
María Macías Ramírez y David Marín Pérez
Hidden Markov Models Angélica Minaya Francesca Barletta Jeanette Velásquez Mónica Pajuelo Daniel Rueda.
Probabilidad y Estadística
Un panorama de conceptos probabilísticos
Sesión 09: Teoría de las Probabilidades
CÁLCULO DE PROBABILIDADES
VARIABLES ALEATORIAS Depto. Matemáticas – IES Elaios
Cadenas De Markov.
Probabilidades Objetivos de la clase Construidas definiciones básicas
1º BACHILLERATO | Matemáticas © Oxford University Press España, S.A Hacer clic en la pantalla para avanzar EXPERIENTO ALEATORIO. SUCESOS Un experimento.
Hidden Markov Models Angélica Minaya Francesca Barleta Jeanette velásquez Mónica Pajuelo Daniel Rueda.
Lic. Sandra Milena Pachón peralta Universidad Pedagógica Nacional
CLASE 1: PROBABILIDAD CONCEPTOS BÁSICOS Sector: Matemáticas
Objetivo del Cálculo de Probabilidades: Cálculo de Probabilidades
PROBABILIDADES (Adaptación) Prof. José Mardones Cuevas
Tema 5 : PROBABILIDAD.
1 2  La Teoría de la Probabilidad constituye la base o fundamento de la Estadística, ya que las ingerencias que hagamos sobre la población o poblaciones.
Tema 5 PROBABILIDAD.
TEMA 5 PROBABILIDAD.
Aspectos generales de la investigación educativa en el SNIT
Inferencia Estadística Conceptos Previos. Conceptos Previos Población: Es la colección de toda la posible información que caracteriza a un fenómeno aleatorio.
Regla de Laplace para el cálculo de probabilidades
Probabilidad: Es la medida de incertidumbre de la ocurrencia de un suceso Experimento Determinístico: Es aquel que podemos predecir su ocurrencia. Ej.
Concepto de Probabilidad
PROBABILIDADES.
Tema : Probabilidad.
Jugadores de cartas. Caravaggio.
Probabilidad1 PROBABILIDAD Y ESTADISTICA Tema 2: Probabilidad.
Ing. Raúl Alvarez Guale, MPC
PROBABILIDAD Por Jorge Sánchez. El espacio muestral asociado a un experimento aleatorio simple está formado por el conjunto de todos los resultados que.
CLASE 2 Definiciones de probabilidad.
Transcripción de la presentación:

Bioinformática: Fundamentos y aplicaciones de actualidad Curso de verano 2005 Revisión de algunos modelos probabilísticos de evolución genética (Procesos de Markov y cadenas de Markov ocultas) César Sánchez Sellero Universidad de Santiago de Compostela

1. Motivación 2. Probabilidad 3. Procesos estocásticos 4. Cadenas de Markov 5. Cadenas de Markov ocultas 6. Aplicaciones

Motivación: Modelo para familias de proteínas m1m1 i1i1 d1d1 m2m2 i2i2 d2d2 m3m3 i3i3 d3d3 m4m4 i4i4 d4d4 m0m0 i0i0 m5m5

Probabilidad Ejemplo. Lanzar una moneda. Ω={c, +}. Experimento aleatorio. Es un experimento cuyos resultados posibles son conocidos de antemano, pero se desconoce cuál de ellos va a ocurrir. Espacio muestral. Es el conjunto formado por todos los resultados posibles del experimento aleatorio. Lo denotamos por Ω. Suceso. Cualquier subconjunto del espacio muestral. Suceso elemental. Es un suceso unitario. Está constituido por un único elemento. Decimos que ha ocurrido un suceso cuando se ha obtenido alguno de los resultados que lo forman. Ejemplo. Lanzar un dado. Ω={1, 2, 3, 4, 5, 6}. A=“que salga par”={2, 4, 6}.

Suceso seguro. Es el que siempre ocurre, y por tanto, es Ω. Suceso imposible. Es el que nunca ocurre, y por tanto, es el vacío, Ø. Unión. Ocurre AUB si ocurre al menos uno de los sucesos A o B. Diferencia de sucesos. Ocurre A\B si ocurre A pero no ocurre B. A\B=A B c. Sucesos incompatibles. A y B son incompatibles sino pueden ocurrir a la vez. A B = Ø. Suceso contenido en otro. Siempre que sucede A, sucede también B. A B. Intersección. Ocurre A B si ocurren los dos sucesos A y B a la vez. Complementario. Ocurre A c si y sólo si no ocurre A.

Definición. Se define la probabilidad como una aplicación que a cada suceso le asigna un número entre cero y uno ( su probabilidad), y que cumple las siguientes condiciones: Propiedades i.P(Ω)=1. ii.Si A B = Ø entonces P(AUB)=P(A)+P(B). 1.P( Ø )=0. 2.Si A 1, A 2, …, A n son sucesos incompatibles dos a dos, entonces P(A 1, A 2, …, A n ) = P(A 1 ) + P(A 2 ) + … + P(A n ). 3.P(A c ) = 1 - P(A) 4.Si A B, entonces P(A) ≤ P(B). 5.Si A y B son dos sucesos cualesquiera, se cumple P(AUB) = P(A) + P(B) - P(A B)

Asignación de probabilidades La asignación de probabilidades a veces se deduce de la estructura del experimento. Si Ω es finito, en ciertas ocasiones podemos pensar que todos los sucesos elementales tienen la misma probabilidad (equiprobables). Esto permite calcular la probabilidad de cualquier otro suceso mediante la regla de Laplace:

Probabilidad condicionada. Independencia. A B BcBc AcAc B BcBc P(B/A) P(A) P(A B)=P(A).P(B/A)=0.6x0.3=

Regla del producto A1A1 A1cA1c A2A2 A2cA2c A3A3 A3cA3c

Ley de las probabilidades totales A1A1 A2A2 AnAn B BcBc B BcBc B BcBc P(A 1 B)=P(A 1 ).P(B/A 1 ) P(A 2 B)=P(A 2 ).P(B/A 2 ) P(A n B)=P(A n ).P(B/A n ) P(B)

Teorema de Bayes A1A1 A2A2 AnAn B BcBc B BcBc B BcBc P(A 1 B)=P(A 1 ).P(B/A 1 ) P(A 2 B)=P(A 2 ).P(B/A 2 ) P(A n B)=P(A n ).P(B/A n )

Procesos estocásticos Indice del proceso, t Espacio de estados

Cadenas de Markov Definición. Una cadena de Markov es un proceso estocástico que presenta las siguientes propiedades: i.Es un proceso en tiempo discreto. ii.El espacio de estados es discreto. iii.Dependencia markoviana. iv.Las probabilidades de transición no dependen de la etapa. Elementos de una cadena de Markov. Espacio de estados: Matriz de transición: Distribución inicial:

Representación de una cadena de Markov Ejemplo E1E1 E2E2 E3E3

Distribución de probabilidad en la etapa t Por la ley de probabilidades totales, la distribución de probabilidad en la primera etapa se puede obtener así Pero esto nos permite pasar también a la segunda etapa, y así sucesivamente a cualquier etapa, multiplicando por la matriz de transición tantas veces como etapas haya que recorrer.

Tipos de estados Efímero. Ningún estado conduce a él. Recurrente. Si no es transitorio, esto es, si tras pasar por él, la cadena de Markov siempre regresa a él. Absorbente. Al llegar a él, ya no se sale a ningún otro estado. Transitorio. Tras pasar por él, al cabo de cierto número de etapas, la cadena de Markov ya no regresa a él.

Distribución estacionaria y comportamiento límite Definición. Л es una distribución estacionaria sobre E si Л P= Л. 1.Las distribuciones estacionarias otorgan probabilidad cero a los estados transitorios. 2.Cada grupo de estados recurrentes intercomunicados tiene una única distribución estacionaria. 3.Cuando el número de etapas converge a infinito, 4. Si R t es el número de veces que la cadena pasa por el estado E i en las t primeras etapas, cuando t tiende a infinito,

Estimación de los parámetros de una cadena de Markov A partir de una realización de la cadena de Markov, se pueden estimar las probabilidades de transición mediante las siguientes proporciones observadas: Esto presenta limitaciones dependiendo de cómo haya evolucionado la realización observada. Además, no permite estimar las probabilidades iniciales. Por estos motivos es conveniente disponer de varias realizaciones de la cadena de Markov.

Cadenas de Markov ocultas En lugar de observar los estados de la cadena de Markov, observamos otros elementos, bajo ciertas probabilidades: Elementos de una cadena de Markov oculta. Espacio de estados: Matriz de transición: Distribución inicial: Alfabeto de símbolos observables: Probabilidades de emisión:

Tres problemas Llamemos λ al conjunto de parámetros del modelo de Markov oculto, y Problema 1. Calcular P ( O / λ ). a una realización de la cadena de Markov oculta. Problema 2. Encontrar la secuencia de estados que mejor se corresponda con la secuencia observada O, bajo el modelo λ. Problema 3. Estimar los parámetros del modelo. Lo haremos buscando λ que haga máxima P ( O / λ ).

Una primera idea Si supiéramos cuál ha sido la sucesión de estados, entonces La probabilidad de una sucesión de estados es Entonces, por la ley de probabilidades totales

Procedimiento Adelante/Atrás (Inducción) Definimos las funciones adelante así: Las funciones adelante se pueden calcular por inducción así: Paso inicial Inducción Paso final

Definimos las funciones atrás así: Las funciones atrás se pueden calcular por inducción así: Paso inicial Inducción Paso final

Algoritmo de Viterbi Buscamos la cadena de estados que mejor se corresponda con la secuencia observada (problema 2). Formalizamos esto en el objetivo siguiente: Estas funciones y los argumentos donde se alcanza el máximo se pueden calcular por inducción así: Paso inicial Inducción Paso final Definimos las funciones: Secuencia de estados

Estimación de los parámetros del modelo Lo haremos por máxima verosimilitud y aplicaremos un método de tipo EM. Se pueden calcular a partir de las funciones adelante y atrás así: Definimos las funciones: Además podemos considerar todas las transiciones que parten de un estado: Los parámetros estimados se actualizan de la siguiente manera:

Aplicaciones Modelos para familias de proteínas Modelos para familias de proteínas Alineamiento de secuencias Alineamiento de secuencias Descubrimiento de subfamilias Descubrimiento de subfamilias Modelación de dominios dentro de la cadena de aminoácidos Modelación de dominios dentro de la cadena de aminoácidos

Modelo para familias de proteínas m1m1 i1i1 d1d1 m2m2 i2i2 d2d2 m3m3 i3i3 d3d3 m4m4 i4i4 d4d4 m0m0 i0i0 m5m5

Alineamiento de secuencias Una vez construido el modelo de Markov oculto y estimados sus parámetros, se puede emplear el modelo para reconstruir la sucesión de estados más probable que corresponde a cierta secuencia de aminoácidos. Dicho de otro modo, a partir de una secuencia de aminoácidos podemos encontrar cuál es la sucesión de inserciones o supresiones que se han producido (con mayor probabilidad). Ejemplo. Secuencias CAEFDDH y CDAEFPDDH. Modelo de longitud 10. m 0 m 1 m 2 m 3 m 4 d 5 d 6 m 7 m 8 m 9 m 10 m 0 m 1 i 1 m 2 m 3 m 4 d 5 m 6 m 7 m 8 m 9 m 10 Entonces las dos secuencias se alinean así Se ajustan las sucesiones de estados más probables y resultan C _ A E F _ _ D D H C D A E F _ P D D H

Descubrimiento de subfamilias Modelo 1 Modelo 2 Modelo k InicioFin

Modelación de dominios dentro de la cadena de aminoácidos InicioFin m0m0 m N+1 Modelo para el dominio IAIA IDID