Sesión 7: Redes Bayesianas – Inferencia

Slides:



Advertisements
Presentaciones similares
Diseño y análisis de algoritmos
Advertisements

FACTORIZACIÓN LU Bachilleres:
Sesión 3: Teoría de Grafos
Distribuciones de probabilidad bidimensionales o conjuntas
Bivariadas y Multivariadas
INTEGRACIÓN.
MÉTODOS NUMÉRICOS. Explicación del método de L U. Realizado por:
APROXIMACIÓN NUMÉRICA A LAS ECUACIONES DE FLUJO
Unidad académica: Ingenierías
KRIGING.
GeNie GeNie: entorno de desarrollo para la
Representación en espacio de estado
REDES BAYESIANAS.
MATRICES.
Especialista en Business Intelligence Analysis Services SSAS (Sesión 14) Microsoft SQL Server 2008 R2 Suscribase a o escríbanos a
DETERMINANTES DE UNA MATRIZ
Redes Bayesianas Breve definición de lo que es una red bayesiana, también conocida como red de creencia, red probabilística, red causal o mapa de conocimiento.
DERIVADAS PARCIALES Gráficas.
© L.E. Sucar: MGP - 3 T. Info.1 Sesión 3: Teoría de Información Modelos Gráficos Probabilistas L. Enrique Sucar INAOE “Estamos ahogados en datos, pero.
Prof. Esteban Hernández
Sesión 12: Procesos de Decisión de Markov
REDES BAYESIANAS Y DECISIÓN ESTADÍSTICA
Sesión 2: Métodos Probabilísticos Básicos
Sesión 13: Lógica y Probabilidad. Incertidumbre - LD y LP, L.E. Sucar2 Contenido Lógica probabilista Redes bayesianas con nodos lógico Modelos relacionales.
Calcular el cero del polinomio de orden 3 que pasa por los puntos
INTELIGENCIA ARTIFICIAL.
Árboles, montículos y grafos Cola de prioridades, montículos
Metodos de Inferencia Lenin Herrera.
Universidad de los Andes-CODENSA
Sesión 4: Métodos Probabilísticos Básicos “... tenemos razones para creer que hay en la constutución de las cosas leyes de acuerdo a las cuales suceden.
Sesión 2: Teoría de Probabilidad “Considero que la probabilidad representa el estado de la mente con respecto a una afirmación, evento u otra cosa para.
Eduardo Morales / L. Enrique Sucar
Sesión 6: Campos de Markov
Sesión 12: Procesos de Decisión de Markov. Incertidumbre - MDP, L.E. Sucar2 Procesos de Decisión de Markov Procesos de Decisión Secuenciales Procesos.
Diseño y análisis de algoritmos
Sesión 6: Redes Bayesianas - Representación
Manejo de Incertidumbre Sesión 13 Eduardo Morales / L. Enrique Sucar Sesión 13 Eduardo Morales / L. Enrique Sucar.
Unidad V: Estimación de
Ecuaciones diferenciales 1. Ecuaciones diferenciales de primer orden
Matemáticas Discretas
Sesión 10: Redes Bayesianas – Aprendizaje “Preferiría descubrir una ley causal que ser rey de Persia” [Democritus] Modelos Gráficos Probabilistas L. Enrique.
Reunión San Sebastián Mayo ELVIRA II Reunión San Sebastián Mayo 2004 Andrés Masegosa.
Sesión 2: Teoría de Probabilidad
Integración de Redes Bayesianas con Programas Lógicos para Música Eduardo Morales L.Enrique Sucar Roberto Morales.
A  Percentil al 68.3%,  :  P(x) dx =  
Unidad V: Estimación de
Estimación de modelos ARMA
Sesión 3: Teoría de Grafos
Modelos Gráficos Probabilistas
Distribuciones de probabilidad bidimensionales o conjuntas
Sesión 09: Teoría de las Probabilidades
INAOE CURSO PROPEDEUTICO PARA LA MAESTRIA EN ELECTRONICA
Sesión 6: Campos de Markov. © L.E. Sucar: PGM - CAM2 Campos de Markov Introducción –Modelo de Ising Representación –Tipos de Modelos –Redes de Markov.
Combinación de Programas Lógicos y Redes Bayesianas y su Aplicación a Música Eduardo Morales Enrique Sucar Roberto Morales.
Sesión 2: Teoría de Probabilidad “Considero que la probabilidad representa el estado de la mente con respecto a una afirmación, evento u otra cosa para.
Sesión 7: Redes Bayesianas – Inferencia: 2da Parte Modelos Gráficos Probabilistas L. Enrique Sucar INAOE [Neapolitan 90]
Matriz inversa Método Gauss Jordan.
Sesión 6: Redes Bayesianas - Inferencia
Árboles Binarios de Búsqueda (ABB)
 Un sistema de ecuaciones es un grupo de ecuaciones que representan líneas rectas.  Una ecuación es una igualdad en la que los términos pueden ser conocidos.
Estadística Reporte Ejecutivo
Aplicación JAVA implementando Arboles de Decisión

Inducción y Recursión Matemáticas Discretas L. Enrique Sucar INAOE.
Matemáticas Discretas MISTI
6. Sistemas de ecuaciones diferenciales lineales
Algoritmos y estructura de datos en I.O. Arboles Generales.
TEMA I Teoría de Circuitos
MATRICES Y DETERMINANTES Una matriz cuadrada que posee inversa se dice que es inversible o regular; en caso contrario recibe el nombre de singular. Matrices.
ECUACIONES DIFERENCIALES. ECUACION DIFERENCIAL Una ecuación diferencial es una ecuación en la que intervienen derivadas de una o más funciones desconocidas.ecuaciónderivadas.
Transcripción de la presentación:

Sesión 7: Redes Bayesianas – Inferencia Modelos Gráficos Probabilistas L. Enrique Sucar INAOE Sesión 7: Redes Bayesianas – Inferencia [Neapolitan 90]

Inferencia en Redes Bayesianas Introducción Propagación en árboles (y poliárboles) Algoritmo de eliminación Propagación en redes multi-conectadas Condicionamiento Simulación Agrupamiento Abducción © L.E. Sucar: MGP - Inferencia RB

© L.E. Sucar: MGP - Inferencia RB Propagación de Probabilidades El razonamiento probabilístico o propagación de probabilidades consiste en propagar de los efectos de la evidencia a través de la red para conocer la probabilidad a posteriori de las variables. © L.E. Sucar: MGP - Inferencia RB

© L.E. Sucar: MGP - Inferencia RB La propagación consiste en darle valores a ciertas variables (evidencia), y obtener la probabilidad posterior de las demás variables dadas las variables conocidas (instanciadas). © L.E. Sucar: MGP - Inferencia RB

© L.E. Sucar: MGP - Inferencia RB Inferencia bayesiana C Causal: C -> H Evidencial: E -> H Mixta: C,E -> H P(H|C) H P(E|H) E © L.E. Sucar: MGP - Inferencia RB

© L.E. Sucar: MGP - Inferencia RB Tipos de Técnicas Calcular probabilidades posteriores: Una variable, cualquier estructura: algoritmo de eliminación (variable elimination) Cualquier variable, estructuras sencillamente conectadas (árboles, poliárboles): propagación Cualquier variable, cualquier estructura: Agrupamiento (junction tree) Simulación estocástica Condicionamiento © L.E. Sucar: MGP - Inferencia RB

© L.E. Sucar: MGP - Inferencia RB Tipos de Técnicas Obtener variable(s) de mayor probabilidad dada cierta evidencia – abducción: Abducción total Abducción parcial © L.E. Sucar: MGP - Inferencia RB

© L.E. Sucar: MGP - Inferencia RB Tipos de Estructuras Redes conectadas en forma sencilla: Árboles Poliárboles Redes multiconectadas: © L.E. Sucar: MGP - Inferencia RB

© L.E. Sucar: MGP - Inferencia RB Propagación en Árboles Cada nodo corresponde a una variable discreta, B (B 1, B 2,…, B m) con su respectiva matriz de probabilidad condicional, P(B|A)=P(Bj| Ai) © L.E. Sucar: MGP - Inferencia RB

Propagación en Árboles H A I B C D E F G © L.E. Sucar: MGP - Inferencia RB

© L.E. Sucar: MGP - Inferencia RB Dada cierta evidencia E --representada por la instanciación de ciertas variables-- la probabilidad posterior de cualquier variable B, por el teorema de Bayes: P( Bi | E)=P( Bi ) P(E | Bi) / P( E ) B © L.E. Sucar: MGP - Inferencia RB

© L.E. Sucar: MGP - Inferencia RB Evidencia H A I B C D E F G E = {I,F,E} © L.E. Sucar: MGP - Inferencia RB

© L.E. Sucar: MGP - Inferencia RB Evidencia Ya que la estructura de la red es un árbol, el Nodo B la separa en dos subárboles, por lo que podemos dividir la evidencia en dos grupos: E-: Datos en el árbol que cuya raíz es B E+: Datos en el resto del árbol © L.E. Sucar: MGP - Inferencia RB

© L.E. Sucar: MGP - Inferencia RB Evidencia H E+ A I B C D E F G E- © L.E. Sucar: MGP - Inferencia RB

© L.E. Sucar: MGP - Inferencia RB Entonces: P( Bi | E ) = P ( Bi ) P ( E-,E+ | Bi ) / P(E) Pero dado que ambos son independientes y aplicando nuevamente Bayes: P( Bi | E ) = a P ( Bi | E+ ) P(E- | Bi ) Donde a es una constante de normalización © L.E. Sucar: MGP - Inferencia RB

© L.E. Sucar: MGP - Inferencia RB Definiciones: Si definimos los siguientes términos: l (Bi)= P ( E- | Bi) p (Bi)= P (Bi | E+ ) Entonces: P(Bi | E ) = a p (B i) l (B i) © L.E. Sucar: MGP - Inferencia RB

© L.E. Sucar: MGP - Inferencia RB Desarrollo En base a la ecuación anterior, se puede integrar un algoritmo distribuido para obtener la probabilidad de un nodo dada cierta evidencia Para ello se descompone el cálculo de cada parte: Evidencia de los hijos (l) Evidencia de los demás nodos (p) © L.E. Sucar: MGP - Inferencia RB

Evidencia de los hijos (l) Dado que los hijos son condicionalmente independientes dado el padre: l (Bi) = P ( E- | Bi) = Pk P ( Ek- | Bi) Donde Ek- corresponde a la evidencia del subárbol del hijo k © L.E. Sucar: MGP - Inferencia RB

© L.E. Sucar: MGP - Inferencia RB Evidencia hijos H A I B C D E-(D) E E-(E) F G J © L.E. Sucar: MGP - Inferencia RB

Evidencia de los hijos (l) Condicionando respecto a los posibles valores de los hijos de B: l (Bi)= Pk [ Sj P ( Ek- | Bi, Sjk) P(Sjk | Bi) ] Donde Sk es el hijo k de B, y la sumatoria es sobre los valores de dicho nodo (teorema de probabilidad total) © L.E. Sucar: MGP - Inferencia RB

Evidencia de los hijos (l) Dado que B es condicionalmente independiente de la evidencia dados sus hijos: l (Bi) = Pk [ Sj P ( Ek- | Sjk) P(Sjk | Bi) ] Substituyendo la definción de l: l (Bi)= Pk [ Sj P(Sjk | Bi) l (Sjk)] © L.E. Sucar: MGP - Inferencia RB

© L.E. Sucar: MGP - Inferencia RB Evidencia hijos H A I B C D l(D) E l(E) F G © L.E. Sucar: MGP - Inferencia RB

Evidencia de los hijos (l) Recordando que l es un vector (un valor por cada posible valor de B), lo podemos ver en forma matricial: l = l P (S | B) © L.E. Sucar: MGP - Inferencia RB

Evidencia de los demás nodos (p) Condicionando sobre los diferentes valores del nodo padre (A): p (Bi) = P (Bi | E+ ) = Sj P (Bi | E+ , Aj) P(Aj | E+ ) Donde Aj corresponde a los diferentes valores del nodo padre de B © L.E. Sucar: MGP - Inferencia RB

© L.E. Sucar: MGP - Inferencia RB Evidencia padre H A E+ I B C D E F G © L.E. Sucar: MGP - Inferencia RB

Evidencia de los demás nodos (p) Dado que B es independiente de la evidencia “arriba” de A dado A: p (Bi) = Sj P (Bi | Aj) P(Aj | E+ ) La P(Aj | E+ ) corresponde a la P posterior de A dada toda la evidencia excepto B y sus hijos, por lo que se puede escribir como: P(Aj | E+ ) = a p (A i) Pk¹B lk (A i) © L.E. Sucar: MGP - Inferencia RB

© L.E. Sucar: MGP - Inferencia RB Evidencia padre p(A) H A I B C l(C) D l(B) E F G © L.E. Sucar: MGP - Inferencia RB

Evidencia de los demás nodos (p) Substituyendo P(Aj | E+ ) en la ecuación de p : p (Bi) = Sj P (Bi | Aj) [ a p (A i) Pk¹B lk (A i) ] De forma que se obtiene combinando la p de del nodo padre con la l de los demás hijos © L.E. Sucar: MGP - Inferencia RB

Evidencia de los demás nodos (p) Dado que también p es un vector, lo podemos ver en forma matricial (donde PA es el producto de la evidencia de padre y otros hijos): p = P (B | A) PA © L.E. Sucar: MGP - Inferencia RB

© L.E. Sucar: MGP - Inferencia RB Algoritmo Mediante estas ecuaciones se integra un algoritmo de propagación de probabilidades en árboles. Cada nodo guarda los valores de los vectores p y l, así como las matrices de probabilidad P. La propagación se hace por un mecanismo de paso de mensajes, en donde cada nodo envía los mensajes correspondientes a su padre e hijos: © L.E. Sucar: MGP - Inferencia RB

Mensaje a los hijos (hacia abajo) - nodo B a su hijo Sk : Mensaje al padre (hacia arriba) – nodo B a su padre A: Mensaje a los hijos (hacia abajo) - nodo B a su hijo Sk : © L.E. Sucar: MGP - Inferencia RB

© L.E. Sucar: MGP - Inferencia RB Al instanciarse ciertos nodos, éstos envían mensajes a sus padres e hijos, y se propagan hasta a llegar a la raíz u hojas, o hasta encontrar un nodo instanciado. Así que la propagación se hace en un solo paso en un tiempo proporcional al diámetro de la red. © L.E. Sucar: MGP - Inferencia RB

© L.E. Sucar: MGP - Inferencia RB Propagación l H lI(H) lA(H) A lB(A) I lC(A) B C lD(B) lE(B) D E lF(D) lG(D) F G © L.E. Sucar: MGP - Inferencia RB

© L.E. Sucar: MGP - Inferencia RB Propagación p H pH(I) pH(A) A pA(B) I pA(C) B C pB(D) pB(E) D E pD(F) pD(G) F G © L.E. Sucar: MGP - Inferencia RB

Condiciones Iniciales Nodos hoja no conocidos: l (Bi) = [1,1, …] Nodos asignados (conocidos): l (Bi) = [0,0, ..1, 0, …, 0] (1 para valor asignado) p (Bi) = [0,0, ..1, 0, …, 0] (1 para valor asignado) Nodo raíz: p (A) = P(A), (probabilidad marginal inicial) © L.E. Sucar: MGP - Inferencia RB

© L.E. Sucar: MGP - Inferencia RB Ejemplo P(C) 0.8 0.2 Comida P(E|C) 0.9 0.7 0.1 0.3 Enf. P(F|E) 0.9 0.5 0.1 0.5 P(D|E) 0.7 0.4 0.3 0.6 Fiebre Dolor © L.E. Sucar: MGP - Inferencia RB

© L.E. Sucar: MGP - Inferencia RB Ejemplo Comida Enf. F=si l=[1,0] l=[1,1] Fiebre Dolor © L.E. Sucar: MGP - Inferencia RB

© L.E. Sucar: MGP - Inferencia RB Ejemplo Comida lF= [1,0] * [.9 .5 | .1 .5] = [.9 .5] lD= [1,1] * [.7 .4 | .3 .6] = [1 1] Enf. Fiebre Dolor P(F|E) 0.9 0.5 0.1 0.5 P(D|E) 0.7 0.4 0.3 0.6 © L.E. Sucar: MGP - Inferencia RB

© L.E. Sucar: MGP - Inferencia RB Ejemplo l(C) = [.9 .5] * [.9 .7| .1 .3] = [.86 .78] Comida P(E|C) 0.9 0.7 0.1 0.3 l(E) = [.9 .5] * [1 1] = [.9 .5] Enf. Fiebre Dolor P(F|E) 0.9 0.5 0.1 0.5 P(D|E) 0.7 0.4 0.3 0.6 © L.E. Sucar: MGP - Inferencia RB

© L.E. Sucar: MGP - Inferencia RB Ejemplo p(C) = [.8 .2] Comida p(E) = [.8 .2] * [.9 .7| .1 .3] = [.86 .14] P(E|C) 0.9 0.7 0.1 0.3 Enf. Fiebre Dolor P(F|E) 0.9 0.5 0.1 0.5 P(D|E) 0.7 0.4 0.3 0.6 © L.E. Sucar: MGP - Inferencia RB

© L.E. Sucar: MGP - Inferencia RB Ejemplo p(C) = [.8 .2] Comida p(D) = [.86 .14] * [.9 .5] [.7 .4| .3 .6] = [.5698 .2742] p(E) = [.86 .14] Enf. Fiebre Dolor P(D|E) 0.7 0.4 0.3 0.6 © L.E. Sucar: MGP - Inferencia RB

© L.E. Sucar: MGP - Inferencia RB Ejemplo p(C) = [.8 .2] Comida p(E) = [.86 .14] l(C) = [.86 .78] P(C)=a[.688 .156] P(C)= [.815 .185] l(E) = [.9 .5] P(E)=a[.774 .070] P(E)= [.917 .083] Enf. p(D) = [.57 .27] Fiebre Dolor l(D)=[1,1] P(D)=a[.57 .27] P(D)= [.67 .33] © L.E. Sucar: MGP - Inferencia RB

© L.E. Sucar: MGP - Inferencia RB Demo 1 Ejemplo en HUGIN © L.E. Sucar: MGP - Inferencia RB

© L.E. Sucar: MGP - Inferencia RB Propagación en Poliárboles . Un poliárbol es una red conectada en forma sencilla, pero en la que un nodo puede tener varios padres: P(B | A1, A2, …, An) © L.E. Sucar: MGP - Inferencia RB

Propagación en Poliárboles H I A B C D E F G © L.E. Sucar: MGP - Inferencia RB

© L.E. Sucar: MGP - Inferencia RB Algoritmo El método es muy similar al de árboles, con algunas consideraciones adicionales: Considerar la probabilidad condicional del nodo dados todos sus padres para el cálculo de p y l Enviar los mensajes l a cada uno de los padres de un nodo © L.E. Sucar: MGP - Inferencia RB

© L.E. Sucar: MGP - Inferencia RB Propagación en Redes Multiconectadas Una red multiconectada es un grafo no conectado en forma sencilla, es decir, en el que hay múltiples trayectorias entre nodos (MCG). En este tipo de RP los métodos anteriores ya no aplican, pero existen otras técnicas alternativas: Condicionamiento Simulación estocástica Agrupamiento © L.E. Sucar: MGP - Inferencia RB

© L.E. Sucar: MGP - Inferencia RB Abducción La “abducción” se define como encontrar la mejor “explicación” (valores de un cierto conjunto de variables) dada cierta evidencia Normalmente se buscan los valores del conjunto “explicación” que tiene mayor probabilidad En general, el conjunto de mayor probabilidad NO es igual a los valores individuales de mayor probabilidad © L.E. Sucar: MGP - Inferencia RB

© L.E. Sucar: MGP - Inferencia RB Abducción H A I B C D E Ejemplo: Max P(A,B,F|G,I) F G © L.E. Sucar: MGP - Inferencia RB

© L.E. Sucar: MGP - Inferencia RB Referencias Pearl 88 – Cap. 4,5 Neapolitan 90 – Cap. 6,7,8 Notas Jordan – Cap. 4 © L.E. Sucar: MGP - Inferencia RB