REDES BAYESIANAS Y DECISIÓN ESTADÍSTICA

Slides:



Advertisements
Presentaciones similares
Algoritmos de Minería Los métodos básicos.
Advertisements

7. Máquinas Estocásticas
Conocimiento Base de conocimientos:
Investigación de Operaciones II
Integrantes: Cristina Ponce Esmeraldas Fernando Ramírez
KRIGING.
GeNie GeNie: entorno de desarrollo para la
ESTRUCTURAS DE DATOS AVANZADAS
REDES BAYESIANAS.
Especialista en Business Intelligence Analysis Services SSAS (Sesión 14) Microsoft SQL Server 2008 R2 (2013) Suscribase a o escríbanos.
Redes Bayesianas Breve definición de lo que es una red bayesiana, también conocida como red de creencia, red probabilística, red causal o mapa de conocimiento.
ALGORITMOS es un conjunto preescrito de instrucciones o reglas bien definidas, ordenadas y finitas que permite realizar una actividad mediante pasos.
Sesión 12: Procesos de Decisión de Markov
FUNCIONES DE DENSIDAD DE PROBABILIDAD
Matemáticas para Ciencias de la Computación MCC3182
Algoritmo ID3.
Sesión 2: Métodos Probabilísticos Básicos
Sesión 13: Lógica y Probabilidad. Incertidumbre - LD y LP, L.E. Sucar2 Contenido Lógica probabilista Redes bayesianas con nodos lógico Modelos relacionales.
INTELIGENCIA ARTIFICIAL.
Metodos de Inferencia Lenin Herrera.
Clases 4 Pruebas de Hipótesis
Sesión 4: Métodos Probabilísticos Básicos “... tenemos razones para creer que hay en la constutución de las cosas leyes de acuerdo a las cuales suceden.
Sesión 2: Teoría de Probabilidad “Considero que la probabilidad representa el estado de la mente con respecto a una afirmación, evento u otra cosa para.
Tema 6 Razonamiento aproximado
Estructura de Datos y Algoritmos

Eduardo Morales / L. Enrique Sucar
Sesión 6: Campos de Markov
Sesión 12: Procesos de Decisión de Markov. Incertidumbre - MDP, L.E. Sucar2 Procesos de Decisión de Markov Procesos de Decisión Secuenciales Procesos.
Diseño y análisis de algoritmos
(Organización y Manejo de Archivos)
Inteligencia Artificial
Sesión 6: Redes Bayesianas - Representación
Manejo de Incertidumbre Sesión 13 Eduardo Morales / L. Enrique Sucar Sesión 13 Eduardo Morales / L. Enrique Sucar.
Combinación de Clasificadores
SEGURIDAD EN SISTEMAS DE POTENCIA
Redes Bayesianas Capítulo 14 Sección 1 – 2.
Unidad V: Estimación de
INVESTIGACION DE OPERACIONES
Sesión 10: Redes Bayesianas – Aprendizaje “Preferiría descubrir una ley causal que ser rey de Persia” [Democritus]
Universidad Nacional de Colombia Curso Análisis de Datos Cuantitativos.
Matemáticas Discretas
Aprendizaje en Árboles de Decisión
Sesión 10: Redes Bayesianas – Aprendizaje “Preferiría descubrir una ley causal que ser rey de Persia” [Democritus] Modelos Gráficos Probabilistas L. Enrique.
Sesión 2: Teoría de Probabilidad
Análisis y Diseño de Algoritmos
Sesión 7: Redes Bayesianas – Inferencia
Integración de Redes Bayesianas con Programas Lógicos para Música Eduardo Morales L.Enrique Sucar Roberto Morales.
Una introducción a la computación evolutiva
NOCIONES DE PROBABILIDAD ADAPTACIÓN.
Sesión 3: Teoría de Grafos
Definiciones: conjuntos, grafos, y árboles
TEMA 5: El problema del flujo con costo mínimo
Sesión 6: Campos de Markov. © L.E. Sucar: PGM - CAM2 Campos de Markov Introducción –Modelo de Ising Representación –Tipos de Modelos –Redes de Markov.
Combinación de Programas Lógicos y Redes Bayesianas y su Aplicación a Música Eduardo Morales Enrique Sucar Roberto Morales.
Sesión 2: Teoría de Probabilidad “Considero que la probabilidad representa el estado de la mente con respecto a una afirmación, evento u otra cosa para.
Sesión 7: Redes Bayesianas – Inferencia: 2da Parte Modelos Gráficos Probabilistas L. Enrique Sucar INAOE [Neapolitan 90]
UNIDAD 2 Grafos Árboles abarcadores mínimos Caminos más cortos.
Análisis de series de tiempo
Estimación y contraste de hipótesis
Sesión 6: Redes Bayesianas - Inferencia
Metodología de la programación
Conocimiento incierto y razonamiento
Aplicación JAVA implementando Arboles de Decisión

MODELOS DE PRONOSTICOS Primer semestre 2010 Modelo de Regresión con dos variables.
Aspectos generales de la investigación educativa en el SNIT
Recorridos de grafos Segunda Parte M.C. Meliza Contreras González.
Redes Bayesianas Título Francisco Roche Beltrán Huelva, 20 de Abril de 2007.
Estimación Estadística Tares # 3. Estimación Estadística Conjunto de técnicas que permiten dar un valor aproximado de un parámetro de una población a.
Transcripción de la presentación:

REDES BAYESIANAS Y DECISIÓN ESTADÍSTICA REPRESENTANTES: JOHNNY ALEXANDER PAEZ TOVAR JOHAN ANDRES LOPERA ZULETA

¡QUE SON LAS REDES BAYESIANAS? Las redes bayesianas son una representación grafica de dependencias para razonamiento probabilístico, en la cual los nodos representan variables aleatorias y los arcos representan relaciones de dependencia directa entre las variables. La Figura muestra un ejemplo hipotético de una red bayesiana (RB) que representa cierto conocimiento sobre medicina. En este caso, los nodos representan enfermedades, síntomas y factores que causan algunas enfermedades. La variable a la que apunta un arco es dependiente de la que esta en el origen de este. Por ejemplo, una red bayesiana puede representar las relaciones probabilísticas entre enfermedades y síntomas. Dados los síntomas, la red puede ser usada para computar las probabilidad de la presencia de varias enfermedades.

Ejemplo de una red bayesiana Ejemplo de una red bayesiana. Los nodos representan variables aleatorias y los arcos relaciones de dependencia.

Existen algoritmos eficientes que llevan a cabo la inferencia y el aprendizaje en redes bayesianas. Las redes bayesianas que modelan secuencias de variables (ej: señales del habla o secuencias de proteínas) son llamadas redes bayesianas dinámicas. Las generalizaciones de las redes bayesianas que pueden representar y resolver problemas de decisión bajo incertidumbre son llamados diagramas de influencia.

Supongamos que hay dos eventos los cuales pueden causar que la hierba esté húmeda: que el rociador esté activado o que esté lloviendo. También supongamos que la lluvia tiene un efecto directo sobre el uso del rociador (usualmente cuando llueve el rociador se encuentra apagado). Entonces la situación puede ser modelada con una red Bayesiana (como hemos visto). Las tres variables tienen dos posibles valores, T (para verdadero) y F (para falso). La función de probabilidad conjunta es: donde los nombres de las variables han sido abreviados a G = Hierba húmeda, S = Rociador activado, y R = Lloviendo. ¿Cuál es la probabilidad de que esté lloviendo dado que la hierba está húmeda?

APRENDIZAJE DE CLASIFICADORES BAYESIANOS Diferentes clases predefinidas. Los clasificadores bayesianos son ampliamente utilizados debido a que presentan ciertas ventajas: 1. Generalmente, son fáciles de construir y de entender. 2. Las inducciones de estos clasificadores son extremadamente rápidas, requiriendo solo un paso para hacerlo. 3. Es muy robusto considerando atributos irrelevantes. 4. Toma evidencia de muchos atributos para realizar la predicción final. Un clasificador bayesiano se puede ver como un caso especial de una red bayesiana en la cual hay una variable especial que es la clase y las demás variables son los atributos. La estructura de esta red depende del tipo de clasificador, como veremos mas adelante.

Clasificador bayesiano simple Un clasificador bayesiano obtiene la probabilidad posterior de cada clase, Ci, usando la regla de Bayes, como el producto de la probabilidad a priori de la clase por la probabilidad condicional de los atributos (E) dada la clase, dividido por la probabilidad de los atributos: El clasicador bayesiano simple (naive Bayes classier, NBC) asume que los atributos son independientes entre s dada la clase, as que la probabilidad se puede obtener por el producto de las probabilidades

Extensiones • Los clasificadores TAN y BAN son casos particulares de redes bayesianas, por lo que para realizar el aprendizaje y clasificación en base a estos modelos se utilizan técnicas de redes bayesianas. ¿TAN; es un clasificador bayesiano simple aumentado con un árbol. BAN: clasificador bayesiano simple aumentado con una red.

Aprendizaje de arboles El aprendizaje de arboles se basa en el algoritmo desarrollado por Chow y Liu para aproximar una distribución de probabilidad por un producto de probabilidades de segundo orden (árbol). La probabilidad conjunta de n variables se puede representar como: Para obtener el árbol se plantea el problema como uno de optimización: obtener la estructura de árbol que mas se aproxime a la distribución 'real'. Esto se basa en una medida de la diferencia de información entre la distribución real y la aproximada El objetivo es minimizar. Se puede definir dicha diferencia en función de la información mutua entre pares de variables.

Podemos entonces encontrar el árbol optimo mediante el siguiente algoritmo que es equivalente al conocido problema del maximum weight spanning tree: (Peso máximo del árbol de expansión) 1. Calcular la información mutua entre todos los pares de variables (que para n variables, son n(n 􀀀 1)=2). 2. Ordenar las informaciones mutuas de mayor a menor. 3. Seleccionar la rama de mayor valor como árbol inicial. 4. Agregar la siguiente rama mientras no forme un ciclo, si es as, desechar. 5. Repetir 4 hasta que se cubran todas las variables (n-1 ramas). El algoritmo NO provee la dirección de los arcos, por lo que esta se puede asignar en forma arbitraria o utilizando semántica externa (experto). Para ilustrar el algoritmo consideremos el clásico ejemplo del jugador de golf (o de tenis, según distintas versiones), en el cual se tienen cuatro variables: juega, ambiente, humedad y temperatura. Obtenemos entonces las informaciones mutuas de cada par de variables (10 en total), que se muestran a continuación.

En este caso seleccionamos las primeras 4 ramas y generamos el árbol que se ilustra en la Figura. Las direcciones de las ligas han sido asignadas en forma arbitraria. Ejemplo de golf. Árbol obtenido mediante el algoritmo de aprendizaje de arboles. J es juega, A es ambiente, H es humedad y T es temperatura.

Propagación en Arboles Este algoritmo se aplica a estructuras de tipo árbol, y se puede extender a poliarboles (grafos sencillamente conectados en que un nodo puede tener mas de un padre). Estructuras sencillamente conectadas: (a) árbol, (b) poliarbol.

Propagación en arboles. En un árbol, cualquier nodo (B) divide la red en dos subgrafos condicionalmente independientes, E+ y E- Ya que la estructura de la red es un árbol, el Nodo B la separa en dos subárboles, por lo que podemos dividir la evidencia en dos grupos: E-: Datos en el árbol que cuya raíz es B. E+: Datos en el resto del árbol. http://www.youtube.com/watch?v=5N8crlktbKQ

GRACIAS