Inteligencia Artificial Razonamiento probabilístico Primavera 2009 profesor: Luigi Ceccaroni.

Slides:



Advertisements
Presentaciones similares
DISEÑO DE EXPERIMENTOS EXPERIMENTOS DE COMPARACIÓN SIMPLE
Advertisements

Intervalos de Confianza para la Varianza de la Población
Líneas de Espera: Teoría de Colas
Tema 7: Introducción a la inferencia estadística
Modelo de Colas Simulación.
Algoritmos de Minería w Las ideas sencillas, frecuentemente funcionan bien w Un atributo hace todo (1-Rule) w Estructura lógica capturada en un árbol de.
REGRESION LINEAL SIMPLE
Árboles Grafo que no contiene ciclos, es decir es un grafo también acíclico, pero a su vez es conexo.
Métodos Cuantitativos Aplicados a Los Negocios.
Pruebas de hipótesis: Media de una población © Pedro Juan Rodríguez Esquerdo Departamento de Matemáticas Recinto de Río Piedras Universidad de.
Modelos de Variable Dependiente Binaria -Logit y Probit-
Contraste de Hipótesis
Distribuciones de probabilidad bidimensionales o conjuntas
Probabilidad Condicional Eventos Independientes
PROBABILIDAD CONDICIONAL Y TEOREMA DE BAYES
UNIVERSIDAD AUTÓNOMA DEL CARIBE
Dra. Sandra Gutiérrez Complementos en Investigación de Operaciones
Integrantes: Cristina Ponce Esmeraldas Fernando Ramírez
IDR es un paquete de funciones R para representar redes bayesianas y
GeNie GeNie: entorno de desarrollo para la
REDES BAYESIANAS.
2. INTRODUCCION A LA TEORIA DE LA PROBABILIDAD
Inteligencia Artificial Adquisición automática del conocimiento
Tema 4: Probabilidad (recordatorio)
CAPITULO 2 La Representación del Conocimiento
DISTRIBUCION BINOMIAL
RAZONAMIENTO APROXIMADO EN LA INTELIGENCIA ARTIFICIAL
Sistemas de razonamiento probabilístico
Redes Bayesianas Breve definición de lo que es una red bayesiana, también conocida como red de creencia, red probabilística, red causal o mapa de conocimiento.
Introducción Media y varianza poblacional Sea
Construcción de Prostanet C. Lacave - Proyecto Elvira II Bubión, 28 de mayo de 2003.
INFERENCIA ESTADÍSTICA
Distribución muestral de la Media
Estadística Inferencial
Incertidumbre Capítulo 13.
FUNCIONES DE DENSIDAD DE PROBABILIDAD
REDES BAYESIANAS Y DECISIÓN ESTADÍSTICA
Sesión 2: Métodos Probabilísticos Básicos
INTELIGENCIA ARTIFICIAL.
Metodos de Inferencia Lenin Herrera.
Sesión 4: Métodos Probabilísticos Básicos “... tenemos razones para creer que hay en la constutución de las cosas leyes de acuerdo a las cuales suceden.
Unidad V: Estimación de
Eduardo Morales / L. Enrique Sucar
Inteligencia Artificial
Sesión 6: Redes Bayesianas - Representación
Manejo de Incertidumbre Sesión 13 Eduardo Morales / L. Enrique Sucar Sesión 13 Eduardo Morales / L. Enrique Sucar.
Probabilidad y Estadística Inferencia Estadística Se sabe que si cada variable sigue una densidad normal con  y   entonces sigue una ley de densidad.
Redes Bayesianas Capítulo 14 Sección 1 – 2.
Inteligencia Artificial
Inferencia Estadística
Sesión 2: Teoría de Probabilidad
Sesión 7: Redes Bayesianas – Inferencia
Integración de Redes Bayesianas con Programas Lógicos para Música Eduardo Morales L.Enrique Sucar Roberto Morales.
Cambios realizados en Elvira
A  Percentil al 68.3%,  :  P(x) dx =  
Razonamiento probabilistico
Estimación de modelos ARMA
Capítulo 1. Conceptos básicos de la Estadística
Tema 7: Introducción a la inferencia estadística
Estadística Aplicada Descripción del Curso Este curso trata sobre la presentación de modelos Probabilísticos y Estadísticos aplicados en las distintas.
Creado por: Ángela Pico
Pruebas de hipótesis.
Combinación de Programas Lógicos y Redes Bayesianas y su Aplicación a Música Eduardo Morales Enrique Sucar Roberto Morales.
Matemática Avanzada  Contenido Temático.  Objetivo: El alumno será capaz de integrar sus conocimientos de álgebra y geometría, en su aplicación al cálculo.
Sesión 6: Redes Bayesianas - Inferencia
Juan Domingo Tardós Dpto. Informática e Ingeniería de Sistemas.
Generación de Variables Aleatorias
Clasificación Clasificadores Bayesianos. Modela relaciones probabilisticas entre el conjunto de atributos y el atributo clase Probabilidad condicional:
Regla de Bayes Ing. Raúl Alvarez Guale, MPC. Probabilidad Total La estadística bayesiana es un conjunto de herramientas que se utiliza en un tipo especial.
Redes Bayesianas Capítulo 14. Contenido Sintaxis (forma de la red) Semántica Como todo lenguaje...
Transcripción de la presentación:

Inteligencia Artificial Razonamiento probabilístico Primavera 2009 profesor: Luigi Ceccaroni

Las leyes de la probabilidad permiten establecer diferentes métodos de inferencia. Marginalización: Probabilidad de una proposición atómica con independencia de los valores del resto de proposiciones: Probabilidades condicionadas: Inferencia probabilística 2

Reglas del producto y de Bayes Regla del producto: P(X, Y) = P(X|Y) P(Y) = P(Y|X) P(X) Regla de Bayes: P(Y|X) = P(X|Y) P(Y) / P(X) Esta regla y la propiedad de independencia son el fundamento del razonamiento probabilístico y permiten relacionar las probabilidades de unas evidencias con otras. 3

Regla de Bayes e independencia Suponiendo que podemos estimar las probabilidades que involucran todos los valores de la variable Y podemos reescribir la formula de Bayes como: P(Y|X) = P(X|Y) P(Y) / P(X) = αP(X|Y) P(Y) Y suponiendo independencia condicional entre dos variables podremos escribir: P(X,Y|Z) = P(X|Z) P(Y|Z) P(Z|X,Y) = αP(X|Z) P(Y|Z) P(Z) 4

Redes Bayesianas Las redes bayesianas permiten la representación de las relaciones de independencia entre variable aleatorias. Una red bayesiana es un grafo dirigido acíclico que tiene información probabilística en sus nodos indicando cual es la influencia de los padres sobre un nodo del grafo: (P(X i |padres(X i )))

Redes Bayesianas El significado intuitivo de un enlace entre dos nodos X e Y es, por ejemplo, que la variable X tiene influencia sobre Y El conjunto de probabilidades representadas en la red describe la distribución de probabilidad conjunta de todas las variables.

Ejemplo Weather es independiente de las otras variables. Toothache y Catch son condicionalmente independientes, dado Cavity.

Ejemplo Infarto Fumador Presión sanguínea Alimentación Deporte AlimentaciónP(A) equilibrada0.4 no equilibrada0.6 DeporteP(D) sí0.1 no0.9 FumadorP(F) sí0.4 no0.6 Alim.DeporteP (S=alta) P (S=normal) eq.sí no eq. sí eq.no no eq. no Pr. Sang. Fum.P(I=sí)P(I=no) altasí norm.sí altano norm.no0.30.7

Semántica La distribución conjunta completa se define como el producto de las distribuciones condicionales locales: P (X 1, …,X n ) = π i = 1 P (X i | Parents(X i )) Por ejemplo, P(d ∧ A=equilibrada ∧ S=alta ∧ ¬f ∧ ¬i) = ? = P(d) P(A=equilibrada) P(S=alta|d, A=equilibrada) P(¬f) P(¬i|S=alta, ¬f) n

Redes Bayesianas - distribución conjunta - ejemplo P(Infarto = sí ∧ Presión = alta ∧ Fumador = sí ∧ Deporte = si ∧ Alimentación = equil.) =P(Infarto = sí | Presión = alta, Fumador = sí) P(Presión = alta | Deporte = sí, Alimentación = equil.) P(Fumador = sí ) P(Deporte = sí) P(Alimentación = equil.) = 0,8 × 0,01 × 0,4 × 0,1 × 0,4 = 0,

Coste de representación El coste de representar la distribución de probabilidad conjunta de n variables binarias es O(2 n ). Las redes bayesianas permiten una representación mas compacta gracias a la factorización de la distribución conjunta. 11

Coste de representación Suponiendo que cada nodo de la red tenga como máximo k padres (k << n), un nodo necesitar 2 k para representar la influencia de sus padres, por lo tanto el espacio necesario es O(n2 k ). Con 10 variables y suponiendo 3 padres como máximo, tenemos 80 frente a 1024, con 100 variables y suponiendo 5 padres tenemos 3200 frente a aproximadamente

Inferencia exacta Inferencia por enumeración: Cualquier probabilidad condicionada se puede calcular como la suma de todos los posibles casos a partir de la distribución de probabilidad conjunta: La red bayesiana nos permite factorizar la distribución de probabilidad conjunta y obtener una expresión mas fácil de evaluar. 13

Inferencia exacta: ejemplo Si enumeramos todas las posibilidades y las sumamos de acuerdo con la distribución de probabilidad conjunta tenemos que: 14

Algoritmo de eliminación de variables El algoritmo de eliminación de variables intenta evitar la repetición de cálculos que realiza la inferencia por enumeración. Se guardan cálculos intermedios para cada variable (factores) para poderlos reutilizar. La ventaja de este algoritmo es que las variables no relevantes desaparecen, al ser factores constantes. 15

Algoritmo de eliminación de variables 16