La descarga está en progreso. Por favor, espere

La descarga está en progreso. Por favor, espere

Inteligencia Artificial Razonamiento probabilístico Primavera 2009 profesor: Luigi Ceccaroni.

Presentaciones similares


Presentación del tema: "Inteligencia Artificial Razonamiento probabilístico Primavera 2009 profesor: Luigi Ceccaroni."— Transcripción de la presentación:

1 Inteligencia Artificial Razonamiento probabilístico Primavera 2009 profesor: Luigi Ceccaroni

2 Las leyes de la probabilidad permiten establecer diferentes métodos de inferencia. Marginalización: Probabilidad de una proposición atómica con independencia de los valores del resto de proposiciones: Probabilidades condicionadas: Inferencia probabilística 2

3 Reglas del producto y de Bayes Regla del producto: P(X, Y) = P(X|Y) P(Y) = P(Y|X) P(X) Regla de Bayes: P(Y|X) = P(X|Y) P(Y) / P(X) Esta regla y la propiedad de independencia son el fundamento del razonamiento probabilístico y permiten relacionar las probabilidades de unas evidencias con otras. 3

4 Regla de Bayes e independencia Suponiendo que podemos estimar las probabilidades que involucran todos los valores de la variable Y podemos reescribir la formula de Bayes como: P(Y|X) = P(X|Y) P(Y) / P(X) = αP(X|Y) P(Y) Y suponiendo independencia condicional entre dos variables podremos escribir: P(X,Y|Z) = P(X|Z) P(Y|Z) P(Z|X,Y) = αP(X|Z) P(Y|Z) P(Z) 4

5 Redes Bayesianas Las redes bayesianas permiten la representación de las relaciones de independencia entre variable aleatorias. Una red bayesiana es un grafo dirigido acíclico que tiene información probabilística en sus nodos indicando cual es la influencia de los padres sobre un nodo del grafo: (P(X i |padres(X i )))

6 Redes Bayesianas El significado intuitivo de un enlace entre dos nodos X e Y es, por ejemplo, que la variable X tiene influencia sobre Y El conjunto de probabilidades representadas en la red describe la distribución de probabilidad conjunta de todas las variables.

7 Ejemplo Weather es independiente de las otras variables. Toothache y Catch son condicionalmente independientes, dado Cavity.

8 Ejemplo Infarto Fumador Presión sanguínea Alimentación Deporte AlimentaciónP(A) equilibrada0.4 no equilibrada0.6 DeporteP(D) sí0.1 no0.9 FumadorP(F) sí0.4 no0.6 Alim.DeporteP (S=alta) P (S=normal) eq.sí0.010.99 no eq. sí0.20.8 eq.no0.250.75 no eq. no0.70.3 Pr. Sang. Fum.P(I=sí)P(I=no) altasí0.80.2 norm.sí0.60.4 altano0.70.3 norm.no0.30.7

9 Semántica La distribución conjunta completa se define como el producto de las distribuciones condicionales locales: P (X 1, …,X n ) = π i = 1 P (X i | Parents(X i )) Por ejemplo, P(d ∧ A=equilibrada ∧ S=alta ∧ ¬f ∧ ¬i) = ? = P(d) P(A=equilibrada) P(S=alta|d, A=equilibrada) P(¬f) P(¬i|S=alta, ¬f) n

10 Redes Bayesianas - distribución conjunta - ejemplo P(Infarto = sí ∧ Presión = alta ∧ Fumador = sí ∧ Deporte = si ∧ Alimentación = equil.) =P(Infarto = sí | Presión = alta, Fumador = sí) P(Presión = alta | Deporte = sí, Alimentación = equil.) P(Fumador = sí ) P(Deporte = sí) P(Alimentación = equil.) = 0,8 × 0,01 × 0,4 × 0,1 × 0,4 = 0,000128 10

11 Coste de representación El coste de representar la distribución de probabilidad conjunta de n variables binarias es O(2 n ). Las redes bayesianas permiten una representación mas compacta gracias a la factorización de la distribución conjunta. 11

12 Coste de representación Suponiendo que cada nodo de la red tenga como máximo k padres (k << n), un nodo necesitar 2 k para representar la influencia de sus padres, por lo tanto el espacio necesario es O(n2 k ). Con 10 variables y suponiendo 3 padres como máximo, tenemos 80 frente a 1024, con 100 variables y suponiendo 5 padres tenemos 3200 frente a aproximadamente 10 30. 12

13 Inferencia exacta Inferencia por enumeración: Cualquier probabilidad condicionada se puede calcular como la suma de todos los posibles casos a partir de la distribución de probabilidad conjunta: La red bayesiana nos permite factorizar la distribución de probabilidad conjunta y obtener una expresión mas fácil de evaluar. 13

14 Inferencia exacta: ejemplo Si enumeramos todas las posibilidades y las sumamos de acuerdo con la distribución de probabilidad conjunta tenemos que: 14

15 Algoritmo de eliminación de variables El algoritmo de eliminación de variables intenta evitar la repetición de cálculos que realiza la inferencia por enumeración. Se guardan cálculos intermedios para cada variable (factores) para poderlos reutilizar. La ventaja de este algoritmo es que las variables no relevantes desaparecen, al ser factores constantes. 15

16 Algoritmo de eliminación de variables 16


Descargar ppt "Inteligencia Artificial Razonamiento probabilístico Primavera 2009 profesor: Luigi Ceccaroni."

Presentaciones similares


Anuncios Google