RAZONAMIENTO APROXIMADO EN LA INTELIGENCIA ARTIFICIAL

Slides:



Advertisements
Presentaciones similares
DISEÑO DE EXPERIMENTOS EXPERIMENTOS DE COMPARACIÓN SIMPLE
Advertisements

Seminario: Expresividad semántica y lógica de segundo orden
Seminario: Expresividad semántica y lógica de segundo orden
CARACTERISTICAS PRINCIPALES DE LOS SISTEMAS EXPERTOS
Conocimiento Base de conocimientos:
GeNie GeNie: entorno de desarrollo para la
Los problemas semánticos de las expresiones del Lenguaje Proposicional
CAPITULO 2 La Representación del Conocimiento
Inteligencia Artificial Razonamiento probabilístico Primavera 2009 profesor: Luigi Ceccaroni.
RAZONAMIENTO APROXIMADO EN LA INTELIGENCIA ARTIFICIAL
RAZONAMIENTO APROXIMADO EN LA INTELIGENCIA ARTIFICIAL
Redes Bayesianas Breve definición de lo que es una red bayesiana, también conocida como red de creencia, red probabilística, red causal o mapa de conocimiento.
PROGRAMACIÓN LÓGICA.
Incertidumbre Capítulo 13.
REDES BAYESIANAS Y DECISIÓN ESTADÍSTICA
Sesión 2: Métodos Probabilísticos Básicos
Sesión 13: Lógica y Probabilidad. Incertidumbre - LD y LP, L.E. Sucar2 Contenido Lógica probabilista Redes bayesianas con nodos lógico Modelos relacionales.
INTELIGENCIA ARTIFICIAL.
Metodos de Inferencia Lenin Herrera.
Clases 4 Pruebas de Hipótesis
Sesión 4: Métodos Probabilísticos Básicos “... tenemos razones para creer que hay en la constutución de las cosas leyes de acuerdo a las cuales suceden.
ADMINISTRACION DE NEGOCIOS IV
Teoría de la decisión.
Representación del conocimiento
Sesión 2: Teoría de Probabilidad “Considero que la probabilidad representa el estado de la mente con respecto a una afirmación, evento u otra cosa para.
Tema 6 Razonamiento aproximado
Eduardo Morales / L. Enrique Sucar
Inteligencia Artificial
Sesión 6: Redes Bayesianas - Representación
Manejo de Incertidumbre Sesión 13 Eduardo Morales / L. Enrique Sucar Sesión 13 Eduardo Morales / L. Enrique Sucar.
Redes Bayesianas Capítulo 14 Sección 1 – 2.
Unidad V: Estimación de
UNIVERSIDAD DE GUAYAQUIL.
Razonamiento con Incertidumbre
SISTEMA DE EXPERTO SISTEMA DE EXPERTO.
Inteligencia Artificial
Inferencia Estadística: 5. Probabilidad: Axiomas y Modelos
Sesión 2: Teoría de Probabilidad
Sesión 7: Redes Bayesianas – Inferencia
Integración de Redes Bayesianas con Programas Lógicos para Música Eduardo Morales L.Enrique Sucar Roberto Morales.
Análisis lógico de los argumentos deductivos El razonamiento: Análisis lógico de los argumentos deductivos.
Inferencia Estadística: 6. Probabilidad Condicional
Tendencias Actuales Eduardo Morales / L. Enrique Sucar Fundamentos de Inteligencia Artificial.
Razonamiento probabilistico
RAZONAMIENTO APROXIMADO EN LA INTELIGENCIA ARTIFICIAL.
Capítulo 1. Conceptos básicos de la Estadística
Capa de Red4-1 Capítulo 4: Capa de Red  4. 1 Introducción  4.2 Circuitos virtuales y redes de datagramas  4.3 ¿Qué hay dentro de un router?  4.4 IP:
Modelos Gráficos Probabilistas: Principios y Aplicaciones L. Enrique Sucar INAOE.
Probabilidad y Estadística
Pruebas de hipótesis.
Sesión 09: Teoría de las Probabilidades
Combinación de Programas Lógicos y Redes Bayesianas y su Aplicación a Música Eduardo Morales Enrique Sucar Roberto Morales.
Sesión 2: Teoría de Probabilidad “Considero que la probabilidad representa el estado de la mente con respecto a una afirmación, evento u otra cosa para.
PRESENTADO POR: LINA MARCELA IGUA TORRES SONIA MOYANO ESPINOSA DAVID MAHECHA MEDINA CRISTIAN HERNÁNDEZ GERMAN RAMÍREZ.
Estimación y contraste de hipótesis
Sesión 6: Redes Bayesianas - Inferencia
2.1 DEFINICIONES CARACTERÍSTICAS Y SUPOSICIONES.
Conocimiento incierto y razonamiento
Ramas de I.A. ROBOTICA SISTEMAS DE VISION SISTEMAS EXPERTOS
1 2  La Teoría de la Probabilidad constituye la base o fundamento de la Estadística, ya que las ingerencias que hagamos sobre la población o poblaciones.
EVALUACION Y RESULTADOS DEL PROYECTO DE INVESTIGACION
Razonamiento con Incertidumbre
60´s Inicio de los Sistemas Expertos Se buscaban soluciones generales 70´s Los sistemas son más eficientes en dominios acotados La calidad y cantidad.
Tema : Probabilidad.
Clasificación Clasificadores Bayesianos. Modela relaciones probabilisticas entre el conjunto de atributos y el atributo clase Probabilidad condicional:
Estimación Estadística Tares # 3. Estimación Estadística Conjunto de técnicas que permiten dar un valor aproximado de un parámetro de una población a.
Principios logicos.
Regla de Bayes Ing. Raúl Alvarez Guale, MPC. Probabilidad Total La estadística bayesiana es un conjunto de herramientas que se utiliza en un tipo especial.
Principios lógicos Los “principios lógicos” constituyen las verdades primeras, “evidentes” por sí mismas, a partir de las cuales se construye todo el edificio.
Redes Bayesianas Capítulo 14. Contenido Sintaxis (forma de la red) Semántica Como todo lenguaje...
Transcripción de la presentación:

RAZONAMIENTO APROXIMADO EN LA INTELIGENCIA ARTIFICIAL Introducción a la Inteligencia Artificial LCC Ingeniería Electrónica

NO ES DEL TODO CONFIABLE REALIDAD El conocimiento que necesitamos para desarrollar un Sistema basado en Conocimiento tiene muchas veces las siguientes características: NO ES DEL TODO CONFIABLE IMPRECISO CONTRADICTORIO INCOMPLETO

Causas de inexactitud La información Generalmente no es del todo confiable (falta de evidencias, excepciones) Suele ser incompleta a la hora de tomar decisiones (faltan datos provenientes de mediciones, análisis) Diferentes fuentes pueden ser conflictivas, redundantes, subsumidas El lenguaje usado para transmitirla es inherentemente impreciso, vago

REALIDAD Las personas con esas fuentes de conocimiento, dotadas de esas características, razonamos y muchas veces concluímos … CAPACIDAD DE RAZONAR APROXIMADAMENTE

PROBLEMA Como modelizamos estas características del conocimiento, de modo de poder: REPRESENTARLO UTILIZARLO REPRESENTARLO

NECESITAMOS OTROS FORMALISMOS REALIDAD La lógica clásica es un buen modelo para formalizar cualquier razonamiento basado en información certera (V o F) NECESITAMOS OTROS FORMALISMOS

INVESTIGACION Y DESARROLLO DE REALIDAD El desarrollo de la IA ha incentivado el estudio de formalismos que son alternativos o complementarios a la lógica clásica INVESTIGACION Y DESARROLLO DE OTROS FORMALISMOS

Como representar en una BC ... Ejemplos Como representar en una BC ... Si el paciente tiene el Signo1 y el Signo2 entonces el diagnóstico en el 75% de los casos es D1 y en el 40% de los casos es D2 Y si se tiene… Un paciente que evidencia Signo1 en un 80% y Signo2 en un 55% QUE SE PUEDE INFERIR ???

Como representar en una BC ... Ejemplos Como representar en una BC ... Si el paciente tiene el Signo1 y el Signo2 entonces el diagnóstico en la mayoría de los casos es D1 y en algunos casos es D2 Y si se tiene… Un paciente que evidencia totalmente el Signo1 y parcialmente el Signo2. QUE SE PUEDE INFERIR ???

Como representar en una BC ... Ejemplos Como representar en una BC ... Si la humedad es alta, la presión es baja y está muy nublado, entonces lloverá. Y si se tiene… Que la humedad es del 75%, la presión es 1002hp y esta nublado. QUE SE PUEDE INFERIR ???

Como representar en una BC ... Ejemplos Como representar en una BC ... Si la humedad es alta, la presión es baja y está muy nublado, entonces lloverá. Y si se tiene… Que la humedad es un poco alta, la presión es baja y esta nublado. QUE SE PUEDE INFERIR ???

INGENIERIA DEL CONOCIMIENTO PROBLEMA Tomar decisiones y realizar procesos de razonamiento cuando el conocimiento del dominio involucrado tiene distintas características, puede ser: INCIERTO IMPRECISO INCOMPLETO NO-MONOTONO

CONOCIMIENTO INCIERTO El conocimiento se expresa mediante predicados precisos pero no podemos establecer el valor de verdad de la expresión Ejemplos: Es posible que mañana llueva Mañana llueve CF Creo que el auto era rojo El auto es rojo CF

CONOCIMIENTO INCIERTO Cuando no podemos establecer la verdad o falsedad de la información Debemos evaluar la : PROBABILIDAD POSIBILIDAD NECESIDAD/PLAUSIBILIDAD GRADO DE CERTEZA... De que la información sea verdadera MEDIDA DE (EVENTO) = VALOR / VALORES INCERTIDUMBRE bivaluado

CONOCIMIENTO IMPRECISO El conocimiento cuenta con predicados o cuantificadores vagos (no precisos) Ejemplos: Pedro tiene entre 20 y 25 años. Juan es joven Mucha gente juega al fútbol El espectáculo es para gente grande.

CONOCIMIENTO IMPRECISO Si la variable X toma valores en S Proposiciones precisas {p: ¨X es s¨ / s  S } Proposiciones imprecisas {p: ¨X es r¨ / r  S } * Imprecisa - no borrosa Si r es un conjunto clásico * Imprecisa - borrosa (fuzzy) Si r es un conjunto borroso (fuzzy)

Se debe tomar decisiones a partir de información incompleta o parcial. CONOCIMIENTO INCOMPLETO Se debe tomar decisiones a partir de información incompleta o parcial. Esto se suele manejar a través de supuestos o valores por defecto. Ejemplo: Si el paciente tiene S1, S2 y S3 entonces tiene una infección a Bacteria S3 ???

es conflictiva y cambiante. Ejemplo: CONOCIMIENTO NO-MONOTONO La información recibida a partir de distintas fuentes o en diferentes momentos es conflictiva y cambiante. Ejemplo: Si el vuelo nº 1340 sale en forma puntual y no tiene escalas técnicas arribará a Madrid a las 8 hs 1º Supongo no-escala técnica y concluyo arribará a Madrid a las 8 hs 2º Aviso de escala técnica, debo revisar la conclusión del horario de arribo.

RAZONAMIENTOS TIPOS DE CONOCIMIENTO RAZONAMIENTOS INCIERTO APROXIMADO IMPRECISO INCOMPLETO POR DEFECTO NO-MONOTONO NO-MONOTONO

RAZONAMIENTO APROXIMADO (RA) Trata como REPRESENTAR COMBINAR y REALIZAR INFERENCIAS con conocimiento impreciso y/o incierto

RA: Esquema general en sistemas basados en reglas de producción Hipótesis : Si X es A entonces Y es B () X es A* Conclusión Y es B* ??? REGLAS IMPRECISAS: A y/ o B son imprecisos REGLA INCIERTA:  Grado de certeza REGLAS HIBRIDAS: Problema complejo

MODELOS PROBABILISTICOS MODELO EVIDENCIAL MODELO POSIBILISTICO RA: Distintos modelos MODELOS PROBABILISTICOS MODELO EVIDENCIAL MODELO POSIBILISTICO Todos tratan la incertidumbre en un sistema de producción Sólo el modelo posibilístico puede tratar la imprecisión.

MODELOS PROBABILISTICOS

Probabilidad - Axiomas P: PROP  [0,1] P(V) = 1 y P(F) = 0 P(A  B) = P(A)+P(B)- P(AB) Propiedad P( ¬A) = 1- P(A)

Probabilidad - Conceptos Probabilidad a priori o incondicional P(A) o P(X=S) Variables aleatorias: X, Y Dominio: {x1, x2 , ..., xn } exhaustivo y excluyente Probabilidad condicional: P(A/B) P(X/Y) tabla valores P(X= xi /Y= yk) P(A/B) = P(AB) / P(B)

Distribución de Probabilidad Conjunta DolorD DolorD Caries 0.04 0.06 Caries 0.01 0.89 P(Caries  DolorD) = 0.04 + 0.06 + 0.01= 0.11 P (Caries / DolorD) = = P(Caries  DolorD) / P(DolorD)= = 0.04 / 0.04+0.01 = 0.8 Problema exponencial con la cantidad de variables

La regla de Bayes P(B/A) = P(A/B) * P(B) / P(A) Es la base de muchos de los sistemas de inferencia probabilística

RA: Modelos probabilísticos Modelo utilizado en Prospector (Duda-Hart´ 81) Modelo utilizado en Mycin (Shortliffe-Buchanan´ 75-84 ) Redes Bayesianas (Redes de Creencias - Pearl´86)

MYCIN (Buchanan&Shortliffe, 1975) Sistema Experto en enfermedades infecciosas Para valorar la confianza que merece H dada la evidencia E (E H) utiliza factores de certeza CF(H,E) = MB(H,E) - MD(H,E) MB y MD tienen su origen en relaciones probabilísticas: si MB(H, E)>0 entonces MD(H, E)=0 y si MD(H, E)>0 entonces MB(H, E)=0

MYCIN CF  [-1,1] y refleja un equilibrio entre las evidencias a favor y en contra Premisas complejas: CF (E1E2) = Min (CF(E1), CF(E1)) CF (E1 E2) = Max(CF(E1), CF(E1))

Combinación paralela E1 H E2 MYCIN C1 Combinación paralela E1 H E2 C ? C2 Diferentes situaciones: C1=CF(H,E1) y C2 =CF(H,E2) Si C1 y C2  0 C = C1+C2 - C1*C2 Si C1.C2 < 0 C = C1+C2/ 1 – minC1,C2 Si C1 y C2 < 0 C = C1+C2+C1*C2

MYCIN Propagación de los CFs C1 C2 E1 E2 H C?? Si C1  0 C = C1. C2 Si C1< 0 C = - C1 . CF(H, E2) 0 si no se conoce CF(H,E2))

Si bien tiene poco fundamento teórico MYCIN EL MODELO DE RAZONAMIENTO APROXIMADO PARA MANEJO DE LA INCERTIDUMBRE, BASADO EN LOS CFs Si bien tiene poco fundamento teórico Alguna base en teoría de probabilidades Regla de combinación de Dempster-Shafer Ha sido muy utilizado en el desarrollo de SE e implementado en algunos Shells

REDES BAYESIANAS

RA: Redes Bayesianas Para representar la dependencia que existe entre determinadas variables, en aplicaciones complejas, se utiliza una estructura de datos conocida como Red Bayesiana, Red de creencias, Red Probabilística o Red causal. Esta estructura sirve para especificar de manera concisa la distribución de probabilidad conjunta.

RA: Redes Bayesianas REDES BAYESIANAS REDES DE RELACIONES PROBABILISTICAS ENTRE PROPOSICIONES (variables aleatorias) RELACIONADAS SEMANTICAMENTE (relaciones causales) REDES BAYESIANAS NODOS PROPOSICIONES (variable o conjunto de variables) ARCOS RELACIONES CAUSALES (X ejerce influencia directa sobre Y) PESO DE ARCOS PROBABILIDAD CONDICIONAL (Tabla de Probabilidad Condicional)

RA: Redes Bayesianas Hay que establecer: Topología de la red A los expertos les resulta fácil determinar las dependencias entre conceptos Probabilidades condicionales Tarea más compleja (datos estadísticos, subjetivos, utilizar otras técnicas)

RA: Redes Bayesianas Topología de la red: Podría considerarse como una base de conocimientos abstractos, válida en una gran cantidad de escenarios diversos Representa la estructura general de los procesos causales del dominio

RA: Redes Bayesianas La incertidumbre inherente a los distintos enlaces (relaciones causales) representan las situaciones no representadas explícitamente. Las probabilidades resumen un conjunto de posibles circunstancias en que pueden ser verdaderas (falsas) las variables de un nodo.

RA: Redes Bayesianas EJEMPLO C B E D Del grafo, que representa las relaciones causales, se puede sacar la distribución conjunta: p ( A, B, C, D, E ) = P (E / C) P (D / A,C) P (C / A) P(B / A) P(A)

P(x1, …, xn) =  P(xi / Padres (xi)) RA: Redes Bayesianas En general, es posible calcular cada una de las entradas de la distribución conjunta desde la información de la red P(x1, …, xn) =  P(xi / Padres (xi)) i= 1,n

RA: Redes Bayesianas EJEMPLO (Norvig &Russell / Judea Pearl) Una casa tiene una alarma que se activa ante intento de robo, pero puede activarse ante temblores (el escenario es en Los Angeles). Dos vecinos, Juan y María se han ofrecido a llamar al dueño de la casa al trabajo, si escuchan la alarma. Juan a veces confunde el sonido de la alarma con otros sonidos, pero llama de todos modos y María a veces no la escucha por otras fuentes de sonido que tiene encendida (TV, Música).

Cual es la Probabilidad de robo???? RA: Redes Bayesianas EJEMPLO Objetivo: Realizar distintas de inferencias Con la evidencia de quien ha llamado y quien no Cual es la Probabilidad de robo???? P(R/¬J,M)

RA: Redes Bayesianas EJEMPLO TOPOLOGIA DE LA RED Robo Temblor Alarma Juan-llama María-llama

EJEMPLO Robo Temblor Alarma Juan-llama María-llama P(R) 0.001 P(T) 0.002 Robo Temblor R T P(A/ R,T) V 0.950 F 0.290 0.001 Alarma A P(M) V 0.70 F 0.01 Juan-llama A P(J) V 0.90 F 0.05 María-llama

Belief Networks as Rule Systems burglary earthquake alarm MaryCalls JohnCalls P(E) .002 P(B) .001 A P(M) T .70 F .01 A P(J) T .90 F .05 B E P(A) T T .95 T F .94 F T .29 F F .001 Burglary (0.01)  Earthquake (0.02)  Alarm (0.95)  Burglary  Earthquake Alarm (0.94)  Burglary  Earthquake Alarm (0.29)  Burglary  Earthquake Alarm (0.001)  Burglary  Earthquake JohnCalls (0.90)  Alarm JohnCalls (0.05)  Alarm MaryCalls (0.70)  Alarm MaryCalls (0.01)  Alarm Doesn’t add anything …but shows that you need many rules to represent the full Bayesian Net In many cases you may not have all this information!

RA: Redes Bayesianas P(J  M  A  R T ) = P(J/A) P(M/A) EJEMPLO Como ejemplo podemos calcular la probabilidad del evento de que suene la alarma, sin que se haya producido robo ni temblor, habiendo llamado Juan solamente: P(J  M  A  R T ) = P(J/A) P(M/A) P(A/ R T) P(R) P(T)=0.00062 Si la Red Bayesiana es una representación de la probabilidad conjunta, sirve para responder consultas del dominio P(R / J ) ??? = 0.16

RA: Redes Bayesianas INDEPENDENCIA: Se hace explícita mediante la separación de grafos. SE CONSTRUYE INCREMENTALMENTE por el experto agregando objetos y relaciones. Los arcos no deben considerarse estáticos, representan restricciones sobre la certeza de los nodos que unen p (A / B) cuantifica la certeza de B  A si lo que se conoce es una evidencia e de que B es cierto p (A/B,e)

RA: Redes Bayesianas Inferencias: Belief revision Consiste en encontrar la asignación global que maximice cierta probabilidad Puede usarse para tareas explicatorias/diagnóstico Básicamente a partir de cierta evidencia, nuestra tarea es encontrar un conjunto de hipótesis que constituyan la mejor explicación de las evidencias (razonamiento abductivo) Encontrar asignaciones a los nodos N1...Nj / (P(E / N1,…,Nj)) sea máxima.

RA: Redes Bayesianas Inferencias: Belief updating Consiste en determinar la mejor instanciación de una variable, dada una evidencia. Es la actualización de probabilidades de un nodo dadas un conjunto de evidencias: (P(Ni/E1,…,En)) Ejemplo: determinar la probabilidad de robo sabiendo que Juan llama y María llama. P(R/J,M) actualiza el valor de P(R)

An application: GENINFER A couple is expecting a child. The (expecting) mother has a hemophiliac risk determine the probability of hemophiliac for the child Hemophiliac disease is genetically determined: Due to a defected X chromosome mother father Chromosomes: X X X y child carrier hemophiliac X X X y X X X y

The Bayesian Network: mother_carrier father_hemoph child_recessive P(M) .00008 P(F) M F P(C) T T .75 T F .50 F T .50 F F 0 A family tree: ok H ? father mother grandfather great grandfather great grandmother grandmother great uncle C ?

Expanding to full network: GGM GGF GM GF GU M F C P(GGM) 1 P(GGF) P(GF) P(F) P(GU) Tempting solution: but these are not prior probabilities But in fact remains correct if you interpret events differently

Expanding to full network (2) Compute: P(GGM| GU  GGF) = 1 Compute: P(GM| GGM  GGF) = 0.5 , etc. GGM GGF GM GF GU M F C P(GGM) .00008 P(GGF) P(GF) P(F) 0.5 0.25 M F P(C) T T .75 T F .50 F T .50 F F 0 All dependencies are based on: 0.125

And if there are uncles? Recompute: P(GM| GGM  GGF  U1  U2) Propagate the information to Mother and Child GGM GGF GM GF GU M F C 0.5 U1 U2 0.028

And brothers? Probability under additional condition of 3 healthy bothers: GGM GGF GM GF GU M F C U1 U2 further decrease B1 B2 B3 0.007

MODELOS PROBABILISTICOS Problema de las asignaciones de probabilidad (estadísticas o evaluaciones subjetivas?) Mycin es un modelo mas bien ad hoc, con limitaciones, pero que funcionó muy bien en ese dominio y fue trasladado a shells. Las Redes Bayesianas son modelos más cercanos a un modelo probabilístico puro y permite la representación explícitas de las dependencias del dominio en la red. JavaBayes