La descarga está en progreso. Por favor, espere

La descarga está en progreso. Por favor, espere

Conocimiento incierto y razonamiento

Presentaciones similares


Presentación del tema: "Conocimiento incierto y razonamiento"— Transcripción de la presentación:

1 Conocimiento incierto y razonamiento

2 Actuando bajo incertidumbre
Un problema con lógica de primer orden, y en consecuen-cia con el enfoque de agente lógico, es que los agentes casi nunca tienen acceso a la verdad completa acerca de su entorno. En casi todos los casos habrá cuestiones im-portantes para las cuales el agente no puede encontrar una respuesta categórica. Por lo tanto el agente debe actuar bajo incertidumbre.

3 Manejando conocimiento incierto
Tratar de usar lógica de primer orden para enfrentar un dominio como el de diagnóstico médico falla por tres razones principales: Pereza. Es mucho trabajo listar el conjunto completo de antecedentes o consecuencias necesarios para asegurar que una regla no tenga excepciones, y se vuelve muy pesado usar las enormes reglas que resultan. Ignorancia teórica. La ciencia médica no tiene una teoría completa para el dominio. Ignorancia práctica. Podemos tener incertidumbre acerca de un paciente en particular porque todos los tests necesarios no han sido o no pueden ser realizados. (Aunque conozcamos todas las reglas).

4 Manejando conocimiento incierto (cont.)
La probabilidad que un agente asigna a una proposición depende de las percepciones que ha recibido hasta el mo-mento –la evidencia-. Así como el estado de una implica-ción puede cambiar cuando se agregan más sentencias a la BC, las probabilidades pueden cambiar cuando se adquiere más evidencia. Antes de obtener la evidencia, hablamos de probabilidad incondicional o previa; luego de obtener la evidencia, ha-blamos de probabilidad condicional o posterior.

5 Incertidumbre y decisiones racionales
Para realizar la elección de un plan, un agente debe tener preferencias entre los diferentes resultados posibles de los distintos planes. La teoría de utilidad representa y razona con preferencias. La teoría general de decisiones racionales combina prefe-rencias con probabilidades: Teoría de Decisión=Teoría de Probabilidades+Teoría de Utilidad Utilidad esperada máxima: la idea fundamental de la teoría de decisión es que un agente es racional si y solo si elige la acción que produce la utilidad más grande esperada, pro-mediada sobre todos los resultados posibles de la acción.

6 Notación básica de probabilidad
Probabilidad incondicional. Ej. P(Caries) = 0.1 Si Caries denota la proposición que un paciente particular tenga caries, significa que en ausencia de cualquier otra información, el agente asignará una probabilidad de 0.1 al evento de un paciente con caries. Las proposiciones también pueden incluir igualdades que involu-cran las llamadas variables al azar. Por ej., para la variable Clima: P(Clima = Soleado) = P(Clima) representa la probabilidad P(Clima = Lluvia) = de todos los valores posibles de Cli- P(Clima = Nublado) = ma, en este caso: P(Clima = Nieve) = P(Clima) = <0.7,0.2,0.08,0.02>

7 Notación básica de probabilidad (continuación)
Probabilidad condicional. Cuando el agente ha obtenido alguna evi-dencia concerniente a las proposiciones previamente desconocidas, las probabilidades incondicionales ya no son aplicables. Probabilidad condicional, con notación (AB) se lee ‘probabilidad de A dado que todo lo que conocemos es B’ Importante: recordar que P(AB) solo puede ser usado cuando0 todo lo que conocemos es B. Tan pronto como conozcamos C deberemos computar P(ABC) en vez de P(AB). Notación P con probabilidades condicionales. P(XY) es una tabla bidimensional que da los valores de P(X=xi Y =yj) para cada par posible i, j.

8 Relación Probab. Condic. – Probab. Incondic.
Las probabilidades condicionales se pueden definir en tér-minos de las probabilidades incondicionales: P(AB) = P(AB) válida siempre que P(B) > 0 P(B) Re-escribiendo esta ecuación tenemos la regla del producto: P(AB) = P(AB).P(B) = P(BA).P(A)

9 Axiomas de probabilidad
1.- Todas las probabilidades están entre 0 y  P(A)  1 2.- Las proposiciones necesariamente verdaderas tienen probabilidad 1, y las necesariamente falsas 0. P(Verdadero) = 1 P(Falso) = 0 3.- La probabilidad de una disyunción está dada por P(AB) = P(A) + P(B) - P(AB) Caso en que el Agente 1 tiene creencias inconsistentes: Agente 1 Agente 2 Resultados para el Agente 1 Propo-sición Monto de Apuesta Creencia Apuesta AB AB AB AB A 0.4 A 4 vs 6 -6 -6 4 4 B 0.3 B 3 vs 7 -7 3 -7 3 AB 0.8 (AB) 2 vs 8 2 2 2 -8 -11 -1 -1 -1

10 Modelo probabilístico de un problema: conjunto de variables al azar que pueden tomar valores particulares con ciertas probabilidades. Evento atómico: consiste en la asignación de valores particulares a todas las variables La distribución de probabilidad conjunta P(X1, X2 ,..., Xn) asigna pro-babilidades a todos los eventos atómicos posibles. Ejemplo: una distribución trivial de probabilidad conjunta para el dominio médico consistente en dos variables booleanas Dolor de Muelas (DM) y Caries, es: P(Caries) = P(Caries  DM) = Dado que los eventos atómicos son mutuamente excluyentes, cualquier conjunción de eventos atómicos es necesariamente falsa. Dado que son colecti-vamente exhaustivos, su disyunción es necesariamente verdadera. DM DM Caries Caries 0.04 0.01 0.89 0.06

11 Regla de Bayes A partir de la regla del producto podemos obtener
P(BA) = P(AB) P(B) P(A) El caso general de variables multivaluadas, usando la notación P puede ser escrito: P(YX) = P(XY) P(Y) P(X) Una versión más generalizada condicionada por alguna evidencia básica E es: P(YX,E) = P(XY,E) P(YE) P(XE)

12 Normalización P(SM)P(M) + P(SM)P(M)
P(MS) = P(SM) P(M) P(MS) = P(SM) P(M) P(S) P(S) Sumando estas dos ecuac., y sabiendo que P(MS) + P(MS) = 1, obtenemos P(S) = P(SM)P(M) + P(SM)P(M) Substituyendo en la ecuación para P(MS), tenemos P(MS) = P(SM) P(M) P(SM)P(M) + P(SM)P(M) En el caso general multivaluado, obtenemos la siguiente fórmula de la regla de Bayes: P(YX) = P(XY) P(Y) Donde  es la constante de normalización 1/P(X) necesaria para hacer que las entradas en la tabla P(YX) sumen 1.


Descargar ppt "Conocimiento incierto y razonamiento"

Presentaciones similares


Anuncios Google