Conocimiento incierto y razonamiento

Slides:



Advertisements
Presentaciones similares
Taller de Lógica Facultad de Filosofía y Letras, UBA. 2do cuatrimestre de 2006 Facultad de Filosofía y Letras, UBA.
Advertisements

Introducción al Teorema de Gödel Eduardo Alejandro Barrio UBA - CONICET 2do Cuatrimestre de 2009 Eduardo Alejandro Barrio UBA.
JUEGOS SIMULTÁNEOS CON INFORMACIÓN INCOMPLETA.
Tema 4. Juegos simultáneos con información incompleta.
LOGICA DIFUSA Lógica bivaluada: cada proposición debe ser verdadera o falsa. Lógica multivaluada: infinitos valores. En 1965 Lotfi A. Zadeh publicó su.
Bioestadística,2006.
Ética y Humanismo en Cuidados Paliativos
Investigación de Operaciones
Maestría en Bioinformática Bases de Datos y Sistemas de Información Fundamentos de Lógica Ing. Alfonso Vicente, PMP
Algebra Booleana y Compuertas Lógicas
Sistemas de razonamiento probabilístico
Matemáticas Discretas
FUNCIONES MATEMATICAS
ECONOMÍA DE LA INFORMACIÓN
Estadística Administrativa I
Las Operaciones Intelectuales
Incertidumbre Capítulo 13.
Codificación Distribuida
REDES BAYESIANAS Y DECISIÓN ESTADÍSTICA
Tests de hipótesis Los tres pasos básicos para testear hipótesis son
Sesión 2: Métodos Probabilísticos Básicos
La Derivada. Ya vimos: los conceptos, métodos ó instrumentos necesarios para establecer el “comportamiento” de una función.  en un entorno de x o [ 
Unidad VI: PRUEBAS DE HIPOTESIS
Representación del conocimiento
Sesión 2: Teoría de Probabilidad “Considero que la probabilidad representa el estado de la mente con respecto a una afirmación, evento u otra cosa para.
U. Diego Portales Elementos de lógica Prof. Haroldo Cornejo O.
LOGICA DE ENUNCIADO LOGICA DE PREDICADO
Inteligencia Artificial
Organización y Administración II Problemas Universo Indeterminado
Conceptos Básicos de Probabilidad
“El Método Científico” Análisis de Datos I Semestre Otoño 2009.
LÓGICA PROPOSICIONAL Y PREDICADOS
Campus Estado de México—Raúl Monroy Resolución, la regla de inferencia y el cálculo Raúl Monroy.
Cap. 5 – Leyes de Movimiento
Redes Bayesianas Capítulo 14 Sección 1 – 2.
Unidad V: Estimación de
TEORÍA DE LA DECISIÓN Claudia Stephanie Jiménez Zapata
Inteligencia Artificial
Lógica de enunciado La lógica de enunciados o de proposiciones es el nivel más básico de análisis lógico y descansa exclusivamente en las conectivas.
Proposiciones simples y proposiciones compuestas
MATEMATICA I Lógica Matemticas Prof Rubén Millán
Sesión 2: Teoría de Probabilidad
EL MÉTODO CIENTÍFICO.
Integración de Redes Bayesianas con Programas Lógicos para Música Eduardo Morales L.Enrique Sucar Roberto Morales.
Análisis lógico de los argumentos deductivos El razonamiento: Análisis lógico de los argumentos deductivos.
Introducción a la programación
Inferencia Estadística: 6. Probabilidad Condicional
Razonamiento probabilistico
Capítulo 1. Conceptos básicos de la Estadística
LÓGICA SIMBÓLICA SE HA ESTABLECIDO QUE EN EL PROCESO DEL RAZONAMIENTO LÓGICO, LA VERDAD SÓLO SE OBTIENE SI SE CUMPLEN DOS CONDICIONES: 1.- LAS PROPOSICIONES.
ESTADISTICA II PARTE PRIMERA: PROBABILIDAD Y VARIABLES ALEATORIAS
CONTENIDO: Estadística Descriptiva e inferencial Muestreo estadístico
Matemáticas Computacionales
Un panorama de conceptos probabilísticos
Sesión 09: Teoría de las Probabilidades
Sesión 2: Teoría de Probabilidad “Considero que la probabilidad representa el estado de la mente con respecto a una afirmación, evento u otra cosa para.
Sesión 6: Redes Bayesianas - Inferencia
LÓGICA CUANTIFICACIONAL O DE PREDICADOS
LA CONCEPCIÓN INTERNISTA DE LA JUSTIFICACIÓN
ECONOMÍA DE LA INFORMACIÓN TEOREMA DE BAYES Teoría de la decisión – Facultad de Ciencias Económicas - UBA.
Distribución Binomial
Concepto de Probabilidad
INFERENCIA ESTADÍSTICA
Capítulo 5 Definición del alcance de la investigación a realizar: exploratoria, descriptiva, correlacional o explicativa.
Desarrollo de Sistemas Expertos
Villamizar Luis Miguel. Variables aleatorias Se denomina variable aleatoria al conjunto imagen de esta correspondencia, es decir, al conjunto de los números.
Estimación Estadística Tares # 3. Estimación Estadística Conjunto de técnicas que permiten dar un valor aproximado de un parámetro de una población a.
Intervalos de Confianza M. C. José Juan Rincón Pasaye UMSNH – FIE Mayo de 2003.
 Dicho principio lógico podemos formularlo de la siguiente forma: A es A, en la cual la variable A denota un pensamiento o contenido concreto cualquiera.
Principios lógicos Los “principios lógicos” constituyen las verdades primeras, “evidentes” por sí mismas, a partir de las cuales se construye todo el edificio.
Transcripción de la presentación:

Conocimiento incierto y razonamiento

Actuando bajo incertidumbre Un problema con lógica de primer orden, y en consecuen-cia con el enfoque de agente lógico, es que los agentes casi nunca tienen acceso a la verdad completa acerca de su entorno. En casi todos los casos habrá cuestiones im-portantes para las cuales el agente no puede encontrar una respuesta categórica. Por lo tanto el agente debe actuar bajo incertidumbre.

Manejando conocimiento incierto Tratar de usar lógica de primer orden para enfrentar un dominio como el de diagnóstico médico falla por tres razones principales: Pereza. Es mucho trabajo listar el conjunto completo de antecedentes o consecuencias necesarios para asegurar que una regla no tenga excepciones, y se vuelve muy pesado usar las enormes reglas que resultan. Ignorancia teórica. La ciencia médica no tiene una teoría completa para el dominio. Ignorancia práctica. Podemos tener incertidumbre acerca de un paciente en particular porque todos los tests necesarios no han sido o no pueden ser realizados. (Aunque conozcamos todas las reglas).

Manejando conocimiento incierto (cont.) La probabilidad que un agente asigna a una proposición depende de las percepciones que ha recibido hasta el mo-mento –la evidencia-. Así como el estado de una implica-ción puede cambiar cuando se agregan más sentencias a la BC, las probabilidades pueden cambiar cuando se adquiere más evidencia. Antes de obtener la evidencia, hablamos de probabilidad incondicional o previa; luego de obtener la evidencia, ha-blamos de probabilidad condicional o posterior.

Incertidumbre y decisiones racionales Para realizar la elección de un plan, un agente debe tener preferencias entre los diferentes resultados posibles de los distintos planes. La teoría de utilidad representa y razona con preferencias. La teoría general de decisiones racionales combina prefe-rencias con probabilidades: Teoría de Decisión=Teoría de Probabilidades+Teoría de Utilidad Utilidad esperada máxima: la idea fundamental de la teoría de decisión es que un agente es racional si y solo si elige la acción que produce la utilidad más grande esperada, pro-mediada sobre todos los resultados posibles de la acción.

Notación básica de probabilidad Probabilidad incondicional. Ej. P(Caries) = 0.1 Si Caries denota la proposición que un paciente particular tenga caries, significa que en ausencia de cualquier otra información, el agente asignará una probabilidad de 0.1 al evento de un paciente con caries. Las proposiciones también pueden incluir igualdades que involu-cran las llamadas variables al azar. Por ej., para la variable Clima: P(Clima = Soleado) = 0.7 P(Clima) representa la probabilidad P(Clima = Lluvia) = 0.2 de todos los valores posibles de Cli- P(Clima = Nublado) = 0.08 ma, en este caso: P(Clima = Nieve) = 0.02 P(Clima) = <0.7,0.2,0.08,0.02>

Notación básica de probabilidad (continuación) Probabilidad condicional. Cuando el agente ha obtenido alguna evi-dencia concerniente a las proposiciones previamente desconocidas, las probabilidades incondicionales ya no son aplicables. Probabilidad condicional, con notación (AB) se lee ‘probabilidad de A dado que todo lo que conocemos es B’ Importante: recordar que P(AB) solo puede ser usado cuando0 todo lo que conocemos es B. Tan pronto como conozcamos C deberemos computar P(ABC) en vez de P(AB). Notación P con probabilidades condicionales. P(XY) es una tabla bidimensional que da los valores de P(X=xi Y =yj) para cada par posible i, j.

Relación Probab. Condic. – Probab. Incondic. Las probabilidades condicionales se pueden definir en tér-minos de las probabilidades incondicionales: P(AB) = P(AB) válida siempre que P(B) > 0 P(B) Re-escribiendo esta ecuación tenemos la regla del producto: P(AB) = P(AB).P(B) = P(BA).P(A)

Axiomas de probabilidad 1.- Todas las probabilidades están entre 0 y 1. 0  P(A)  1 2.- Las proposiciones necesariamente verdaderas tienen probabilidad 1, y las necesariamente falsas 0. P(Verdadero) = 1 P(Falso) = 0 3.- La probabilidad de una disyunción está dada por P(AB) = P(A) + P(B) - P(AB) Caso en que el Agente 1 tiene creencias inconsistentes: Agente 1 Agente 2 Resultados para el Agente 1 Propo-sición Monto de Apuesta Creencia Apuesta AB AB AB AB A 0.4 A 4 vs 6 -6 -6 4 4 B 0.3 B 3 vs 7 -7 3 -7 3 AB 0.8 (AB) 2 vs 8 2 2 2 -8 -11 -1 -1 -1

Modelo probabilístico de un problema: conjunto de variables al azar que pueden tomar valores particulares con ciertas probabilidades. Evento atómico: consiste en la asignación de valores particulares a todas las variables. La distribución de probabilidad conjunta P(X1, X2 ,..., Xn) asigna pro-babilidades a todos los eventos atómicos posibles. Ejemplo: una distribución trivial de probabilidad conjunta para el dominio médico consistente en dos variables booleanas Dolor de Muelas (DM) y Caries, es: P(Caries) = 0.10 P(Caries  DM) = 0.11 Dado que los eventos atómicos son mutuamente excluyentes, cualquier conjunción de eventos atómicos es necesariamente falsa. Dado que son colecti-vamente exhaustivos, su disyunción es necesariamente verdadera. DM DM Caries Caries 0.04 0.01 0.89 0.06

Regla de Bayes A partir de la regla del producto podemos obtener P(BA) = P(AB) P(B) P(A) El caso general de variables multivaluadas, usando la notación P puede ser escrito: P(YX) = P(XY) P(Y) P(X) Una versión más generalizada condicionada por alguna evidencia básica E es: P(YX,E) = P(XY,E) P(YE) P(XE)

Normalización P(SM)P(M) + P(SM)P(M) P(MS) = P(SM) P(M) P(MS) = P(SM) P(M) P(S) P(S) Sumando estas dos ecuac., y sabiendo que P(MS) + P(MS) = 1, obtenemos P(S) = P(SM)P(M) + P(SM)P(M) Substituyendo en la ecuación para P(MS), tenemos P(MS) = P(SM) P(M) . P(SM)P(M) + P(SM)P(M) En el caso general multivaluado, obtenemos la siguiente fórmula de la regla de Bayes: P(YX) = P(XY) P(Y) Donde  es la constante de normalización 1/P(X) necesaria para hacer que las entradas en la tabla P(YX) sumen 1.