Incertidumbre Capítulo 13.

Slides:



Advertisements
Presentaciones similares
DISEÑO DE EXPERIMENTOS EXPERIMENTOS DE COMPARACIÓN SIMPLE
Advertisements

Introducción al Teorema de Gödel
Tema 7: Probabilidad 1. Introducción. 2. Variables aleatorias.
Tema 4. Juegos simultáneos con información incompleta.
Tema.10. Conceptos básicos de muestreo y probabilidad aplicados a modelos en Psicología. Principales conceptos. Teoremas básicos. Variables aleatorias.
Bioestadística,2006.
Tema: Decibilidad Integrantes: Ileana Rdguez Soto
Alumna: Mayra Isabel Zurita Rivera
Investigación de Operaciones
Ingeniería en Ciencias Económicas y Financieras
Maestría en Bioinformática Bases de Datos y Sistemas de Información Fundamentos de Lógica Ing. Alfonso Vicente, PMP
Análisis Matemático III
KRIGING.
GEOESTADISTICA MULTIVARIADA
INFERENCIA ESTADISTICA
Representación en espacio de estado
Algebra Booleana y Compuertas Lógicas
ECONOMÍA DE LA INFORMACIÓN
Tema 2: Métodos de ajuste
Codificación Distribuida
Maracaibo, 5 de Noviembre de 2007 Universidad del Zulia Facultad de Ingeniería Instituto de Cálculo Aplicado Universidad del Zulia Facultad de Ingeniería.
FUNCIONES DE DENSIDAD DE PROBABILIDAD
REDES BAYESIANAS Y DECISIÓN ESTADÍSTICA
Tests de hipótesis Los tres pasos básicos para testear hipótesis son
Sesión 2: Métodos Probabilísticos Básicos
Sesión 13: Lógica y Probabilidad. Incertidumbre - LD y LP, L.E. Sucar2 Contenido Lógica probabilista Redes bayesianas con nodos lógico Modelos relacionales.
Unidad VI: PRUEBAS DE HIPOTESIS
Metodos de Inferencia Lenin Herrera.
Clases 4 Pruebas de Hipótesis
E Experimentos aleatorios. Espacio muestral
Sesión 4: Métodos Probabilísticos Básicos “... tenemos razones para creer que hay en la constutución de las cosas leyes de acuerdo a las cuales suceden.
Diseño Estadístico y Herramientas para la Calidad
Representación del conocimiento
Sesión 2: Teoría de Probabilidad “Considero que la probabilidad representa el estado de la mente con respecto a una afirmación, evento u otra cosa para.
Representación de Señales y Ruido por medio de Series Ortogonales
ESTRUCTURA DE DATOS ESD-243
(Organización y Manejo de Archivos)
LOGICA DE ENUNCIADO LOGICA DE PREDICADO
ISF5501 Ingeniería de Software
Investigación Experimental
Redes Bayesianas Capítulo 14 Sección 1 – 2.
Unidad V: Estimación de
Capítulo 7 Estimación de Parámetros Estadística Computacional
Simular: Representar una cosa, fingiendo o imitando lo que no es.
Inteligencia Artificial
Lógica de enunciado La lógica de enunciados o de proposiciones es el nivel más básico de análisis lógico y descansa exclusivamente en las conectivas.
Inferencia Estadística
Sesión 2: Teoría de Probabilidad
EL MÉTODO CIENTÍFICO.
Integración de Redes Bayesianas con Programas Lógicos para Música Eduardo Morales L.Enrique Sucar Roberto Morales.
Razonamiento probabilistico
Capítulo 1. Conceptos básicos de la Estadística
Un panorama de conceptos probabilísticos
Pruebas de hipótesis.
Sesión 09: Teoría de las Probabilidades
Combinación de Programas Lógicos y Redes Bayesianas y su Aplicación a Música Eduardo Morales Enrique Sucar Roberto Morales.
Sesión 2: Teoría de Probabilidad “Considero que la probabilidad representa el estado de la mente con respecto a una afirmación, evento u otra cosa para.
Unidad II. Probabilidad
Reglas Básicas del Álgebra de Boole
Estimación y contraste de hipótesis
Sesión 6: Redes Bayesianas - Inferencia
Conocimiento incierto y razonamiento
RIESGO, RENDIMIENTO Y VALOR
ECONOMÍA DE LA INFORMACIÓN TEOREMA DE BAYES Teoría de la decisión – Facultad de Ciencias Económicas - UBA.
1 2  La Teoría de la Probabilidad constituye la base o fundamento de la Estadística, ya que las ingerencias que hagamos sobre la población o poblaciones.
Aspectos generales de la investigación educativa en el SNIT
UNIDAD II LINEAS DE ESPERA
INFERENCIA ESTADÍSTICA
Hernández Camacho Víctor Jesus Islas Sánchez Karla Vanessa
distribución uniforme
Transcripción de la presentación:

Incertidumbre Capítulo 13

Contorno Incertidumbre Probabilidad Sintaxis y Semántica Inferencia Independencia y Regla de Bayes

Incertidumbre La acción At = salir con destino al aeropuerto t minutos antes del vuelo ¿Lo hará At llevarme allí a tiempo? Los problemas: Observación parcial (la condición de la carretera, los planes de otros conductores, etc.) Los sensores ruidosos (el reporte del tráfico) La incertidumbre en los resultados de acción (la llanta desinflada, etc.) La complejidad inmensa de modelar y predecir tráfico Por lo tanto un acercamiento puramente lógico cualquiera Arriesga engaño: “A25 me llevará allí a tiempo ”, o Conduce a las conclusiones que son demasiadas débiles para la toma de decisiones “ A25 me llevará allí a tiempo si no hay accidente en el puente y si no llueve y mis llantas permanecen intactas, etc.” (A1440 razonablemente me lleva allí a tiempo pero tendría que pasar la noche en el aeropuerto … )

Los métodos para manipular incertidumbre Lógica no monótona -Asumir que mi coche no tiene una llanta desinflada -Asumo que A25 trabaja a menos que sea contradicho por la prueba Los asuntos: ¿Qué suposiciones son razonables? ¿Cómo manipular contradicción? Las reglas con factores dulces: -A25 | --> 0.3 logre llegar a tiempo -WetGrass | --> 0.99 Regadores -WetGrass | --> 0.7 La Lluvia Los asuntos: Los problemas con combinación, e.g., ¿Las causas de Lluvia? La probabilidad -Modela el grado de creencia del agente -Dada la evidencia disponible -A25 me llevará allí a tiempo con probabilidad 0.04

Probabilidad Las aseveraciones probabilísticas resumen efectos de La pereza: El fracaso para enumerar excepciones, aptitudes, etc. La ignorancia: La falta de hechos pertinentes, condiciones iniciales, etc. La probabilidad subjetiva: Las probabilidades relacionan proposiciones con la propia condición de agente de conocimiento v.g., P (A25 | ninguno accidente reportado) = 0.06 Éstas no son aseveraciones acerca del mundo Las probabilidades de proposiciones se alteran con prueba nueva: v.g., P (A25 | ninguno accidente reportado, 5 a.m.) = 0.15

Decisiones bajo incertidumbre Supongo que creo en lo siguiente: P (A25 me lleva allí a tiempo | … ) = 0.04 P (A90 me lleva allí a tiempo | … ) = 0.70 P (A120 me lleva allí a tiempo | … ) = 0.95 P (A1440 me lleva allí a tiempo | … ) = 0.9999 ¿Cuál es la acción a escoger? Depende de mis preferencias para el vuelo faltante vs. el tiempo transcurrido esperando, etc. -La teoría de utilidad se usa para representar e inferir preferencias -La teoría de decisión = teoría de la probabilidad + teoría de utilidad

Sintaxis Elemento básico: La variable aleatoria Parecido a la lógica de la proposición: Los mundos posibles definidos por la asignación de valores para las variables aleatorias. Variables aleatorias Booleanas v.g., ¿La caries (tengo una caries)? Variables aleatorias discretas v.g., El clima es uno de < soleado, lluvioso, nublado, nevado> Valores de dominio deben ser exhaustivos y mutuamente exclusivos Proposición elemental construida por asignación de un valor a una variable aleatoria: v.g., El clima = soleado, Caries = falso Proposiciones complejas establecidas de proposiciones elementales y operadores lógicos estándar. v.g., clima = soleado v Cavidad = falso

Sintaxis El acontecimiento atómico: Una especificación completa de la condición del mundo acerca del cual el agente está inseguro v. g., Si el mundo consta sólo dos variables Booleanas de caries y dolor, entonces hay 4 acontecimientos atómicos distintos: caries = falso Ù dolor = falso caries = falso Ù dolor = verdadero caries = verdadero Ù dolor = falso caries = verdadero Ù dolor = verdadero Los acontecimientos atómicos son mutuamente exclusivos y exhaustivos

Axiomas de probabilidad Para cualquier proposición A, B 0 ≤ P(A) ≤ 1 P(cierto) = 1 y P(falso) = 0 P(A  B) = P(A) + P(B) - P(A  B)

La probabilidad previa Probabilidades previas o incondicionales de proposiciones v.g., P (caries = verdadera) = 0.1 y P (Clima = Caluroso) = 0.72 corresponden a la creencia antes de la llegada de cualquier (nueva) evidencia La distribución de probabilidad da valores para todas las asignaciones posibles: P (Clima)=< 0.72,0.1,0.08,0.1>(normalizando, sumas a 1) La distribución de probabilidad conjunta para un conjunto de variables aleatorias da la probabilidad de cada acontecimiento atómico en esas variables aleatorias P (Clima, caries) = a 4 × 2 matriz de valores: Clima Soleado Lluvioso Nublado Nevado caries = verdadera 0.144 0.02 0.016 0.02 caries = falsa 0.576 0.08 0.064 0.08 Cada pregunta acerca de un dominio puede ser contestada por la distribución conjunta

Probabilidad Condicional Las probabilidades condicionales o posteriores v.g., P (caries | dolor) = 0.8 Notación para distribuciones condicionales: P (caries | dolor) vector de 2 elementos de vectores de 2 elementos) Si sabemos más, v.g., caries es también dada, luego tenemos P (caries | dolor, caries) = 1 La nueva evidencia puede ser una simplificación irrelevante, permitidora, v.g., P (caries | dolor, soleado) = P (caries | dolor) = 0.8 Esta clase de inferencia, admitido por el conocimiento de dominio, es crucial

Probabilidad Condicional Definición de probabilidad condicional: P(a | b) = P(a Ù b) / P(b) si P(b) > 0 Regla del producto da una formulación alternativa: P(a Ù b) = P(a | b) P(b) = P(b | a) P(a) Una versión general sujeta para distribuciones enteras, v.g., P(Clima, Cavidad) = P(Clima | Cavidad) P(Cavidad) La regla de la cadena es derivativa por la aplicación sucesiva de regla del producto P(X1, …,Xn) = P(X1,...,Xn-1) P(Xn | X1,...,Xn-1) = P(X1,...,Xn-2) P(Xn-1 | X1,...,Xn-2) P(Xn | X1,...,Xn-1) = … = πi= 1^n P(Xi | X1, … ,Xi-1)

Inferencia por enumeración Comenzar con la distribución de probabilidad conjunta Para cualquier proposición φ , asumir los acontecimientos atómicos donde es cierto: P(φ) = Σω:ω╞φ P(ω) Dolor de muelas ¬Dolor de muelas Contraer ¬Contraer Cavidad 0.108 0.012 0.072 0.008 ¬Cavidad 0.016 0.064 0.144 0.576

Inferencia por enumeración Comenzar con la distribución de probabilidad conjunta Para cualquier proposición φ , asumir los acontecimientos atómicos donde es cierto: P(φ) = Σω:ω╞φ P(ω) P(dolor de muelas) = 0.108 + 0.012 + 0.016 + 0.064 = 0.2 Dolor de muelas ¬Dolor de muelas Contraer ¬Contraer Cavidad 0.108 0.012 0.072 0.008 ¬Cavidad 0.016 0.064 0.144 0.576

Inferencia por enumeración Comenzar con la distribución de probabilidad conjunta Para cualquier proposición φ , asumir los acontecimientos atómicos donde es cierto: P(φ) = Σω:ω╞φ P(ω) P(dolor de muelas) = 0.108 + 0.012 + 0.016 + 0.064 = 0.2 Dolor de muelas ¬Dolor de muelas Contraer ¬Contraer Cavidad 0.108 0.012 0.072 0.008 ¬Cavidad 0.016 0.064 0.144 0.576

Inferencia por enumeración Comenzar con la distribución de probabilidad conjunta También puede computar probabilidades condicionales: P ( cavidad | dolor de muelas) = P( cavidad dolor de muelas) P (dolor de muelas) = 0.016 +0.064 0.108 + 0.012 + 0.016 + 0.064 = 0.4 Dolor de muelas ¬Dolor de muelas Contraer ¬Contraer Cavidad 0.108 0.012 0.072 0.008 ¬Cavidad 0.016 0.064 0.144 0.576

Inferencia por enumeración Comenzar con la distribución de probabilidad conjunta El denominador puede ser visto como una constante de normalización α P(Cavidad | dolor de muelas) = α, P(Cavidad, dolor de muelas) = α, [P(Cavidad,dolor de muelas,contraer) + P(Cavidad,dolor de muelas,  contraer)] = α, [<0.108,0.016> + <0.012,0.064>] = α, <0.12,0.08> = <0.6,0.4> Idea general: Calcular distribución en la variable de averiguación centrando variables de prueba y sumando sobre las variables escondidas Dolor de muelas ¬Dolor de muelas Contraer ¬Contraer Cavidad 0.108 0.012 0.072 0.008 ¬Cavidad 0.016 0.064 0.144 0.576

Inferencia por enumeración (cont.) Típicamente, tenemos interés en la distribución conjunta posterior de las variables de Y dados los valores específicos para las variables de evidencia E Las variables desconocidas son H=X - Y - E Luego la suma total requerida de entradas conjuntas está hecha sumando las variables desconocidas que están fuera: P(Y | E = e) = αP(Y,E = e) = αΣhP(Y,E= e, H = h) Las condiciones en la suma total son entradas conjuntas porque Y, E y H conjuntamente agotan el conjunto de variables aleatorias Problemas obvios: 1.-La peor complejidad de tiempo de caso O(dn) donde d es la cardinalidad mayor 2.-La complejidad del espacio O(dn) para almacenar la distribución conjunta 3.-¿Cómo encontrar los números para las entradas O(dn)?

Independencia A y B son independientes si y solo si: P(A|B) = P(A) o P(B|A) = P(B) o P(A, B) = P(A) P(B) Se descomponen en P(dolor de muelas, Contraer, Caries, Clima) = P(Dolor de muelas, Contraer, Caries) P(Clima) 32 entradas reducidas para 12; Para n monedas deformadas independientes, O(2n)  O(n) Independencia absoluta y poderosa pero rara La odontología es un campo grande con centenares de variables, ninguna de las cuales es independiente. ¿Qué hacer? Caries Dolor de muelas Contraer Caries Dolor de muelas Contraer Clima Clima

Independencia Condicional P (Dolor de muelas, Caries, Contraer) tiene 23 – 1 = 7 entradas independientes Si tengo una caries, entonces la probabilidad de que la sonda la perciba no depende de si tengo un dolor de muelas: (1) P (contraer | dolor de muelas, caries) = P (contraer | caries) La misma independencia tiene aplicación si no he obtenido una cavidad: (2) P (contraer | dolor de muelas, Ø caries) = P (contraer | Ø caries) El contraer es condicionalmente independiente del dolor de muelas dada la caries: P (Contraer | Dolor de muelas, caries) = P (Contraer | caries) Las declaraciones equivalentes: P (Dolor de muelas | Contraer, caries) = P (Dolor de muelas | caries) P (Dolor de muelas | caries) = P (Dolor de muelas, Contraer | caries) P (contraer | caries)

Independencia condicional (cont) Redactar la distribución completa y unida usando la regla de la cadena: P(dolor de muelas, Contraer, caries) = P(Dolor de muelas | Contraer, caries) P(Contraer, caries) = P(Dolor de muelas | Contraer, caries) P(Contraer | caries) P(caries) = P(Dolor de muelas | caries) P(Contraer | caries) P(caries) I.e., 2 + 2 + 1 = 5 números independientes En la mayoría de los casos, el uso de independencia condicional reduce el tamaño de la representación de la distribución unida de exponencial en n para linealizar en n. La independencia condicional es nuestra forma más básica y robusta de conocimiento acerca de ambientes inciertos.

La Regla De Bayes Regla del Producto P(ab) = P(a | b) P(b) = P(b | a) P(a)  Regla de Bayes: P(a | b) = P(b | a) P(a) / P(b) O en forma distributiva P(Y|X) = P(X|Y) P(Y) / P(X) = αP(X|Y) P(Y) Útil para evaluar probabilidad diagnóstica de probabilidad causal: -P(Causa|Efecto) = P(Efecto|Causa) P(Causa) / P(Efecto) -E.g., sea m meningitis, s cuello torcido: P(m|s) = P(s|m) P(m) / P(s) = 0.8 × 0.0001 / 0.1 = 0.0008 -Note: La probabilidad posterior de meningitis continua siendo muy pequeña

Regla de Bayes e Independencia Condicional P(Caries | dolor de muelas  contraer) = αP(dolor de muelas  contraer | Caries) P(Caries) = αP(dolor de muelas | Caries) P(contraer | Caries) P(Caries) P(Causa,Efecto1, … ,Efecton) = P(Causa) πiP(Efectoi|Causa) El número total de parámetros es lineal en n Cavidad Causa Dolor de muelas Contraer Efecto 1 Efecto n

Resumen La probabilidad es un formalismo riguroso para el conocimiento incierto La distribución de probabilidad unida especifica probabilidad de cada acontecimiento atómico Las averiguaciones pueden ser resueltas sumando los acontecimientos atómicos Para los dominios poco triviales, debemos encontrar la manera de reducir el tamaño conjunto Dependencia e Independencia condicional proveen las herramientas