ENTROPÍA PARA BAYES Hebe Alicia Cadaval Hebe Alicia Cadaval

Slides:



Advertisements
Presentaciones similares
Estimación del riesgo relativo
Advertisements

Toma de decisiones bajo condiciones de riesgo
Análisis de Procesos de Decisiones
HISTORIA DEL TRATAMIENTO DE LA UTILIDAD EN SITUACIONES DE RIESGO
Universidad Nacional de Ingeniería Recinto Universitario Augusto C
PROBABILIDAD CONDICIONAL Y TEOREMA DE BAYES
Teoría de la Información y Codificación
TEORÍA DE LA DECISIÓN BAJO INCERTIDUMBRE
OTRO ANÁLISIS DE COSTOS
CRITERIOS DE DECISIÓN BAJO INCERTIDUMBRE APLICADOS EN
MEDICIÓN Hebe Alicia Cadaval.
ECONOMÍA DE LA INFORMACIÓN
BAYES APLICADO A LA DECISION
© L.E. Sucar: MGP - 3 T. Info.1 Sesión 3: Teoría de Información Modelos Gráficos Probabilistas L. Enrique Sucar INAOE “Estamos ahogados en datos, pero.
LA MATRIZ DE DECISIÓN.
Inferencia Estadística Departament d’Estadística
BAYES APLICADO A LA TOMA DE DECISIONES
EL UNIVERSO Y SU COMPORTAMIENTO
Matemáticas Acceso a CFGS
Análisis Discriminante
UNIDAD 1 INTRODUCCION A LA QUIMICA GENERAL REPASO DE MATEMATICA
Sesión 2: Métodos Probabilísticos Básicos
16 de mayo de 2011Hebe Alicia Cadaval1 UN TRATAMIENTO AXIOMÁTICO DE LA UTILIDAD Artículo de R. D. LUCE Y H. RAIFFA Versión de Hebe Alicia Cadaval.
Probabilidad Total Teorema de la probabilidad total
ENTROPÍA LA MEDIDA DE LA INCERTIDUMBRE
Matemáticas Acceso a CFGS
Apuntes 1º Bachillerato CT
Matemáticas 2º Bachillerato CS
UNIDAD II ANALISIS DE DECISIONES
LA DECISIÓN EMPRESARIAL
Sesión 4: Métodos Probabilísticos Básicos “... tenemos razones para creer que hay en la constutución de las cosas leyes de acuerdo a las cuales suceden.
Distribución Normal.
ANALISIS DE FRECUENCIA EN HIDROLOGIA (2)
Técnicas Supervisadas Aproximación no paramétrica Reconocimiento de Patrones 2003 Notas basadas en el curso Reconocimiento de Formas de F.Cortijo, Univ.
ANALISIS DE FRECUENCIA EN HIDROLOGIA (3)
Depto. Matemáticas – IES Elaios Tema: Probabilidad 5. TEOREMAS DE PROBABILIDAD Presentación elaborada por el profesor José Mª Sorando, ampliando y adaptando.
@ Angel Prieto BenitoMatemáticas 2º Bachillerato CS1 DISTRIBUCIÓN NORMAL MATEMÁTICAS A. CS II Tema 13.
Ecuaciones de segundo grado en una variable
Uma masa 12C = 12 uma Cantidades en Química
Estimación de modelos ARMA
ESTADOS DE LA NATURALEZA MODA MODA A MEDIAS No- MODA PROBABILIDAD A L T E R N A TI V A S DISCO - BAR BAR TRADICIONAL
PROBLEMAS D. NORMAL DÍA 63 * 1º BAD CS
Alumno: Gerardo Mario Valdés Ortega
Combinación de Programas Lógicos y Redes Bayesianas y su Aplicación a Música Eduardo Morales Enrique Sucar Roberto Morales.
CÁLCULO DIFERENCIAL (ARQ)
OPERACIONES EN EL INFINITO
1.5 Análisis Bayesiano - Tomador de Decisiones con Información Imperfecta. La estadística Bayesiana construye un modelo a partir de información adicional.
índice Antecedentes Teoría de la Credibilidad
SWITCHING.
Fórmula empírica y molecular
Utilización de la Fórmula General Universidad Autónoma de Baja California Facultad de Pedagogía e Innovación Educativa Licenciado en Docencia de la Matemática:
AJUSTE 1 I ciclo, 2015 José Francisco Valverde Calderón Sitio web:
ECONOMÍA DE LA INFORMACIÓN TEOREMA DE BAYES Teoría de la decisión – Facultad de Ciencias Económicas - UBA.
1 2  La Teoría de la Probabilidad constituye la base o fundamento de la Estadística, ya que las ingerencias que hagamos sobre la población o poblaciones.
Seleccion de muestra.
Distribución Binomial
Profesora: Isabel López C.
Matemáticas, juego,...fortuna: ¿Jugamos?
LOGARITMOS Propiedades. Objetivo de la clase Demostrar las propiedades de los logaritmos a través de las potencias y raíces, valorando la importancia.
DETECCION DE SEÑALES BINARIAS EN RUIDO GAUSSIANO El criterio de toma de decisión fue descrito por la ecuación Un criterio muy usado para escoger el nivel.

TEMA I Teoría de Circuitos
Tema : Probabilidad.
@ Angel Prieto BenitoMatemáticas Aplicadas CS I1 DISTRIBUCIÓN NORMAL U.D. 15 * 1º BCS.
DISTRIBUCION DE LA DIFERENCIA ENTRE LAS MEDIAS DE DOS MUESTRAS
PROBABILIDAD CONDICIONAL Y TEOREMA DE BAYES
Estimación Estadística Tares # 3. Estimación Estadística Conjunto de técnicas que permiten dar un valor aproximado de un parámetro de una población a.
Media armónica Se define como el reciproco de la media aritmética. Esta medida se emplea para promediar variaciones con respecto al tiempo tales como productividades,
@ Angel Prieto BenitoMatemáticas Aplicadas CS I1 PROBABILIDAD U.D. 13 * 1º BCS.
ANALISIS DE FRECUENCIA EN HIDROLOGIA (3)
Transcripción de la presentación:

ENTROPÍA PARA BAYES Hebe Alicia Cadaval Hebe Alicia Cadaval RICARDO ESTEBAN LIZASO

PARA QUE SE USA Para calcular la incertidumbre a priori. Para calcular la incertidumbre que acarrea cada mensaje. Para calcular la incertidumbre promedio a posteriori. Hebe Alicia Cadaval RICARDO ESTEBAN LIZASO

PARA QUE SE USA Para saber si la información provista por el informante reduce o no la incertidumbre. Si la matriz de verosimilitud es inútil, la incertidumbre no se reduce. Si el informante brinda información perfecta, la incertidumbre desaparece, pasamos a certeza. Hebe Alicia Cadaval RICARDO ESTEBAN LIZASO

FÓRMULA H = -  pi * log2 pi Hebe Alicia Cadaval

CÁLCULO DEL LOGARITMO EN BASE 2 Log10 X Log2 X = ---------------- Log10 2 Hebe Alicia Cadaval

EJEMPLO Las probabilidades a priori son: 0,6 y 0,4. La matriz de verosimilitud es: N1 N2 Z1 0,3 Z2 0,6 0,9 Z3 0,1 Hebe Alicia Cadaval RICARDO ESTEBAN LIZASO

Para el mensaje Z1, tenemos la siguiente tabla: EJEMPLO Para el mensaje Z1, tenemos la siguiente tabla: P(Nj) P(Zi/Nj) P(Zi y Nj) P(Nj/Zi) 0,6 0,3 0,18 1 0,4 P(Z1)=0,18 Hebe Alicia Cadaval

Para el mensaje Z2, tenemos la siguiente tabla: EJEMPLO Para el mensaje Z2, tenemos la siguiente tabla: P(Nj) P(Zi/Nj) P(Zi y Nj) P(Nj/Zi) 0,6 0,36 0,5 0,4 0,9 P(Z2)=0,72 Hebe Alicia Cadaval

Para el mensaje Z3, tenemos la siguiente tabla: EJEMPLO Para el mensaje Z3, tenemos la siguiente tabla: P(Nj) P(Zi/Nj) P(Zi y Nj) P(Nj/Zi) 0,6 0,1 0,06 0,4 0,04 P(Z3)=0,10 Hebe Alicia Cadaval

EJEMPLO La entropía a priori es: H a priori = - [ 0,6 * log2 0,6 + 0,4 * log2 0,4 ] H a priori = - [ 0,6 * (-0,736965594) + 0,4 * (-1,321928095)] H a priori = - [- 0,442179356 - 0,528771238] H a priori = 0,970950594 Hebe Alicia Cadaval

EJEMPLO Las probabilidades a posteriori del Z1 son: 1 y 0, por lo tanto la entropía a posteriori del Z1 es: H (Z1) = - [ 1 * log2 1+ 0 * log2 0 ] H (Z1) = - [ 1 * 0 ] H (Z1) = - [ 0 ] H (Z1) = 0. Hebe Alicia Cadaval RICARDO ESTEBAN LIZASO

EJEMPLO Las probabilidades a posteriori del Z2 son: 0,5 y 0,5, por lo tanto la entropía a posteriori del Z2 es: H (Z2) = - [ 0,5 * log2 0,5 + 0,5 * log2 0,5 ] H (Z2) = - [ 0,5 * ( - 1) + 0,5 * ( - 1) ] H (Z2) = - [ - 0,5 - 0,5 ] H (Z2) = - [ - 1 ] H (Z2) = 1 Hebe Alicia Cadaval RICARDO ESTEBAN LIZASO

EJEMPLO Las probabilidades a posteriori del Z3 son: 0,6 y 0,4, por lo tanto la entropía a posteriori del Z3 es: H (Z3) = - [ 0,6 * log2 0,6 + 0,4 * log2 0,4 ] o sea que es igual que la entropía a priori. Hebe Alicia Cadaval RICARDO ESTEBAN LIZASO

EJEMPLO La H a priori es de: 0,970950594. La H (Z1) = 0. Z1 es un mensaje perfecto, ya que baja la incertidumbre a cero. La H (Z2) = 1. Z2 sube la incertidumbre. La H (Z3) =0,970950594. Z3 es un mensaje inútil, ya que no discrimina entre estados, de ahí que la incertidumbre a posteriori sea igual que la a priori. Hebe Alicia Cadaval RICARDO ESTEBAN LIZASO

EJEMPLO La entropía promedio a posteriori será: HPP = H(Z1)*P(Z1) + H(Z2)*P(Z2) + H(Z3)*P(Z3) = = 0 * 0,18 + 1 * 0,72 + 0,970950594 * 0,10 = = 0,72 + 0,0970950594 = 0,8170950594 Como vemos, si bien hay distintos tipos de mensajes en la matriz de verosimilitud, la entropía promedio a posteriori es menor que la a priori, o sea que la incertidumbre baja en promedio. Hebe Alicia Cadaval RICARDO ESTEBAN LIZASO

EJEMPLO Cuando el análisis bayesiano funciona la entropía promedio a posteriori es menor que la a priori. Ya que si bien puede haber algún mensaje que aumente la incertidumbre, los otros mensajes más que compensan ese aumento. Hebe Alicia Cadaval RICARDO ESTEBAN LIZASO