© L.E. Sucar: MGP - 3 T. Info.1 Sesión 3: Teoría de Información Modelos Gráficos Probabilistas L. Enrique Sucar INAOE “Estamos ahogados en datos, pero.

Slides:



Advertisements
Presentaciones similares
Teoría de la Información
Advertisements

LOGARITMOS.
1. MODELO DE REGRESIÓN SIMPLE
TERMODINÁMICA DE LAS DISOLUCIONES DE LOS NO ELECTROLITOS Y PROPIEDADES COLIGATIVAS TEMA 5-AÑ
Estadística I. Finanzas Y Contabilidad
Capítulo 3: Medidas de posición
Distribuciones de probabilidad bidimensionales o conjuntas
FUNCIÓN EXPONENCIAL FUNCIÓN LOGARÍTMICA EJERCICIOS (Ir) - Definición
Medidas Tomada de decisiones
Estadística Administrativa I
Inferencia estadística
Variables Aleatorias Continuas
Parámetros estadísticos
Binomial Poisson Hipergeométrico Modelos Discretos
Teoría de la Información y Codificación
Conocimiento de la escala de probabilidad
Procesos Estocásticos
COLOGARITMO Y ANTILOGARITMO
Teoría de Autómatas II 3º curso Ingeniería Técnica en Informática de Sistemas UNED.
Conferencia magistral Nº 9
Índice Estadística Aplicada Unidad II: Probabilidades
Curso de Estadística Básica
ECONOMÍA DE LA INFORMACIÓN
Lic. Mat. Helga Kelly Quiroz Chavil
Distribución de Poisson
Valor esperado, Varianza y coeficiente de variación
Sesión 12: Procesos de Decisión de Markov
Universidad Mexicana en Línea Carrera: Administración Pública Asignatura: Estadística Tutor: Leonardo Olmedo Alumno: Alfredo Camacho Cordero Matrícula:
Probabilidad condicional
3er Encuentro de Usuarios de Stata en México
Sesión 2: Métodos Probabilísticos Básicos
ENTROPÍA LA MEDIDA DE LA INCERTIDUMBRE
Teoría de la Información
Sesión 2: Teoría de Probabilidad “Considero que la probabilidad representa el estado de la mente con respecto a una afirmación, evento u otra cosa para.
TEORIA DE INFORMACION - GRAFOS ACTIVIDAD 2 DIANA JOHANNA HERNANDEZ RAZONAMIENTO CON INCERTIDUMBRE ENRIQUE SUCAR INSTITUTO TECNOLOGICO DE MONTERREY.
Sesión 6: Campos de Markov
Estadística Descriptiva
Sesión 6: Redes Bayesianas - Representación
FUNCIONES. FUNCIONES ELEMENTALES.
Probabilidad
Matemáticas Discretas
Clase 133. b = 1 · 2 n b: número de bacterias al final de un período de tiempo dado. n: número de generaciones (1) b = B · 2 n (2) B: Es el número de.
Sesión 2: Teoría de Probabilidad
Sesión 7: Redes Bayesianas – Inferencia
Inferencia Estadística: 6. Probabilidad Condicional
Unidad II: Variables Aleatorias Concepto Discreta y Continua Fun. de densidad Fun. de probabilidad F. de distribución Esperanza y Varianza Propiedades.
Consignas Laboratorio III. ► Ejercicio 1 ► Al tirar un dado se obtiene la realización de una variable aleatoria discreta independiente con valores posibles:
Logaritmos III Función Exponencial y Función Logarítmica.
Ecuaciones Exponenciales Ecuaciones Logarítmica
Modelos Gráficos Probabilistas
Modelos Gráficos Probabilistas: Principios y Aplicaciones L. Enrique Sucar INAOE.
Introducción Definición:
Teoría de la Información Concepto:  es una rama de la Teoría de la Matemática, de las probabilidades y de la estadística que estudia todo lo relacionado.
Si comparamos este intervalo con (10.5), vemos que el intervalo de confianza para la Y 0 individual es más amplio que el intervalo para el valor medio.
PARÁMETROS ESTADÍSTICOS
Sesión 2: Teoría de Probabilidad “Considero que la probabilidad representa el estado de la mente con respecto a una afirmación, evento u otra cosa para.
Sesión 7: Redes Bayesianas – Inferencia: 2da Parte Modelos Gráficos Probabilistas L. Enrique Sucar INAOE [Neapolitan 90]
Telecomunicaciones II
LOGARITMOS “n”>0 “m”>0 Logaritmo Brigg. o Logaritmo Vulgar Logaritmo Neperiano.
Sesión 6: Redes Bayesianas - Inferencia
Fecha de entrega: 21/09/11. La Teoría de Colas es el estudio de la espera en las distintas modalidades. El uso de los modelos de colas sirve para representar.
Funciones logarítmicas
Alicia De Gyves López Licenciatura Tecnologías de la Información y Comunicación 3º. Cuatrimestre Estadística Descriptiva Distribuciones de Probabilidad.
Logarítmos Prof. Isaías Correa M. 4° medio 2013.
Profesora: Isabel López C.
Inferencia Estadística Conceptos Previos. Conceptos Previos Población: Es la colección de toda la posible información que caracteriza a un fenómeno aleatorio.
Clase 125 Inecuaciones logarítmicas log2(x2 + 2x + 1) > log2(x – 5)
Laboratorio de Estadística administrativa Distribución Poisson Distribución exponencial Febrero de 2007.
Función exponencial y Función logarítmica. 1. Función Exponencial Es de la forma: f(x) = a x con a >0, a ≠ 1 y x Є IR 1.1 Definición Ejemplo1: f(x) =
Distribución exponencial
Transcripción de la presentación:

© L.E. Sucar: MGP - 3 T. Info.1 Sesión 3: Teoría de Información Modelos Gráficos Probabilistas L. Enrique Sucar INAOE “Estamos ahogados en datos, pero hambrientos por información” [Inspirado en John Naisbett (Fayyad 1996)]

© L.E. Sucar: MGP - 3 T. Info.2 Conceptos de Teoría de Información Definición Medida de Información Entropía Referencias y Problemas

© L.E. Sucar: MGP - 3 T. Info.3 Información La cantidad de información recibida respecto a la ocurrencia de un evento es inversamente proporcional a su probabilidad Ejemplos –Está nublado en Puebla –Hizo erupción el Popocatépetl –Renunció Fox

© L.E. Sucar: MGP - 3 T. Info.4 Medidia de Información Dada una fuente de información discreta –q posibles mensajes: m 1, m 2,...m q –con probabilidades: p 1, p 2,..., p q m 1, m 2,...m q

© L.E. Sucar: MGP - 3 T. Info.5 Propiedades de la medida (I) I(m1) > I(m2), si p1 < p2 I(m) -> , si p -> 0 I(m)  0, 0  P(A)  1 I(m1 + m2) = I(m1) + I(m2), si m1 y m2 son independientes

© L.E. Sucar: MGP - 3 T. Info.6 Medida de Información Función logarítmica: I(m k ) = log (1/p k ) En base 2: I(m k ) = log 2 (1/p k ) en bits

© L.E. Sucar: MGP - 3 T. Info.7 Entropía Información promedio de un mensaje que puede tomar n valores: H = E(I) =  i p i log 2 (1/p i ) H es la entropía En promedio, se esperan recibir H bits de información Cuándo es H máxima y cuando es mínima?

© L.E. Sucar: MGP - 3 T. Info.8 Ejemplo: H para una fuente binaria H P 0 1

© L.E. Sucar: MGP - 3 T. Info.9 Entropía condicional y cruzada Entropía condicional: H (X | Y) =  x P (x|y) log 2 ( 1/P (x|y) ) Entropía cruzada: H (X,Y) =  x  y P (x,y) log 2 ( P(x,y) / P(x) P(y) ) Medida de información mutua o dependencia entre 2 variables (es cero si son independientes)

© L.E. Sucar: MGP - 3 T. Info.10 Referencias [Russell y Norvig] Sección 18.4 Libros básicos de comunicaciones

© L.E. Sucar: MGP - 3 T. Info.11 Actividades Hacer ejercicio de teoría de información