La descarga está en progreso. Por favor, espere

La descarga está en progreso. Por favor, espere

© L.E. Sucar: MGP - 3 T. Info.1 Sesión 3: Teoría de Información Modelos Gráficos Probabilistas L. Enrique Sucar INAOE “Estamos ahogados en datos, pero.

Presentaciones similares


Presentación del tema: "© L.E. Sucar: MGP - 3 T. Info.1 Sesión 3: Teoría de Información Modelos Gráficos Probabilistas L. Enrique Sucar INAOE “Estamos ahogados en datos, pero."— Transcripción de la presentación:

1 © L.E. Sucar: MGP - 3 T. Info.1 Sesión 3: Teoría de Información Modelos Gráficos Probabilistas L. Enrique Sucar INAOE “Estamos ahogados en datos, pero hambrientos por información” [Inspirado en John Naisbett (Fayyad 1996)]

2 © L.E. Sucar: MGP - 3 T. Info.2 Conceptos de Teoría de Información Definición Medida de Información Entropía Referencias y Problemas

3 © L.E. Sucar: MGP - 3 T. Info.3 Información La cantidad de información recibida respecto a la ocurrencia de un evento es inversamente proporcional a su probabilidad Ejemplos –Está nublado en Puebla –Hizo erupción el Popocatépetl –Renunció Fox

4 © L.E. Sucar: MGP - 3 T. Info.4 Medidia de Información Dada una fuente de información discreta –q posibles mensajes: m 1, m 2,...m q –con probabilidades: p 1, p 2,..., p q m 1, m 2,...m q

5 © L.E. Sucar: MGP - 3 T. Info.5 Propiedades de la medida (I) I(m1) > I(m2), si p1 < p2 I(m) -> , si p -> 0 I(m)  0, 0  P(A)  1 I(m1 + m2) = I(m1) + I(m2), si m1 y m2 son independientes

6 © L.E. Sucar: MGP - 3 T. Info.6 Medida de Información Función logarítmica: I(m k ) = log (1/p k ) En base 2: I(m k ) = log 2 (1/p k ) en bits

7 © L.E. Sucar: MGP - 3 T. Info.7 Entropía Información promedio de un mensaje que puede tomar n valores: H = E(I) =  i p i log 2 (1/p i ) H es la entropía En promedio, se esperan recibir H bits de información Cuándo es H máxima y cuando es mínima?

8 © L.E. Sucar: MGP - 3 T. Info.8 Ejemplo: H para una fuente binaria H P 0 1

9 © L.E. Sucar: MGP - 3 T. Info.9 Entropía condicional y cruzada Entropía condicional: H (X | Y) =  x P (x|y) log 2 ( 1/P (x|y) ) Entropía cruzada: H (X,Y) =  x  y P (x,y) log 2 ( P(x,y) / P(x) P(y) ) Medida de información mutua o dependencia entre 2 variables (es cero si son independientes)

10 © L.E. Sucar: MGP - 3 T. Info.10 Referencias [Russell y Norvig] Sección 18.4 Libros básicos de comunicaciones

11 © L.E. Sucar: MGP - 3 T. Info.11 Actividades Hacer ejercicio de teoría de información


Descargar ppt "© L.E. Sucar: MGP - 3 T. Info.1 Sesión 3: Teoría de Información Modelos Gráficos Probabilistas L. Enrique Sucar INAOE “Estamos ahogados en datos, pero."

Presentaciones similares


Anuncios Google