Codificación de Shannon-Fano

Slides:



Advertisements
Presentaciones similares
Material de apoyo Unidad 8 Estructura de datos
Advertisements

Ing. Victor Manuel Mondragon M
Sistema Binario.
CODIGO ASCII.
Seguridad y encriptación Compresión de archivos
COMPRESION DE IMAGENES DIGITALES Jaime Lopez Carvajal Univalle Tulua 2008.
Almacenamiento de imágenes digitales Primera parte.
TEORÍA DE LA COMUNICACIÓN
@ Angel Prieto BenitoMatemáticas 4º ESO Opc B1 Tema 1 * 4º ESO Opc B NÚMEROS REALES.
Telecomunicaciones II
@ Angel Prieto BenitoMatemáticas Aplicadas CS I1 TEMA 2 MATEMÁTICA FINANCIERA.
Sistema Binario.
CODIGO ASCII.
CODIFICACION DE HUFFMAN
Partes de una computadora Ò El término hardware se refiere a todas las partes físicas de un sistema informático; sus componentes son: eléctricos, electrónicos,
MENSAJES CONFIABLES EN CANALES NO CONFIABLES NOMBRE: CÉSAR GRANIZO FECHA: 08/06/2016.
Representación de la Información en el Computador Prof. Manuel B. Sánchez.
Presentado por: Yuli Dominguez. Portal Educa Panamá. Sistema de numeración.
Introducción a la estadística. ¿Qué es la estadística? La Estadística es la parte de las Matemáticas que se encarga del estudio de una determinada característica.
REPRESENTACION Y COMUNICACIÓN DE LA INFORMACION María Isabel Díaz Sánchez.
Medidas de centralización:  Media aritmética, mediana y moda para: i) listas de datos ii) datos agrupados en una tabla de frecuencia iii) datos agrupados.
NTICX 2014 – CLASE X Prof. Andrea Marigomez. Sistema Binario  Usa sólo ceros (o) y unos (1) para representar los números.  Constituye la clave del.
Números Hexadecimales Zuley Marcela Ramírez Torres.
Unidad 1 Principios de electrónica digital
SISTEMAS NUMERICOS ING. SUSANA BELTRAN.
Unidad 4 Transmisión Digital.
Métodos de compresión sin pérdida de información
Números reales.
TABLAS DE FRECUENCIAS CON DATOS AGRUPADOS 8° BÁSICO
Multiplexación y encriptación
Nancy Margarita Gutiérrez Chavira
Tema 4 Elementos para el Desarrollo de Algoritmos
Medidas de Tendencia Central
Lenguajes y representación técnica
MT-22 PPTCANMTGEA07002V1 Clase Probabilidad clásica.
Proyecto: Conversor de bases numéricas
Representación digital de datos
1 1 1 El Sistema B nar o
TIPO DE DATOS EN ACCESS 2010 TEXTO, MEMO, NUMERO, FECHA/HORA, MONEDA, AUTONUMERACION, SI/NO, OBJETO OLE, HIPERVINCULO, DATOS ADJUNTADOS, CALCULADO Y ASISTENTES.
ESTADÍSTICA DESCRIPTIVA
CODIGOS DE BLOQUE LINEALES
Tema4:Manejo interno de datos Parte 1
AMORTIZACIÓN}
Métodos de Detección de Errores (VRC, LRC, CRC)
CODIFICACION DEL CANAL
Códigos de línea.
Definir los conceptos de constante, variable, expresión algebraica y polinomio. 2.Clasificar los polinomios en monomios, binomios, trinomios o.
Sistemas de numeración y Representación de la Información Tema 2.
P P AGINACION FACULTAD DE INGENIERIA INDUSTRIAL Y DE SISTEMAS FACULTAD DE INGENIERÍA INDUSTRIAL Y DE SISTEMAS.
UNIVERSIDAD "ALONSO DE OJEDA"
Tema #1: Teoría de la Información y la Codificación.
ESTADISTICA MEDIDAS DE DISPERSIÓN Cristian Gómez Coordinar Técnico Calidad Laboratorio Labsai.
Código ASCII.
Tema 1 Fundamentos de Computación
1 Números naturales Números naturales Sistema de numeración decimal
CHUMBIPUMA CHUMBIMUNE, JORGE JESÚS FIM - UNI ENERO 2019 CONTROL DIGITAL.
CODIFICACION DE LINEA. La codificación de línea se refiere a… Las diferentes maneras de representar los unos y ceros que componen una señal digital para.
CAPA FÍSICA DEL MODELO OSI La capa física: Señales de comunicación.
MEDIDAS DE DISPERSIÓN “Medidas de dispersión”. Miden qué tanto se dispersan las observaciones alrededor de su media. MEDIDAS DE DISPERSIÓN.
CONTROLES Y ESTRUCTURAS BÁSICAS DE PROGRAMACIÓN  1. Algoritmos: conjunto de instrucciones programadas para resolver una tarea específica.  2. Datos:
INTRODUCCIÓN A LA INFORMÁTICA

NÚMEROS REALES. NÚMEROS NATURALES Los números naturales son aquellos que sirven para designar la cantidad de elementos que posee un cierto conjunto. Se.
REPRESENTACION DE LA INFORMACION EN UN COMPUTADOR Principios Básicos.
Funciones Una función es una relación entre dos magnitudes, x y f(x), de manera que a cada valor de la primera magnitud le corresponde un único valor de.
Profesor del curso: UNIVERSIDAD NACIONAL DEL CENTRO DEL PERU 2019-I Facultad de Ingeniería de Sistemas 1.
SISTEMAS NUMERICOS “Introducción a la Programación” Rolando Montero.
Probabilidades II° Medio 2019.
Transcripción de la presentación:

Codificación de Shannon-Fano Facultad de Ingeniería Comunicación de Datos. Profesor : Alumnos : Marzo, 2003

Contenido Antecedentes Método de Shannon-Fano Propiedades de las tablas de código Entropía Utilización del método Conclusión

Antecedentes Este método de codificación fue desarrollado por Claude Shannon en los laboratorios Bell y por Robert Fano en MIT (Massachussets Institute of Technology) en la década del 40 casi simultáneamente C. Shannon R. Fano

Método de Shannon - Fano Se refiere a la probabilidad de aparición de cada símbolo en un mensaje. Básicamente se utiliza para la compresión de datos.

Propiedades Tablas de código Diferentes códigos, tienen diferentes tipos de bits Los códigos para símbolos con bajas probabilidades tienen más bits Los códigos para símbolos con altas probabilidades tienen menos bits Códigos de longitud diferente pueden ser unívocamente decodificados

Entropía La entropía se refiere a la cantidad de bits necesarios para representar un símbolo En un símbolo = - log2 (probabilidad) En un mensaje = suma de la entropía de sus símbolos

Utilización del método Para una secuencia de símbolos, se calcula la correspondiente lista de frecuencias de aparición de los símbolos. Se ordena la lista de símbolos según su frecuencia en orden decreciente. Se divide la lista en dos partes, de forma que la suma total de frecuencias de la mitad superior sea lo más cercana posible a la suma total de la parte inferior.

Utilización del método 4. A la mitad superior de la lista se le asigna el dígito binario 0, y a la mitad inferior se le asigna el dígito binario 1. Esto significa que los códigos de los símbolos en la primera mitad empezarán todos con 0 y los códigos en la segunda mitad empezarán todos con 1.

Utilización del método 5. Cada una de las mitades, se subdivide en grupos y se agregan bits (digitos binarios) a los códigos hasta que cada grupo conste de un único símbolo. 6. Se pueden representar los símbolos a modo de árbol binario

Utilización del método 7. Se calcula la entropía como: X = Largo de la serie / frecuencia Entropía = Log 2 (X) 8. Una vez calculada la entropía se calcula la entropía en el mensaje (cantidad de bits necesarios para representar el símbolo en el mensaje) Entropia * frecuencia del símbolo

Utilización del método 9. Finalmente el cálculo de los bits de código a transmitir está dado por la representación binaria (0,1) del símbolo y los bits de mensajes es la multiplicación de los bits de códigos * la frecuencia del símbolo

Ejemplo DDABEBADACABAAECDCBAEACA BCBAADDEAACAEAB Secuencia de símbolos inicial: DDABEBADACABAAECDCBAEACA BCBAADDEAACAEAB

1. Cálculo de Frecuencias de símbolos DDABEBADACABAAECDCBAEACA BCBAADDEAACAEAB A = 15 ; B = 7; C = 6; D = 6; E = 5 Total de veces que se repite cada símbolo en la series

2. Lista de símbolos Símbolo Frecuencia A 15 B 7 C 6 D E 5 Frecuencia: Veces que aparece cada letra o símbolo en la serie a transmitir

3. Se divide el grupo en dos (entre B y C) Símbolo Frecuencia A 15 B 7 C 6 D E 5 15+7 = 22 6+6+5=17

4. Mitad superior se asigna 0 e inferior 1 Símbolo Frecuencia 1 div A 15 B 7 C 6 1 D E 5

5. Se agregan bits hasta que sean únicos Símbolo Frecuencia 1 div 2 div 3 div A 15 00 ------ B 7 01 C 6 1 10 D 11 110 E 5 111

6. Representación como Árbol Binario Raíz 1 A B C D E A = 00 B = 01 C = 10 D = 110 E = 111

7. Entropía Símbolo Frec. Entropía A 15 1.38 B 7 2.48 C 6 2.70 D E 5 2.96 Total 39 12.32 A=Log2(39/15)=1.38 B=Log2 (39/7) =2.48 C=Log2 (39/6) =2.70 D=Log2 (39/6) =2.70 E=Log2 (39/5) =2.96

8. Entropía en el mensaje Símbolo Frec. Entropía 15 1.38 20.68 B 7 2.48 17.35 C 6 2.70 16.20 D E 5 2.96 14.82 Total 39 12.32 85.25

9. Bits de código y de Mensaje Símbolo Frec. Entropía Entropía mensaje Bits Código Mensaje A 15 1.38 20.68 2 30 B 7 2.48 17.35 14 C 6 2.70 16.20 12 D 3 18 E 5 2.96 14.82 Total 39 12.32 85.25 89

Si utilizáramos Shannon-Fano sólo usaríamos 89 bits. Conclusión Si codificáramos esta secuencia de símbolos utilizando 8 bits, utilizaríamos en total 312 bits (8 * 39 = 312). Si utilizáramos Shannon-Fano sólo usaríamos 89 bits. => Sólo codificamos el 29% (89/312)