La descarga está en progreso. Por favor, espere

La descarga está en progreso. Por favor, espere

Tema 6: Codificación y compresión de información multimedia

Presentaciones similares


Presentación del tema: "Tema 6: Codificación y compresión de información multimedia"— Transcripción de la presentación:

1 Tema 6: Codificación y compresión de información multimedia
Factores de diseño de un codec Codificación basada en la entropía Ejemplos: Huffman, Aritmética, etc. Codificación basada en la fuente. Ejemplos: Diferencial, Transformada, etc. Codificación y compresión de audio Compresión de imagen. Redundancia espacial. Estándar JPEG JPEG Escalado Compresión de vídeo. Digitalización y Codificación de vídeo. Tipos de vídeo. Redundancia temporal. Estimación de movimiento: algoritmos. Estándares: MPEG e ITU Bibliografía [FLU95] Understanding networked multimedia [GIB98] Digital Compression for Multimedia [TSU99] Introduction to video coding standards for multimedia communication [JPEGESC] JPEG escalado - Tesis [JPEGAD] JPEG image coding with adaptive quantization [H.264] Overview of the H.264 / AVC Video Coding Standard [MPEG4] MPEG-4 Overview [HiJa94] Compressing still and moving images with wavelets

2 Introducción a la compresión de datos.
Muchas aplicaciones multimedia requieren volúmenes de información importantes: CD-ROM: 648 MB 72’ sonido estéreo. 30’’ de vídeo (estudio TV). Una película de 90’ ocuparía 120 GB. Una foto (35 mm) a resolución 2000x2000 ocuparía 10MB. Un canal de HDTV requiere un ancho de banda de 2Gbps. Por esta razón se emplean técnicas de compresión que permitan reducir el volumen de información

3 Introducción a la compresión de datos (II).
Un sistema de compresión consta de: Codificador y decodificador Codificador y decodificador pueden ser: Asimétricos El codificador suele ser más complejo y lento que el decodificador (Ej.: Vídeo por demanda) Simétricos Coste computacional similar (Ej: Videoconferencia). Con pérdidas (lossy compression) o irreversible Adecuada para medios continuos (audio y vídeo). Mayores tasas de compresión. Sin pérdidas (lossless compression) o reversible: Ficheros de datos, imágenes médicas, etc.

4 Factores en el diseño de un codificador.
Calidad de la señal BER (Bit Error Ratio) SNR (Signal/Noise) MOS (Mean Opinion Score) Eficiencia - Tasa de compresión Retardo Complejidad Espacio de memoria Potencia (mW) Operaciones/Seg.

5 Dos clases de técnicas de compresión.
Entropy encoding Codifica los datos sin necesidad de conocer la naturaleza de estos. De propósito general (todo tipo de datos). Son técnicas de compresión sin pérdidas. Ejemplos: Statistical (Huffman, aritmética,etc.), Run-length. Source encoding Codifica los datos basándose en las características y propiedades de estos. Suelen ser técnicas de compresión con pérdidas. Se obtienen tasas de compresión elevadas. Codificadores/decodificadores de propósito específico. Ejemplos: Differential, transform, vector quantization, etc.

6 Tema 6: Codificación y compresión de información multimedia
Factores de diseño de un codec Codificación basada en la entropía Ejemplos: Huffman, Aritmética, etc. Codificación basada en la fuente. Ejemplos: Diferencial, Transformada, etc. Codificación y compresión de audio Compresión de imagen. Redundancia espacial. Estándar JPEG JPEG Escalado Compresión de vídeo. Digitalización y Codificación de vídeo. Tipos de vídeo. Redundancia temporal. Estimación de movimiento: algoritmos. Estándares: MPEG e ITU

7 Codificación basada en la entropía.
Valor medio de información de un conjunto de símbolos procedente de una fuente de información (es imposible de medir en la práctica). (pi = probabilidad del símbolo i) Por ejemplo: Sea S = {4,5,6,7,8,9}, en donde la probabilidad de cada símbolo es la misma (1/6). Según la teoría de la información (Shannon), esta fuente no puede ser codificada (sin pérdidas) con menos de bits por símbolo.

8 Statistical encoding Trata de identificar los símbolos (patrones de bits) que más se repiten en el conjunto de datos de entrada. Se codifican con pocos bits los símbolos más frecuentes, mientras que los menos frecuentes son codificados con más bits. Ejemplos: Codificación Morse E: ‘•’ y Q:’--•-’ Codificación Huffman. Codificación aritmética.

9 Codificación Huffman Representan los símbolos con un número de bits inversamente proporcional a su frecuencia. Algoritmo genérico: Se construye un árbol binario de abajo hacia arriba agrupando los símbolos de menor frecuencia y asignado la suma de las probabilidades de ambos al nodo padre del árbol. Cada símbolo estará representado por una hoja del árbol y su código serán los bits recorridos hasta la raíz del mismo. Ejemplo:

10 Codificación Huffman: Ejemplo
ABCDE(39) 1 Símbolo Código A B 100 C 101 D 110 E 111 BCDE(24) 1 BC(13) 1 DE(11) 1 A(15) B(7) C(6) D(6) E(5)

11 Codificación aritmética
Identifica una secuencia de símbolos asignándoles una representación binaria de un intervalo de una longitud inferior a la unidad. Siempre son más eficientes que los códigos Huffman Separa el modelo probabilístico de la asignación de bits pudiendo definir codificadores adaptativos. Es computacionalmente eficiente, aunque está sujeto a patentes. Ejemplo: Supongamos sólo dos símbolos, A y B con una probabilidad de P(A)=1/3 y P(B)=2/3.

12 Codificación aritmética: Ejemplo
1 P(A) = 1/3 P(B) = 2/3 segmento 31/32 15/16 14/16 6/8 3/8 1/4 10/16 4/8 código .11111 .110 .1010 .100 .1111 .1110 .01 .011 16/27 8/27 AAA AAB ABA ABB BAA BAB BBA BBB 4/9 8/9 AA AB BA BB A B 2/3

13 Este patrón es frecuente en multimedia:
Run-length encoding Se basa en detectar las repeticiones de símbolos (bits, números, etc) en los datos a codificar. Ejemplo: Datos a codificar (42): 315A A1827A0143 Datos codificados (21): Tasa de compresión: 50% Este patrón es frecuente en multimedia: Audio: Tiras de ceros que representan silencios. Vídeo e imagen: Fondos del mismo color (paredes, cielos, etc.)

14 Tema 6: Codificación y compresión de información multimedia
Factores de diseño de un codec Codificación basada en la entropía Ejemplos: Huffman, Aritmética, etc. Codificación basada en la fuente. Ejemplos: Diferencial, Transformada, etc. Codificación y compresión de audio Compresión de imagen. Redundancia espacial. Estándar JPEG JPEG Escalado Compresión de vídeo. Digitalización y Codificación de vídeo. Tipos de vídeo. Redundancia temporal. Estimación de movimiento: algoritmos. Estándares: MPEG e ITU

15 Codificación basada en la fuente.
Se basan fundamentalmente en las propiedades de la fuente de datos a codificar. Suelen tolerar pérdidas en la codificación (lossy codecs) que perceptualmente pasan inadvertidas para el usuario. Son codificadores de propósito específico. Por término general obtienen mayores prestaciones que los codificadores basados en la entropía.

16 Codificación Diferencial
Se basa en la codificación de las diferencias entre dos símbolos consecutivos. Ciertos tipos de datos tienen la propiedad de similitud entre símbolos consecutivos: Señal de Audio, vídeo, imágenes, etc. Esto permite codificar con pocos bits las diferencias. Ejemplo: DPCM (Differential Pulse Code Modulation) Codificación con pérdida.

17 Codificación sin pérdida*.
Transform encoding Se basa en transformar el dominio (Ej.: del temporal al de la frecuencia) de los datos de entrada (Ej.: señal de audio). Ejemplos: Aritmética: Fourier: DCT (Discrete Cosine Transformation): Muy común en compresión de imágenes estáticas (JPEG). Codificación sin pérdida*. 160 161 165 166 158 167 159 1 5 6 -2 7 -1 Imágen BW 4x4 pixels Restar a todos los pixels el valor del primero t F(t) C f

18 Es directamente aplicable a imágenes y audio.
Vector quantization Es directamente aplicable a imágenes y audio. Consiste en lo siguiente (imágenes): La imagen se divide en bloques de tamaño fijo (vectores). Se construye una tabla, code-book, con todos los vectores diferentes encontrados. Se codifica la imagen como una sucesión de índices a la tabla. Tanto el codificador como el decodificador necesitan conocer la tabla (code-book). La tabla puede estar predefinida o ser creada dinámicamente. Si en una imagen predomina un número reducido de vectores, el índice de compresión puede ser importante.

19 Vector quantization (II)
Ejemplo: 1 2 3 4 Imagen original dividida en vectores de nxn pixels 1 2 3 4 Code-book Si un vector no se encuentra en el code-book: Buscaremos el que más se parezca. Idem + enviar algún dato para aumentar el parecido (valor medio). Idem + enviar lo que sea necesario (vector error) para reconstruir el vector. Codificación con pérdida*.

20 Vector quantization (III)
CLUT (Color Look-Up Table) Es utilizado para codificar imágenes RGB, que normalmente no utilizan todos los colores posibles. Se utiliza una tabla (code-book) con los colores usados en la imagen. Cada pixel es representado con el índice de la tabla correspondiente a su color. Ejemplo: Imagen RGB de 24bits de color que solo usa 256. Se construye una tabla de 256 entradas y en cada una de ellas se guarda un color (24 bits). En lugar de usar 24bits/pixel, ahora usaremos 8bits/pixel Tasa de compresión: ~66% Codificación más lenta que decodificación.

21 Tema 6: Codificación y compresión de información multimedia
Factores de diseño de un codec Codificación basada en la entropía Ejemplos: Huffman, Aritmética, etc. Codificación basada en la fuente. Ejemplos: Diferencial, Transformada, etc. Codificación y compresión de audio Compresión de imagen. Redundancia espacial. Estándar JPEG JPEG Escalado Compresión de vídeo. Digitalización y Codificación de vídeo. Tipos de vídeo. Redundancia temporal. Estimación de movimiento: algoritmos. Estándares: MPEG e ITU

22 Introducción a la codificación y compresión de audio.
Las secuencias de audio forman parte de las aplicaciones multimedia. El estudio de la codificación y compresión se puede enfocar en función de la aplicación: Aplicaciones interactivas (audio-conferencia audio)  codecs simétricos. Aplicaciones de difusión y reproducción de medios (TV digital, audio Hi-Fi, DVD, etc.)  codecs asimétricos Características de una señal de audio. Distintos tipos de calidad de audio. Técnicas de compresión de audio.

23 Características del audio
Una señal de audio no es más que una onda acústica (variaciones de presión del aire) La señal de audio es unidimensional (tiempo) El micrófono transforma las ondas acústicas que lo golpean, en señales eléctricas (niveles de voltaje) El oído es muy sensible a las variaciones de sonido de corta duración (ms) al contrarío que el ojo humano. La relación de dos sonidos A y B se mide en decibelios: dB=20 log10 (A/B). La intensidad de un sonido A se mide en decibelios tomando como referencia el menor sonido audible. 0 dB: Menor sonido audible La señal de referencia (B) es una onda senoidal a 1khz que provoca una presión de dinas/cm2 A y B son amplitudes (si fueran potencias sería 10 log10 (A/B)) 50 dB: Conversación normal. 120dB: Umbral del dolor.

24 Características del audio
El rango de frecuencias audibles por los humanos está entre 20Hz y 20KHz. Audible No audible

25 Digitalización y cuantificación.
La digitalización de las señales de audio se realizan mediante convertidores A/D. Muestrean la señal analógica de audio a una frecuencia determinada. Según Nyquist: “Si la señal de entrada tiene una frecuencia máxima de f, la frecuencia de muestreo tiene que ser de al menos 2f “(al muestrear a Sf captaremos hasta la frec. Sf/2) En el conversor D/A, un filtro paso bajo puede interpolar la parte de señal entre las muestras, para poder reconstruir perfectamente la señal original.

26 Digitalización y cuantificación.
Cuantificación: Las muestras obtenidas se codifican en un número finito de bits Error de cuantificación (quantification noise). Codificación lineal o logarítmica. PCM (Pulse Code Modulation). Usado para la digitalización de señales de audio. Parámetros: Sf, bits/muestra, niveles de cuantificación*

27 Digitalización y cuantificación.
Cuantificación PCM lineal Los niveles de cuantificación están espaciados de manera equitativa. Cada bit de resolución añade 6 dB de rango dinámico. Con 16 bits por muestra se cubre totalmente el rango dinámico del oído humano. Cuantificaciones no-lineales (logarítmica) Los pasos de cuantificación decrecen logarítmicamente. El oído humano es menos sensible a sonidos fuertes.

28 Digitalización: Interfaz MIDI
MIDI (Musical Instrument Digital Interface). Utilizado para codificar música (instrumentos). Codifica los elementos básicos (notas, silencios, ritmos, etc.) en mensajes MIDI. Cada instrumento tiene su propio código (hasta 127) Un sintetizador interpreta los mensajes MIDI y produce la señal de audio correspondiente. Ventaja: Reduce mucho el ancho de banda necesario (factor de 1000 !!) Inconvenientes: Necesidad de un sintetizador en ambos extremos (calidad de sonido diferente). Aplicable solo a música.

29 Calidad de una señal de audio.
Voz (telefonía) Se define para los servicios de telefonía digital. Estándar G.711 (ITU): Codificación logarítmica. Japón y USA: Transformación µ-law. Resto: Transformación A-law. (+) Parámetros: Señal de audio de 3.5 KHz (BW). Sf = 8 KHz 8 bits/muestra. Tasa de bits: 64Kbps (N-ISDN). Otras técnicas de codificación y compresión: DPCM y ADPCM, G.72x, GSM, LPC y CELP, etc.

30 Calidad de una señal de audio.
CD-Digital Audio. Calidad de audio superior: Sonido Hi-Fi estereofónico. Utiliza una codificación lineal. Las diferencias de amplitud deben ser respetadas por igual. Parámetros: Señal de audio de 20 KHz (BW). Sf = 41.1 KHz 16 bits/muestra. Soporta estereofonía (dos canales) Tasa de bits: Mbps. Otros estándares utilizan esta calidad de audio: DAT (32.4 y 48 KHz), MPEG (32, 44,1 y 48 KHz), DVI, etc.

31 Parámetros específicos.
Tasa de bits (throughput): Audio sin comprimir: Calidad telefónica: 64Kbps. Calidad CD: Mbps. Audio comprimido: Calidad telefónica: 32, 16, 4 Kbps (ADPCM, CELP) Calidad CD: 192 Kbps. (MPEG audio) Retardo de tránsito (aplicaciones interactivas) Conversación: Telefonía: < 25 ms (evitar echo). 100 a 500 ms (sensación de tiempo real).

32 Parámetros específicos.
Varianza del retardo (jitter). Es el parámetro más crítico para los streams de audio. Solución: Técnicas de ecualización del retardo. Se suministra un tiempo adicional antes de comenzar la reproducción, almacenando los paquetes en un buffer de entrada. Consecuencias: Incrementamos el retardo total. Necesitamos recursos de memoria para el buffer de ecualización. Compromiso entre la capacidad de almacenamiento y el máximo jitter tolerable por la aplicación. Tasas de error: Calidad telefónica: < 10-2, Calidad CD: < 10-3

33 Algoritmos de compresión (Voz)
Codificación diferencial: DPCM (Differential Pulse Code Modulation). Explota la redundancia temporal entre las muestras. Se transmite la diferencia entre muestras (bastante menor). Problema: Sobrecarga de gradiente (slope overload) Las diferencias en altas frec.(cercanas a Nyquist) no se pueden representar con el mismo número de bits.

34 Algoritmos de compresión (Voz)
Codificación diferencial adaptativa: ADPCM (Adaptive Differential Pulse Code Modulation). Predice la muestra y cuantiza adaptativamente. Predicción: Codifica la diferencia entre la muestra actual y una estimación basada en las últimas “n” muestras Dequantizer (adaptive) + Predictor module Xp[n-1] C[n] Xp[n] Dq[n] Decodificador Quantizer (adaptive) Dequantizer - + Predictor module X[n] Xp[n-1] C[n] Dq[n] D[n] Xp[n] Codificador

35 Algoritmos de compresión (Voz)
Codificación diferencial adaptativa: ADPCM (Adaptive Differential Pulse Code Modulation). Predice la muestra y cuantiza adaptativamente. Cuantización adaptativa: Usa pasos más largos para codificar diferencias entre muestras muy distintas en magnitud (de alta frecuencia) y pasos más pequeños para muestras que son similares (bajas frecuencias).

36 Una implementación de ADPCM
Algoritmo ADPCM (IMA: Interactive Multimedia Association) Algoritmo de dominio público. Calidad de audio e índice de compresión aceptables. Sencillo y capaz de trabajar en tiempo real (software). Indice de compresión: (PCMbits/4) a 1. Dequantizer (adaptive) + Delay Xp[n-1] C[n] Xp[n] Dq[n] Decodificador Quantizer (adaptive) Dequantizer - + Delay X[n] Xp[n-1] C[n] Dq[n] D[n] Xp[n] Codificador Predictor module

37 Calidad telefónica: Recomendaciones ITU
G.701: Digitalización PCM G.711: Codificación logarítmica µ-law y A-law G.721: ADPCM Muestreo a 8 Khz, muestras de 8 bits: 64 Kbps Utiliza diferencias de 4 bits: tasa de bits final 32 Kbps G.722: Sub-Band ADPCM. Muestreo a 16 Khz, muestras de 14 bits: 224 Kbps Codifica señales de audio de hasta 7 KHz (por el muestreo) Descompone la señal en dos bandas de 4 KHz. A cada banda le aplica ADPCM. Tasas de bits finales: 48, 56 y 64 Kbps. G.723, G.726, G.727: Variantes del G.721 (ADPCM).

38 Calidad telefónica: Vo-coding
LPC (Linear Predictive Coding) US-FS-1015 Define un modelo analítico del aparato fonador Reduce cada segmento de audio a los parámetros del modelo que más se aproximan al original. El decodificador recoge estos parámetros y sintetiza la voz correspondiente. LPC-10E puede bajar hasta 2.4 Kbps. CELP (Code Excited Linear Prediction) US-FS-1016. Es una versión mejorada del LPC. Diferencia: Utiliza un code-book con secuencias predefinidas para aplicarlas a cada frame de audio, eligiendo aquella que más se aproxima al original. Además, calcula los errores cometidos. Se envían los parámetros y la versión comprimida de los errores. Tasa de bits de hasta 4.8 Kbps (calidad similar a ADPCM G.721 a 32 Kbps) Variantes CELP: GSM, VSELP, LD-CELP, ITU G.729, QCELP, MELT, etc.

39 Tabla resumen de algunos codecs de audio.
Calidad telefónica Tabla resumen de algunos codecs de audio.

40 Estándares MPEG/audio (Estándar ISO)
Calidad CD Estándares MPEG/audio (Estándar ISO) MPEG (Moving Pictures Expert Group) MPEG/audio ofrece altos índices de compresión, manteniendo la calidad del audio del stream original. Son algoritmos de compresión con pérdidas*. MPEG-1 /audio Muestreos: 32, 44.1 y 48 KHz. Soportan uno o dos canales (diferentes modos de operación). Tasas de bits: 32 a 256 Kbps/canal. Indices de compresión: 2.7 a 24. MPEG-2 /audio Compatibilidad hacia atrás con MPEG-1. Diseñado para sistemas de sonido multicanal.

41 Arquitectura de tres niveles
MPEG-1 audio. El stream comprimido puede incluir información auxiliar (acceso aleatorio, avance y retroceso rápido, CRC, etc.) Arquitectura de tres niveles MPEG-1 Nivel I: El más sencillo. Tasa de bits 192 Kbps/canal. Aplicaciones: Philips DCC MPEG-1 Nivel II: Complejidad media. Tasa de bits 128 Kbps/canal. Aplicaciones: DAB, CD-I, Vídeo CD. MPEG-1 Nivel III: El más complejo. Ofrece la mejor calidad de audio con tasas de bits sobre 64 Kbps/canal. Está preparado para N-RDSI. Existen codecs hardware de los tres niveles para aplicaciones de tiempo real.

42 MPEG audio: Fundamentos.
Se basa en la capacidad de percepción que tiene el oído humano (modelos psico-acústicos) Enmascaramiento de señales débiles (noise masking):

43 MPEG audio: Fundamentos.
Discriminación frecuencial limitada. La agudeza (selectividad) del oído humano en baja frecuencia es muy superior que en altas frecuencias (sub-band coding)

44 MPEG Audio: Diagrama de bloques
Time-Frec Sub-band filtering Modelo psico-acúst. Asig. Bits. Cuantizador Codificador Formato del stream de bits Datos auxiliares (opcional) PCM audio Stream de bits comprimido Stream de bits comprimido Desensamblado Reconst. de bandas Transformación Frec-Time PCM audio Datos auxiliares (opcional) Decodificador

45 Nivel I: Nivel II: Nivel III: MPEG-1 audio: Niveles.
Se divide la señal de audio en 32 bandas de 750 Hz. Tasa de muestreo: 48 Khz. Tamaño de trama: 384 muestras El umbral de enmascaramiento (SMR) se calcula con una FFT de 512 puntos (modelo psico-acústico). Para cada sub-banda se escoge uno de los 15 cuantizadores definidos en función del SMR y la tasa de bits requerida. Nivel II: Utiliza un tamaño de trama de 1152 muestras, una FFT de 1024 puntos (cálculo del SMR) y una cuantización más fina. Nivel III: Incrementa la resolución en frecuencia de las 32 bandas (MDCT), utiliza un modelo psico-acústico más elaborado, y añade una etapa de compresión Huffman.

46 MPEG Audio: Calidad de audio
Parámetros de calidad objetivos: MSE (Mean Square Error). Calcula el error cuadrático medio entre la señal original y la reconstruida con el codec. SNR (Signal-to-Noise Ratio) Relación logarítmica entre dos señales. Se utilizará para comparar la señal original con el error introducido por el codec. Se expresa en decibelios (dB).

47 MPEG Audio: Calidad de audio.
Parámetros de calidad subjetivos: MOS (Mean Opinion Score): MPEG define una serie de tests para determinar la calidad de audio generada por cada nivel. Resultados: Fuente: Estéreo, 16bits, 48KHz, 256 Kbps Compresión 6:1 En condiciones de escucha óptimas, expertos en audición han sido incapaces de distinguir secuencias comprimidas de sus originales.

48 Tema 6: Codificación y compresión de información multimedia
Factores de diseño de un codec Codificación basada en la entropía Ejemplos: Huffman, Aritmética, etc. Codificación basada en la fuente. Ejemplos: Diferencial, Transformada, etc. Codificación y compresión de audio Compresión de imagen. Redundancia espacial. Estándar JPEG JPEG Escalado Compresión de vídeo. Digitalización y Codificación de vídeo. Tipos de vídeo. Redundancia temporal. Estimación de movimiento: algoritmos. Estándares: MPEG e ITU

49 Introducción a la codificación de imágenes.
Redes Avanzadas Introducción a la codificación de imágenes. Las imágenes que percibimos están compuestas de ondas electromagnéticas (: 250nm - 780nm). A diferentes longitudes de onda, diferentes sensaciones de color. El ojo es más sensible a unos colores que a otros. Dadas tres fuentes de luz de la misma intensidad y distinto color (una roja, otra verde y otra azul), el ojo percibe la verde con el doble de intensidad que la roja, y seis veces más intensa que la azul. Los mecanismos de percepción visual humanos son menos sensibles y estrictos que los auditivos. Ej.: Variaciones de frecuencia, supresión de imágenes, etc. Mezclando 3 colores (RGB) podemos obtener otro. Integra la información que recibe. Tema 6: Codificación y compresión de vídeo

50 Captura y digitalización de imagen I
Las imágenes digitales están compuestas de píxels (picture element). Una cámara fotográfica digital utiliza un CCD (charge coupled device) para realizar el proceso de adquisición analógica. El CCD tiene una serie de pequeños diodos sensibles a la luz que convierten luz en cargas eléctricas (o sea, fotones en electrones). Cada diodo del CCD captura un píxel de la imagen a adquirir. Para poder situar cada píxel de la imagen (luz entrante) en su diodo correspondiente del CCD se utiliza una lente. Mediante la lente se puede conseguir también realizar zoom óptico (no confundir con zoom digital)

51 Captura y digitalización de imagen II
Problemática del color: Si el CCD captura la luz directa que recibe de la lente, sólo tenemos la intensidad de luz, pero no su color. Añadimos un filtro (R, G ó B) a cada píxel, de manera que algunos píxels reciben sólo la luz roja, otros la verde y otros la azul. El número de píxels que reciben luz verde es el mismo que la suma de los que reciben luz roja y azul. La información de color que no se ha obtenido en cada píxel se interpola directamente de sus vecinos, usando un DSP.

52 Captura y digitalización de imagen III
El CCD es un dispositivo analógico. Es necesario un conversor analógico digital (ADC) que obtenga la representación digital de cada píxel a partir de la señal eléctrica generada por cada diodo. Una cámara digital necesita un DSP para gestionar el funcionamiento de la cámara. Realiza el acceso y almacenamiento de fotos en memoria, el proceso de compresión, la interpolación de los colores, gestión de menús, etc. Uno de los más usados, el TMS320DSC24 de Texas Instruments, funciona a 80 Mhz y es utilizado por Kodak en sus productos.

53 Captura y digitalización de imagen IV
Codificación y recodificación. Cada muestra RGB se codifica con una cantidad de bits por componente de color (p.ej., 8 bits/componente→24 bits/muestra). A veces resulta interesante codificar el nivel de brillo de una muestra (luminancia, o componente Y) y las diferencias de color (crominancias azul, roja y verde, o componentes Cb, Cr, Cg). La conversión de RGB a YCbCr (YUV) se realiza mediante una matriz de conversión (aproximada): Y = 0.3R + 0.6G + 0.1B (Nivel de brillo o luminancia) U = B - Y (Diferencia de color azul) (equiv. Cb=U/2+128) V = R - Y (Diferencia de color rojo) (equiv. Cr=V/ ) Cada uno de los componentes se codifica con 8 bits. Y (8 bits): rango Cb (8 bits) y Cr (8 bits): rango La diferencia de color verde (Cg) es redundante y no se almacena, ya que se puede obtener a partir de la Y, la Cb y la Cr.

54 Captura y digitalización de imagen V
Subsampling: El ojo es más sensible a la información de luminancia que de crominancia. Muestra Cr + Muestra Cb Muestra Y Y 720 480 o 576 Cb Cr 360 Y Cb Cr 720 480 o 576 Formato 4:4:4 Formato 4:2:2 Y 720 480 o 576 Cb Cr 360 240 288 Y 720 480 o 576 Cb Cr 180 Formato 4:2:0 Formato 4:1:1

55 Tipos de imagen (según su resolución)
La resolución de una imagen se mide según el número de píxels por lado (ancho x alto). En cámaras digitales se suele medir en Megapixels (millones de píxels por imagen) Common Intermediate Format (CIF) (352x288): Utilizado habitualmente en videoconferencia (junto con Quarter CIF) VGA (640x480): Usado por cámaras de baja calidad. n-Megapixels: Ofrecido por cámaras de mayor calidad. A veces, la resolución real de una cámara digital no coincide con la del CCD de esa misma cámara. P.ej, una cámara de 3,3 MP ofrece una resolución de 2048x1536. Parte de la circuitería del CCD que transporta los datos al ADC está situada en determinados diodos que no pueden ser usados.

56 Una imagen suele presentar redundancia espacial:
Compresión de imagen. Una imagen suele presentar redundancia espacial: Redundancia espacial: Las imágenes tienen información redundante susceptible de ser eliminada o reducida (por ejemplo, el color del cielo en una foto suele ser uniforme y azul :-). El proceso de compresión de imagen consistirá en: Eliminar en la medida de lo posible la redundancia espacial utilizando técnicas de source encoding (normalmente mediante transformada matemática). Codificar los datos obtenidos en el paso anterior usando entropy enconding (elimina aun más la redundancia espacial). Para conseguir mayores índices de compresión, este proceso será con pérdidas (cuantización de los datos).

57 Tema 6: Codificación y compresión de información multimedia
Factores de diseño de un codec Codificación basada en la entropía Ejemplos: Huffman, Aritmética, etc. Codificación basada en la fuente. Ejemplos: Diferencial, Transformada, etc. Codificación y compresión de audio Compresión de imagen. Redundancia espacial. Estándar JPEG JPEG Escalado Compresión de vídeo. Digitalización y Codificación de vídeo. Tipos de vídeo. Redundancia temporal. Estimación de movimiento: algoritmos. Estándares: MPEG e ITU

58 Redundancia espacial: JPEG
Es un estándar ISO (‘91) cuyo origen proviene del grupo JPEG (Joint Photographic Expert Group). Codifica imágenes de tono-continuo Dispone de cuatro modos de operación (incluyendo codificación sin perdidas). Se definen una serie de parámetros que permiten codificar las imágenes para obtener una gran variedad de calidades de compresión. Factor de compresión ronda 20:1* Es un sistema de codificación simétrico. Forma parte de otros estándares de compresión de secuencias de vídeo (MPEG y H.26*).

59 Codificación JPEG (pasos)
Codificación JPEG en modo secuencial con pérdidas Paso 1: Preparación de la imagen. No define el formato de imagen original. Podría ser RGB, YUV, YIQ, YCrCb, etc. Convierte la imagen a formato YCbCr utilizando una reducción de color 4:1:1 (sub-sampling) Ej.: RGB 640x480 (VGA): Y (640x480), Cb y Cr (320x240) Se divide la imagen en bloques de 8x8 elementos Ej. anterior: 4800 bloques Y, 1200 Cb y 1200 Cr. Prep. de bloques DCT Cuantiz. Tabla Run Length Huffman Imagen original (RGB) codificada Codificación fuente Codificación entrópica

60 Codificación JPEG: Transformada DCT
Paso 2: Transformada discreta del coseno (DCT). Transforma un dominio de amplitudes al dominio de la frecuencia. Las componentes frecuenciales más altas son susceptibles de ser eliminadas (percepción visual) Se aplica esta transformada a cada bloque de 8x8 obteniendo la matriz de coeficientes DCT asociada Componente (0,0): el nivel de continua DC del bloque (Media) Fx Fy Coeficiente DCT x y Amplitud Transformada DCT

61 Codificación JPEG: Transformada DCT(II)
DCT-1D: (vector 8 elementos) DCT-2D: (matriz 8x8 elementos) Transformada directa Transformada inversa

62 Codificación JPEG: Cuantificación
Paso 3: Cuantificación (quantization). Se eliminan los coeficientes menos representativos de la DCT (transformación con pérdidas). Cada coeficiente de la matriz 8x8 es dividido por un valor almacenado en una tabla (quantization table). El estándar sugiere dos tablas una para la componente Y y otra para las componentes Cb y Cr. Estas tablas se pueden escalar con otro parámetro Q que nos permitirá ajustar el índice de compresión requerido. 1 2 4 8 16 32 64 Tabla de cuantificación 150 70 19 4 88 56 11 8 10 17 6 1 2 Coeficientes DCT cuantificados 150 70 38 16 4 1 88 56 22 9 2 21 34 12 6 3 7 5 Coeficientes DCT

63 Codificación JPEG: Codificación entropía
Paso 4: Codificación DPCM de los componentes DC de cada bloque. Bloques sucesivos tienen un valor medio muy similar. Paso 5: Codificación run-length de todos los componente de un bloque. Se hace un barrido “zig-zag” con el fin de agrupar todos los componentes nulos. 150 70 19 4 88 56 11 8 10 17 6 1 2 (39 0’s) A0/3-A1/2-A0/5-2-A0/39

64 Codificación JPEG: Codificación entropía
Paso 6: Codificación estadística VLC: Huffman A lo obtenido en el paso anterior se aplica el algoritmo de Huffman para comprimir aún más la información. El resultado de este paso es lo que debemos enviar o almacenar. La decodificación JPEG consiste en realizar el proceso inverso: ….. Huffman decoder Run-lenght Zig-zag ordering Inverse Quantization DCT

65 Codificación JPEG: Ejemplo real (Quant)
DCT Bloque de muestras (pixels) Bloque de muestras transformadas Quant IDCT Bloque recuperado de muestras Bloque de muestras cuantizadas

66 Codificación JPEG: Ejemplo real I (RLE+VLC)
Codificación RLE+VLC de los coeficientes cuantizados Tabla para la DC Bloque de muestras cuantizadas Paso 1. Se codifica la DC usando codificación diferencial DPCM Si DC Bloque anterior es 98 → codificar Se codifica como: Num. bits necesarios (tabla VLC) + codif + signo DC se codifica como:

67 Codificación JPEG: Ejemplo real II (RLE+VLC)
Tabla para pares <Run, Niveles> Bloque de muestras cuantizadas Paso 2: Se codifica en zig-zag pares <Run (cuenta de ceros), coeficientes> Existe código de escape: RRRR RR NNNN NNNN Parte del bloque codificado con VLC

68 Codificación JPEG: Ejemplo real III (RLE+VLC)
Resultado final de la codificación RLE+VLC Bloque de muestras cuantizadas Tasa de compresión: Stream final: … (85 bits) Bits por píxel: (Núm bits/ Núm píxels) 85/64= 1’33 bpp Factor de compresión: Tam_comprimida:Tam_original= 85:(8*8*8)= 85:512 1:Tam_original/Tam_comprimida= (85/85):(512/85)= 1:6 Bloque codificado con VLC

69 Codificación JPEG: Ejemplo real IV (Calidad)
Medida objetiva del error: MSE (Mean Square Error) Medida objetiva de la calidad: PSNR (Peak SNR) Valores del ejemplo: MSE = 49’53 PSNR = 31’18 dB Bloque de muestras (pixels) Bloque recuperado de muestras

70 Tema 6: Codificación y compresión de información multimedia
Factores de diseño de un codec Codificación basada en la entropía Ejemplos: Huffman, Aritmética, etc. Codificación basada en la fuente. Ejemplos: Diferencial, Transformada, etc. Codificación y compresión de audio Compresión de imagen. Redundancia espacial. Estándar JPEG JPEG Escalado Compresión de vídeo. Digitalización y Codificación de vídeo. Tipos de vídeo. Redundancia temporal. Estimación de movimiento: algoritmos. Estándares: MPEG e ITU

71 JPEG escalado Motivación Fundamentos del JPEG escalado Compatibilidad con JPEG estándar Cuantificación variable Resultados

72 Motivación Utilización de tamaño de bloque mayor: NxN. Mayor compactación de energía pero mayor tiempo de cálculo. Descartar coeficientes de alta frecuencia hasta quedarse con sólo una submatriz de 8x8.

73 Fundamentos del JPEG escalado
División de la imagen en bloques de NxN puntos conservando sólo los 8x8 primeros coeficientes. Utilización de la DCT recortada de N a 8, modificada. Utilización de nuevas matrices de cuantificación. Elección de N=16.

74 El proceso de codificación/decodificación JPEG escalado
Bloques de 16x16 Imagen comprimida FDCT 16x16 16x16 a 8x8 Cuantifi-cador Codificador de entropía Codificador de JPEG escalado FDCT 16x16 recortada Bloques de 16x16 Imagen IDCT 16x16 8x8 a 16x16 Descuanti- Decodifica. de entropía Decodificador de JPEG escalado comprimida ficador IDCT 16x16 recortada

75 Ejemplo de compresión JPEG escalado
Original Tasa K JPEG estándar JPEG escalado Compresión 78:1 Tasa K

76 Ejemplo de compresión JPEG escalado (continuación)
Original Tasa K JPEG estándar JPEG escalado Compresión 128:1 Tasa K

77 Compatibilidad con JPEG estándar
Aunque el bloque de imagen es de 16x16 el de coeficientes es de 8x8 puntos. Los coeficientes obtenidos se escalan para que estén en el rango de los que se obtienen en una DCT de 8x8. Las funciones básicas son similares. Se incluye información de tamaño real de la imagen, mediante códigos definidos para extensiones.

78 Comparación de la DCT de 8 y 16 puntos
Funciones básicas de las DCT de 8 y 16 puntos

79 Mezcla de formatos Imagen Leída como Se obtiene JPEG escalado
JPEG estándar JPEG estándar JPEG escalado

80 Cuantificación variable
En el proceso de cuantificación se consigue la compresión a base de anular coeficientes Para conseguir más ceros hay que incrementar los valores Qvu, lo que afecta a todos los bloques é ë ê S , 1 7 ù û ú Cuantificación r e d o n æ è ç v u Q ö ø ÷ = q

81 Cuantificación variable: propuesta
Utilización de una función de cuantificación con umbral. Clasificación de los bloques en categorías. Utilización de un umbral distinto para cada categoría. S q v u = ì î í ï r e d o n æ è ç Q ö ø ÷ , si > m b a l en otro caso

82 Ejemplo de clasificación de bloques y asignación de umbrales
Zona 1: Hasta 47 ceros Umbral 1,0 Zona 3: de 56 a 59 ceros Umbral 2,5 Zona 4: de 60 a 63 ceros Zona 2: de 48 a 55 ceros Umbral 1,5

83 Ejemplo de cuantificación adaptativa: detalle de la cara de Lena
Sin cuantificación adaptativa Con cuantificación adaptativa

84 Ejemplo de cuantificación adaptativa: detalle del sombrero de Lena
Sin cuantificación adaptativa Con cuantificación adaptativa

85 JPEG escalado con cuantificación adaptativa
Resultados Detalle de la cara de Lena a 0.25 bpp JPEG estándar JPEG escalado JPEG escalado con cuantificación adaptativa

86 Detalle de la cara de Lena a 0.15 bpp
JPEG estándar JPEG escalado JPEG escalado con cuantificación adaptativa

87 Relación Señal-Ruido para distintas tasas de bits de la imagen Lena

88 Relación Señal-Ruido para distintas tasas de bits de la imagen Catedral

89 Relación del SNR de las imágenes con JPEG escalado y adaptativo frente al estándar

90 Tema 6: Codificación y compresión de información multimedia
Factores de diseño de un codec Codificación basada en la entropía Ejemplos: Huffman, Aritmética, etc. Codificación basada en la fuente. Ejemplos: Diferencial, Transformada, etc. Codificación y compresión de audio Compresión de imagen. Redundancia espacial. Estándar JPEG JPEG Escalado Compresión de vídeo. Digitalización y Codificación de vídeo. Tipos de vídeo. Redundancia temporal. Estimación de movimiento: algoritmos. Estándares: MPEG e ITU

91 Redes Avanzadas Introducción Una secuencia de vídeo es una sucesión de imágenes que producen sensación de movimiento. El proceso completo de transmisión de vídeo con compresión consiste en: Adquisición del vídeo a transmitir. Captura analógica de la secuencia de imágenes. Digitalización del vídeo. (Re)codificación y subsampling de las muestras. Típicamente se pasa de RGB a YCbCr Subsampling de la crominancia (de 4:4:4 a 4:2:0 ó 4:2:2) Compresión del vídeo. Transmisión progresiva del vídeo comprimido (a ser posible usando protocolos con soporte multimedia) Tema 6: Codificación y compresión de vídeo

92 Captura de vídeo analógico
Las imágenes (dos dimensiones) son convertidas en una señal analógica. Se capturan las imágenes a intervalos regulares. Cada imagen (cuadro o frame) es barrida calculando la intensidad de cada punto (B&W). Para reproducir la imagen se realiza el proceso inverso. Líneas de barrido 1 3 5 7 9 483 Líneas de barrido mostradas t a Lentes Placa de barrido

93 Captura de vídeo analógico II
La captura (y reproducción) de imágenes en color es muy similar a la de blanco y negro. En este caso se utilizan tres haces de barrido (RGB). Conversión RGB a YUV (compatibilidad con señales B&W). Y: Luminancia (intensidad). U y V: Diferencias de color. El ojo humano es más sensible a la intensidad (brillo) que a la información de color (sub-sampling). Lentes Placa de barrido t a Divisor Filtros R G B Cámara Demod. Conv. CRT TV Color R G B Y+C Filtro TV B&W Y U V C Modulador Codificador

94 Captura de vídeo analógico III
Parámetros de barrido: Relación de aspecto (ancho:alto): 4:3 Existen distintos estándares: NTSC (Usa y Japón): 525 líneas, 30 frames/s PAL/SECAM (Resto): 625 líneas, 25 frames/s. Algunas líneas (superiores e inferiores) no son visibles. Durante el retorno vertical, se puede insertar información adicional (teletexto). Barrido entrelazado y progresivo. Entrelazado. Cada cuadro se representa con dos campos sucesivos (uno con las líneas impares y otro con las pares) (60 c/s ó 50 c/s).

95 Captura de vídeo analógico IV
Parpadeo de imagen (flicker) Efecto que aparece cuando la imagen no es refrescada con suficiente rapidez. La retina mantiene una imagen durante un tiempo antes de que desaparezca. Valor mínimo: 50 imágenes/segundo Continuidad de movimiento. Viene determinada por el número de cuadros diferentes por segundo. No se recomienda utilizar menos de 25 cuadros/s. Ancho de banda de una señal de vídeo analógico: 6 MHz.

96 ITU-R (CCIR-601): Estándar para la digitalización de señales de TV.
Define los parámetros de muestreo, cuantificación, barrido y resolución de imagen que se deben tomar para digitalizar una señal de TV analógica. Parámetros de barrido: Dos formatos (NTSC y PAL/SECAM) 525 líneas y 858 muestras/línea - 30 frames/seg. 625 líneas y 864 muestras/línea - 25 frames/seg. Las muestras corresponden a la luminancia (Y): Intensidad de luz de cada pixel (cantidad de blanco). Las diferencias de color Cr (U) y Cb (V) se muestrean a la mitad (429/línea, 432/línea): Sub-sampling 4:2:2.

97 Frecuencia de muestreo única.
Digitalización II Cada línea tiene una zona visible (línea activa). Este estándar define una línea activa de 720 pixels. Se define un número de líneas visibles por cuadro: 480 (NTSC), 576 (PAL/SECAM). Barrido entrelazado: Un cuadro (frame) está formado por dos campos: El primero con las líneas impares y el segundo con las pares. Frecuencia de muestreo única. 525x858x30* = 625x864x25 = 13,5 MHz. Línea completa Línea activa 720 muestreos Tiempo

98 Codificación y recodificación.
Digitalización III Codificación y recodificación. Cada muestra RGB se codifica con 24 bits/color. La conversión de RGB a YCbCr (YUV) se realiza mediante una matriz de conversión (aproximada): Y = 0.3R + 0.6G + 0.1B U = B - Y (Diferencia de color azul) (equiv. Cb=U/2+128) V = R - Y (Diferencia de color rojo) (equiv. Cr=V/ ) Cada uno de los componentes se codifica con 8 bits. Y (8 bits): rango Cb (8 bits) y Cr (8 bits): rango R G B 720 480 o 576 Y Cb Cr 360 Subsampling 4:2:2

99 Codificación: RGB

100 Codificación: YCbCr

101 Codificación: Y Subsampling (I)

102 Codificación: Y Subsampling x2 (II)

103 Codificación: Y Subsampling x4 (III)

104 Codificación: Y Subsampling x8 (IV)

105 Codificación: CbCr Subsampling (V)

106 Codificación: CbCr Subsampling x2 (VI)

107 Codificación: CbCr Subsampling x4 (VII)

108 Codificación: CbCr Subsampling x8 (VIII)

109 Tipos de vídeo (según su calidad)
La percepción de calidad de una señal de vídeo se basa en tres parámetros: La resolución de las imágenes. La frecuencia de reproducción (cuadros/s.). El tipo de barrido (progresivo o entrelazado) Televisión de alta definición (HDTV). Existen diferentes variantes acerca HDTV. 1920x1080/60, 1920x1080/30-24, 1280x720/30-24 Relación de aspecto 16:9 Vídeo digital profesional (studio-quality). Estándar ITU-R (CCIR-601) de vídeo digital.

110 Tipos de vídeo (según su calidad)
Vídeo de difusión (TV broadcast). Difusión de señales de televisión analógicas. Estándares NTSC y PAL/SECAM. Reproductor de Vídeo (VCR-quality). Grabación de vídeo analógico (en VHS) Menor resolución de imagen (la mitad de PAL/SECAM). Videoconferencia (Low-speed). Tasas de bits pequeñas (alrededor de 128 Kbps) Resolución de imagen 4 veces inferior al vídeo digital. ITU-TS H.261: Common Intermediate Format (CIF) 352x288 La secuencia de cuadros/s se reduce entre 5 y 10.

111 Parámetros específicos de red I
Lo que debe suministrar una red para el envío en tiempo real de una secuencia de vídeo. Tasa de bits.

112 Parámetros específicos de red II
Retardo y varianza del retardo. Normalmente se envían una secuencia de vídeo sincronizada con el audio correspondiente. La sincronización es muy importante y necesaria desde HDTV hasta VCR. En Videoconferencia no es tan importante ya que la imagen no es continua (pocos cuadros/s). En estos casos, los requerimientos para estos parámetros los impone el audio (más sensible). Valores indicativos para la varianza del retardo: HDTV: 50 ms. Vídeo difusión: 100 ms. Videconferencia: 400 ms.

113 Parámetros específicos de red III
Tasa de error. El vídeo comprimido es más sensible a los errores. La degradación de la calidad de vídeo percibida depende: BER de la red Del tipo de error (simple, ráfaga, bloque, etc.) Donde se produce ese error. El índice de compresión de vídeo. Mecanismos de recuperación ante errores: Técnicas de protección de la señal. FEC (Forward Correction Codes). Marcas de resincronización. Reversible VLC. Técnicas de paquetización. Ocultación de errores (error concealment) Cuando se pierden bloques o llegan demasiado tarde. Técnicas de extrapolación e interpolación de cuadros.

114 Tema 6: Codificación y compresión de información multimedia
Factores de diseño de un codec Codificación basada en la entropía Ejemplos: Huffman, Aritmética, etc. Codificación basada en la fuente. Ejemplos: Diferencial, Transformada, etc. Codificación y compresión de audio Compresión de imagen. Redundancia espacial. Estándar JPEG JPEG Escalado Compresión de vídeo. Digitalización y Codificación de vídeo. Tipos de vídeo. Redundancia temporal. Estimación de movimiento: algoritmos. Estándares: MPEG e ITU

115 Se utilizan técnicas de codificación diferencial o transformada 3D
Redundancia temporal Se basa en la similitud de cuadros sucesivos en una secuencia de vídeo. Ej.: Secuencias de plano estático. Se utilizan técnicas de codificación diferencial o transformada 3D Sólo se codificarán las diferencias entre cuadros sucesivos (DPCM). La reconstrucción de un cuadro puede estar basado en otro(s) anterior(es). Un algoritmo típico de eliminación de redundancia temporal (motion compensation) es el que emplea MPEG.

116 Redundancia temporal (MPEG-1)
Cuadros de referencia y cuadros auto-contenidos Si F1 lo usamos para construir F2, se dice que F1 es un cuadro de referencia (reference frame). Si un cuadro no se construye a partir de ningún otro, se dice que es auto-contenido (intracoded frame) Normalmente estos sirven de referencia para otros. Macrobloques (macroblocks) 16x16 pixels (6 bloques de 8x8: 4Y,1U y 1V). F1 F2 F3

117 Redundancia temporal (MPEG-1)
Vectores de movimiento (motion vector) Identifican el desplazamiento de un determinado macrobloque en el cuadro actual respecto a la posición que tenía en el cuadro de referencia. Los vectores de movimiento se aplican cuando se identifica un macrobloque existente en el cuadro de referencia (matching blocks) F1 F2 Macrobloques idénticos Vector de movimiento Δx = -20, Δy = 0 Cuadro de referencia

118 Redundancia temporal (MPEG-1)
Búsqueda de macrobloques. Se buscan los macrobloques del cuadro a codificar en el cuadro de referencia. Si se encuentra el mismo macrobloque, sólo se codifica el vector de movimiento correspondiente. Si no se encuentra exactamente el mismo se elige el más parecido (macrobloque INTER). Se codifica el vector de movimiento. Se calcula el macrobloque error (las diferencias) aplicándole codificación estilo JPEG (DCT, quant, RLE+VLC en zigzag). Si no se encuentra ningún bloque similar (mb. INTRA) Se codifica dicho macrobloque con codificación estilo JPEG.

119 Redundancia temporal (MPEG-1)
Tipos de cuadros I (Intracoded frames): Cuadro codificado usando JPEG (autocontenido). P (Predictive frames): Cuadro basado en las diferencias respecto a un cuadro de referencia anterior (tipo I). B (Bidirectional frames): Cuadros basados en la interpolación de un cuadro anterior y otro posterior en la secuencia (tipo I o P). F1 F2 F3 Cuadro de tipo I autocontenido Cuadro de tipo B basado en F1 y F3 Cuadro de tipo P basado en F1 Macrobloque encontrado!!

120 Redundancia temporal (MPEG-1)
Secuencias de cuadros (Group Of Pictures) Los cuadros de tipo I son los menos comprimidos, a continuación los de tipo P y por último los que más compresión obtiene son los de tipo B. Secuencias típicas: IBBBPBBBI IBBPBBPBBI (PAL) IBBPBBPBBPBBI (NTSC) I B P

121 Redundancia temporal (MPEG-1)
La importancia de los cuadros de tipo I. En un sistema de vídeo es habitual el usar los controles de avance, retroceso, pausa, etc. Si queremos detener la secuencia de vídeo, necesitamos encontrar el último cuadro I para reconstruir el cuadro donde se ha detenido la imagen. Sirven como puntos de sincronización. Se estima que deben aparecer al menos un cuadro I cada ms. Si se está difundiendo una secuencia de vídeo comprimida (TV broadcast, videoconferencia, etc) Permite “engancharse” rápidamente y recuperarse ante la recepción de algún cuadro dañado.

122 Tema 6: Codificación y compresión de información multimedia
Factores de diseño de un codec Codificación basada en la entropía Ejemplos: Huffman, Aritmética, etc. Codificación basada en la fuente. Ejemplos: Diferencial, Transformada, etc. Codificación y compresión de audio Compresión de imagen. Redundancia espacial. Estándar JPEG JPEG Escalado Compresión de vídeo. Digitalización y Codificación de vídeo. Tipos de vídeo. Redundancia temporal. Estimación de movimiento: algoritmos. Estándares: MPEG e ITU

123 Estimación de movimiento: Algoritmos
La parte más costosa de la estimación de movimiento corresponde a los algoritmos de búsqueda de macrobloques en el cuadro(s) de referencia. Provoca codificación asimétrica Los algoritmos más conocidos son los siguientes: Búsqueda completa (Full-Search). TTS (Three-Step Search) Búsqueda logarítmica. Búsqueda en cruz (Cross-Search) OTS (One-at-a-Time Search) Vecinos más próximos (Nearest Neighbours Search) Búsqueda jerárquica.

124 Estimación de movimiento.
Se define una función de coste que calcula el error entre dos macrobloques, por ejemplo, SAE (Sum of Absolute Errors)* : (i,j) está definido dentro del área de búsqueda (NxM) determina las dimensiones del macrobloque. C(i,j) y R(i,j) definen los pixels del macrobloque actual y referencia respectivamente. Las coordenadas (i,j) que menor SAE exhiban determinarán el vector de movimiento del macrobloque actual. (*) Más conocido como SAD (Sum of Absolute Differences)

125 Algoritmos: Full Search.
Examina todos los puntos del área de búsqueda (+/- p) Complejidad computacional por macrobloque: Número total de posiciones: (2p + 1)2 Cada posición (i,j), MxN pixels. Cada pixel requiere: 1 resta, 1 suma y 1 valor absoluto. Complejidad (secuencia IxJ F fps) Ejemplo: Broadcast TV (I=720, J=480, F=30, N=M=16) Coste de este algoritmo: GOPS (p=15) ó 6.99 GOPS (p=7)

126 Algoritmos: Three-Step Search.
(-7,-7) (0,-7) (7,-7) (-7,7) (0,7) (7,7) MV: (7,-3) 1 3 2 Busca en la posición (0,0) S=2N-1 (step size) Busca 8 posiciones a +/-S píxeles alrededor de (0,0) De las nueva posiciones elige aquella con el SAD menor. S=S/2 y el nuevo origen de búsqueda el punto obtenido en 4. Repetir pasos 3-5 hasta que S=1. Coste: Examina puntos 1.02 GOPS (p=15) ó 770 MOPS (p=7).

127 Algoritmos: Búsqueda logarítmica.
MV: (5,-3) (-7,-7) (0,-7) (7,-7) (-7,7) (0,7) (7,7) 3 4 5 1 2 Busca en la posición (0,0) y establece S=N (step size) Selecciona 4 posiciones a S píxeles del origen en los ejes X e Y. Calcula la posición que ofrece el menor SAD, fijándola como el nuevo origen de la búsqueda Si esta posición es la central de las 5 seleccionadas S=S/2 Si S=1 ir al paso 6, sino ir al paso 2. Selecciona el origen actual y las 8 posiciones de alrededor, y calcula aquella que minimiza el SAD Coste: Examina 20 puntos 616 MOPS (p=7 y N=2).

128 Algoritmos: Búsqueda en cruz (Cross Search)
MV: (-3,-5) (-7,-7) (0,-7) (7,-7) (-7,7) (0,7) (7,7) 2 4 1 Establece el origen en la posición (0,0). S=2N-1 (step size) Selecciona 4 posiciones a +/-S píxeles del origen formando una cruz (X) y el propio origen. Calcula la posición que ofrece el menor SAE, fijándola como el nuevo origen de la búsqueda Si (S>1) entonces S=S/2 y va al punto 2. Sino ir al punto 5. Si la mejor posición está en el punto superior izquierda o inferior derecha de la X, evaluar 4 puntos más en forma de X a una distancia de +/-1 pixel. Sino hacer lo mismo pero con los 4 puntos distribuidos en “+”. 3 Coste: Examina puntos 523 MOPS (p=7).

129 Algoritmos: OTS (One-at-a-Time Search)
MV: (-4,-3) (-7,-7) (0,-7) (7,-7) 9 8 Establece el origen en (0,0). Selecciona el origen y las dos posiciones vecinas en el eje X Calcula la posición que menor SAD exhiba. Si es el origen ir al paso 5. Establece el nuevo origen en la posición que ha ofrecido el menor SAD. Ir al paso 2. Repetir los pasos 2 al 4 seleccionando las posiciones en el sentido vertical (eje Y). 7 6 5 4 3 2 1 (0,7) (7,7) (-7,7) Coste: Examina 12 puntos 369 MOP. Puede dar lugar a mínimos locales !

130 Algoritmos: Vecino más próximo.
MV: (-3,-4) (-7,-7) (0,-7) (7,-7) (-7,7) (0,7) (7,7) 3 2 1 Calcula el SAD del (0,0). Establece el origen de búsqueda a la posición del vector supuesto (predicted vector) Selecciona 4 posiciones alrededor del origen en forma de “+”. Si el origen de búsqueda (o la posición 0,0 en la primera iteración) ofrece el menor SAD entonces “fin de búsqueda”. Sino establece el nuevo origen de búsqueda en la posición que menor SAD ha ofrecido. Coste: Examina 12 puntos 369 MOP. Propuesto para H.263 y MPEG-4.

131 Estimación de movimiento: Otras consideraciones.
Estimación de movimiento con fracciones de pixel Se basa en realizar la estimación de movimiento con mayor precisión, ya que a veces el movimiento real no se ajusta a desplazamientos de píxel enteros. Half-Pixel motion estimation Se obtiene un imagen de mayor resolución interpolando un punto de la imagen entre cada dos píxeles. A c b d Se incrementan notablemente las prestaciones del algoritmo de estimación de movimiento a expensas de un mayor coste computacional. H.263 utiliza está técnica, incluso se propone utilizar ¼ y 1/8 de píxel para el estándar H.264 A: Píxeles reales (Enteros) b,c,d: Píxeles interpolados. Las flechas indican la dirección de interpolación.

132 Estimación de movimiento: Mejoras propuestas.
Vectores de movimiento fuera del cuadro de referencia. Para estimar correctamente el movimiento que se produce en los bordes del cuadro. Tamaño de bloque variable. Para realizar estimación de movimiento más precisa. Se utiliza en H.263 (Anexo F) y H.264. Tamaños: 16x16;8x8;4x4;8x16;16x8.... OBMC (Overlapped Block Motion Compensation) Objetivo: Suavizar los efectos de “blocking” que aparecen en los bordes de los macrobloques. Incremento significativo del coste computacional. H.263 recomiendo utilizar filtros de salida (deblocking filters) que realizan esta operación a un coste computacional muy inferior. Modelos de estimación más complejos: Region-based, Picture Warping, Mesh-based, Object-based...

133 Tema 6: Codificación y compresión de información multimedia
Factores de diseño de un codec Codificación basada en la entropía Ejemplos: Huffman, Aritmética, etc. Codificación basada en la fuente. Ejemplos: Diferencial, Transformada, etc. Codificación y compresión de audio Compresión de imagen. Redundancia espacial. Estándar JPEG JPEG Escalado Compresión de vídeo. Digitalización y Codificación de vídeo. Tipos de vídeo. Redundancia temporal. Estimación de movimiento: algoritmos. Estándares: MPEG e ITU

134 Estándar MPEG. Conjunto de estándares ISO para la grabación y transmisión digital de audio y vídeo. En su evolución se han desarrollado varias versiones del estándar MPEG: MPEG-1 (ISO 11172) (‘91): CD-ROM vídeo (1,5 Mbps). MPEG-2 (ISO 13818) (‘93): TV Broadcast (4-6 Mbps). HDTV (25-34 Mbps). MPEG-4 (ISO 14496) (‘99): Originalmente: Videoconferencia (4,8 a 64 Kbps). Enfoque universal de tratamiento de elementos multimedia. MPEG-7 (00-?): Descripción de contenido multimedia (videodatabases) MPEG-21 (01-?): Uso transparente de contenido multimedia entre redes y usuarios heterogéneos.

135 Relación entre los estándares MPEG.

136 MPEG-1 MPEG-1 (ISO 11172) (‘91) Propósito de MPEG-1
MPEG-Vídeo (IS ) MPEG-Audio (IS ) MPEG-System (IS ): Multiplexado y sincronización. MPEG-Conformance Testing (IS ) Patrones de prueba, medida de calidad, etc MPEG-Software Coding (IS ) Directrices para la codificación de los algoritmos. Propósito de MPEG-1 Almacenamiento en CD-ROM de audio (calidad CD) y vídeo (calidad VCR) sincronizado (1,5 Mbps).

137 Los codificadores de audio y vídeo trabajan por separado.
MPEG-1 Características de MPEG-1: Resolución de imagen: 352x(288 ó 240) (PAL/NTSC). Reducción de color (sub-sampling): 4:2:0. Barrido progresivo (no entrelazado). Tasa de cuadros: 25/30 (PAL/NTSC). Incluye cuadros de tipo D (DC-coded): Operaciones de avance rápido (Fast Forward). Codificador/decodificador asimétrico. Tasa de compresión: 27:1. Los codificadores de audio y vídeo trabajan por separado. Utilizan un reloj común para establecer el tiempo de cada una de sus capturas (system). Audio encoder Vídeo System Mux. Reloj Salida MPEG-1

138 Conjunto de estándares ISO 13818 (‘93). Propósito:
MPEG-2 Conjunto de estándares ISO (‘93). Propósito: Mejorar la calidad de imagen respecto al anterior sin incrementar excesivamente la tasa de bits requerida Calidad de vídeo profesional (studio-quality) y HDTV Aplicación: Difusión de señales de TV, HDTV, VOD La codificación/decodificación es muy similar a la de MPEG-1 salvo algunas diferencias: No se incluyen cuadros de tipo D. Permite bloques de 16x8 para vídeo entrelazado. Otras mejoras (permite DC de hasta 10 bits, cuantización no lineal, nuevas tablas VLC, escalabilidad SNR y multiresolución)

139 Características de MPEG-2.
Soporta barrido entrelazado y progresivo. Puede trabajar con distintas resoluciones (nivel): CIF: 352x288/240 (VCR quality) (Compatibilidad MPEG-1) Principal: 720x576/480 (studio-quality) High-1440: 1440x1152 (HDTV) High: 1920x1080 (HDTV) Define varios perfiles de implementación Detalles de los algoritmos de compresión y parámetros de imagen, barrido, etc. El multiplexado y sincronización es más general y flexible que MPEG-1 Se pueden multiplexar/sincronizar varias fuentes de audio, vídeo y datos (ej.: subtítulos en varios idiomas).

140 MPEG-4 Propósito: Aplicación:
Diseño de aplicaciones multimedia interactivas distribuidas. Aplicación: Televisión digital Compatibilidad con MPEG-2 (backware compatibility) Aplicaciones multimedia interactivas El usuario puede interaccionar con los objetos multimedia de la sesión. Distribución de información multimedia (tipo WWW) A través de una red, se permitirá el acceso y distribución a información multimedia, facilitando su diseño y presentación.

141 MPEG-4 Características:
Accesibilidad de la información de manera universal y robusta. Alta interactividad con la información multimedia. Definición de escenarios virtuales compuestos por objetos independientes (AVOs). El usuario puede modificar/configurar el escenario actual. Codificación conjunta de datos sintéticos y reales. Codificación eficiente de la información. Mejoras en la compresión y multiplexación de la información. Codificación de objetos con forma irregular.

142 MPEG-4

143 3.3 Estándar H.261. Pertenece al conjunto de estándares H.320 del ITU dedicados a videoconferencia sobre RDSI. H.320: Definición de la familia de estándares H.221: Multiplexado, sincronización sobre uno o varios canales RDSI y empaquetamiento (framming). H.242/H.230: Establecimiento y control de sesión. H.224/H.281: Control remoto de cámaras. H.233 y H.234: Cifrado y autenticación de los datos. T.120: Soporte para aplicaciones (transferencia de imágenes, anotaciones compartidas, etc.) G.711, G.72x ...: Algoritmos de compresión de audio H.261: Compresión de vídeo (conocido como px64).

144 Mecanismo de compresión similar a MPEG-1:
Estándar H.261. Características de H.261: Formato de imagen: YCbCr CIF: 352x288 (opcional) QCIF: 176x144 (obligatorio) Reducción de color: 4:2:0 Tasa de cuadros/seg: como máximo 30 max. Mecanismo de compresión similar a MPEG-1: Para la redundancia temporal se emplean mecanismos similares a MPEG, basados en macrobloques (16x16). H.261 define el concepto de GOB (Group Of Blocks) 1 GOB = 3x11 macrobloques (QCIF: 3 GOBs)

145 Sólo se definen dos tipos de cuadros: I y P.
Estándar H.261. Sólo se definen dos tipos de cuadros: I y P. No existen secuencias predefinidas de cuadros. Decisión de codificación I o P para cada cuadro. Estimación de movimiento (motion estimation): Se realiza a nivel de macrobloque Búsqueda restringida en un área de +-15 pixels, usando sólo la información de luminancia (Y). Resultado de la búsqueda: Macrobloque del cuadro de anterior que más se parece al actual Cálculo de las diferencias (macrobloque error). Si superan un cierto umbral se codifican (DCT), si no se elimina el macrobloque error, utilizando sólo el vector de movimiento. Cuantificación lineal (menos costosa). Se siguen utilizando run-length y Huffman (VLC).

146 Estándar H.261. Esquema del formato H.261 PSC TR PType GOB1 GOB2 ....
GOBm GOB Start Grp# Quant MB1 ... MBn Addr Type Vector CBP b0 b1 b5 DC Run, Valor EOB

147 H.263: Mejora, amplía y sustituye el H.261
Otros estándares H.26x. H.263: Mejora, amplía y sustituye el H.261 De propósito general (no sólo para videoconf.) Incluye compensación de movimiento de “medio-píxel” Soporta cinco resoluciones (SQCIF, QCIF, CIF, 4CIF y 16CIF) Permite estimación de movimiento bidireccional y sin restricción en el tamaño de la ventana de búsqueda H.263+: Añade nuevas características a H.263 Escalabilidad SNR, espacial y temporal Predicción de los valores de los coeficientes de la DCT H.264: Mejora la eficiencia en codificación DCT con enteros y tam. bloque 4x4, compensación de movimiento con bloques de tamaño variable, etc.

148 Comparación subjetiva MPEG-4 - H.264
Otros estándares H.26x. Comparación subjetiva MPEG-4 - H.264

149 La digitalización está basada en el estándar ITU-R
Conclusiones Las imágenes son captadas por cámaras de vídeo que proporcionan una señal analógica RGB. La digitalización está basada en el estándar ITU-R En función de la calidad de vídeo deseada, existen diversos formatos de imagen, barrido, etc. Se definen distintos parámetros de red de importancia para el transporte de vídeo Algoritmos de compresión de vídeo Fundamentos: Redundancia temporal Algoritmos de estimación de movimiento: Alto coste computacional. Estándares de compresión: Familia MPEG: 1-2-4 Diseñados para procesar vídeo digital de calidad (Sector consumo). Familia ITU: H Diseñados para comunicaciones audiovisuales en distintos tipos de redes (RDSI, IP, telefonía, etc.)


Descargar ppt "Tema 6: Codificación y compresión de información multimedia"

Presentaciones similares


Anuncios Google