La descarga está en progreso. Por favor, espere

La descarga está en progreso. Por favor, espere

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 1 Complementos de Procesado de Señales y Comunicaciones Curso de Doctorado del programa: Tecnologías.

Presentaciones similares


Presentación del tema: "ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 1 Complementos de Procesado de Señales y Comunicaciones Curso de Doctorado del programa: Tecnologías."— Transcripción de la presentación:

1 ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 1 Complementos de Procesado de Señales y Comunicaciones Curso de Doctorado del programa: Tecnologías Multimedia

2 ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 2 Organización del curso: 4 partes: –Transformadas / Análisis multirresolución: Antonio Rubio –Cuantización: Ángel de la Torre: –Viernes 16 Enero 16-20 aula G-14 –Lunes 19 Enero 16-20 aula G-14 –Martes 20 Enero 16-20 aula G-14 ??? –Modulación: Carmen Benítez ( Viernes 23 Enero 16 horas G-14) –Tutorial de MATLAB: Javier Ramírez Pérez de Inestrosa

3 ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 3 Organización 2ª parte: La cuantización en procesado de señales y comunicaciones. (Viernes) Cuantización escalar. (Viernes-Lunes) Cuantización vectorial. (Lunes) Presentación de trabajos. (Lunes-Martes) ( 1/2 hora y/o memoria) Transparencias en: http://www.ugr.es/~atv E-mail: atv@ugr.es

4 ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 4 La cuantización en procesado de señales y comunicaciones La cuantización para adquisición de señales: –Representación digital de señales: Muestreo Cuantización Codificación Para procesamiento digital de señales: –Compresión de datos –Transmisión de datos –Reconocimiento de formas

5 ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 5 Muestreo: –Discretizar el tiempo: x(t) => x(n) Cuantización: –Discretizar la variable: x(n) => x(n) Codificación Adquisición de señales ^

6 ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 6 Circuitos para adquisición de señales Amplificación y Filtrado Muestreo Retención Cuantización Codificación - + - + A/D Codif. v ref Rl Características circuitos de adquisición de señales: Número de bits: B bits => 2 B estados Rango de entrada: V ref Tiempo de conversión (limita freq. muestreo)

7 ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 7 Conversor de comparadores en paralelo - + - + Conversor de códigos v ref - + - + v i Diseño simple Rápido Caro: –Para N bits, 2 N comparadores Fácil determinar el nivel de referencia Fácil establecer valores de los cuantos

8 ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 8 Conversor de contador - + Conversor de códigos v i AND contador Rl Control (T s ) reset D/A Más barato: –Sólo 1 comparador Mucho más lento: –Requiere 2 N pulsos de reloj para cuantizar

9 ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 9 Diagrama de bloques de un sistema adquisición de datos Muestreo: discretización en el tiempo: no hay pérdida de información (T. Muestreo) Cuantización: discretización en amplitud (pérdida de información)  QCodif. Almacenamiento DSP Transm. Digital Etc. x(t)x(n) ^ bits Representación digital de la señal x(t)

10 ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 10 Representación digital de señales Precisión finita: –Concepto de ruido de cuantización. Velocidad de transmisión: –F s B (bits por segundo) (bit-rate) Compromiso entre ruido de cuantización y bit-rate –Precisión – recursos DSP / canal

11 ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 11 Cuantización escalar Señales muestreadas unidimensionales: x(n) F(n,m) {F 1 (n,m),F 2 (n,m),F 3 (n,m)} Cuantización instantánea: –Uniforme –Compresión instantánea Cuantización adaptable: –Hacia adelante –Hacia atrás Cuantización diferencial

12 ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 12 Cuantización uniforme Todos los cuantos son iguales:  B bits => 2 B niveles en [–X max,X max ] X max = 2 B-1  x x ^  000 001 011 010 100

13 ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 13 x x ^ Cuantizador de media huella Cuantizador de media contrahuella x x ^

14 ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 14 Ruido de cuantización Relación señal ruido Estimación de la SNR (señal / distribución)

15 ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 15 Cálculo del ruido de cuantización (ejemplo) Saturación: Relación señal ruido:

16 ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 16 Cálculo del ruido de cuantización (ejemplo) B = 8 bits => SNR = 40.8 dB B = 12 bits => SNR = 64.8 dB B = 16 bits => SNR = 88.8 dB En procesamiento de audio: 80 dB......... HiFi 60 dB......... Equipos música gama media 40 dB......... Ruido se aprecia 20 dB......... Teléfono <10 dB....... Molesta / dificultades para entender voz

17 ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 17 Cuantización vs. Saturación Si X max >> 4  x : –Poco ruido de saturación –Mucho ruido de cuantización Si X max << 4  x : –Mucho ruido de saturación –Poco ruido de cuantización Ajuste de nivel de entrada crítico (ganancia de entrada) p(x) X max -X max p(x) X max -X max

18 ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 18 Ejercicio 1 a) En el ejemplo anterior, calcular SNR asociada al ruido de saturación. –p(e s ) –  e 2 –SNR b) Relación entre X max y  x para cuantización óptima. –SNR sat = SNR Q –(depende de B)

19 ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 19 Ejercicio 2 A partir de una señal de voz muestreada, cuantizarla fijando varios valores de X max y B: –a) Estimar la SNR sat y la SNR Q para cada X max, B –b) Buscar el valor óptimo Xmax para 6 bits –c) Determinar el número de bits mínimo para una SNR de 12 dB.

20 ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 20 Compresión instantánea Problema de Q-uniforme: –Hay que preocuparse del nivel de la señal Objetivo compresión instantánea: –SNR independiente de nivel de señal Cuantos  diferentes:  /x ≃ cte x y ^

21 ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 21 Compresión logarítmica logQ sgn Codif.Decod. log y ^ sgn(x) y ^ xxy ^ |x| ^ sgn(x)

22 ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 22 Otras leyes de compresión: ley  ley A FQ sgn Codif.Decod. F -1 y ^ sgn(x) y ^ xxy ^ |x| ^ sgn(x)

23 ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 23

24 ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 24

25 ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 25 Ejercicio 3 Repetir el ejercicio 2 para compresión ley-  con  =255. Ejercicio 4 Demostrar la expresión de la SNR para ley- .

26 ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 26 Cuantización adaptable Interesa  grande para evitar saturación Interesa  pequeña para reducir e q Señales no estacionaria:  x 2 varía con el tiempo Solución: Adaptar G ó  a la varianza de la señal

27 ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 27 Adaptación de  o de G Estimación local de  x 2 : –Mediante filtro pasa-baja aplicado sobre x 2 (n): Problemas: –Causalidad –Retardo –Tiempo de estabilización Como  x 2 varía lentamente, se calcula y transmite únicamente cada N muestras

28 ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 28 Adaptación hacia adelante Q Codificador x(n) ^bits Adapt.  Decodif. ^ x’(n) Q Codif. x(n)y(n) ^ bits Adapt. G Decodif. ^ x’(n)y(n) ^ y’(n) ÷

29 ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 29 Adaptación hacia atrás Q Codificador x(n) ^bits Adapt.  Decodif. ^ x’(n) Q Codif. x(n)y(n) ^ bits Adapt. G Decodif. ^ x’(n)y(n) ^ y’(n) ÷ Adapt.  Adapt. G

30 ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 30 Cuantización adaptable: limitaciones Útil si la varianza varía lentamente Adaptación hacia delante: –Requiere precisión en la transmisión del cuanto o de la ganancia –¿Qué ocurre si la varianza cambia demasiado rápidamente? Adaptación hacia atrás: –Sensible a errores de transmisión (el resultado depende de toda la historia del sistema)

31 ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 31 Ejercicio 5 Repetir el ejercicio 2 para cuantización adaptable hacia adelante. Cambiar la ventana utilizada para la estimación de la varianza. Hacerlo con señales cuya varianza cambia poco y cuya varianza cambia mucho. Ejercicio 6 Repetir el ejercicio 2 para cuantización adaptable hacia atrás. Introducir errores en el código transmitido y determinar la SNR de la señal en función del porcentaje de bits cambiados.

32 ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 32 Cuantización diferencial Si la señal varía lentamente, la varianza de [x(n)-x(n-1)] es mucho menor que la de x(n) Q diferencial: –Cuantizaión de x(n)-x(n-1) Q predictiva: –Predicción de x(n): p(x(n)) –Cuantización del “error de predicción” d(n): d(n)=x(n)-p(x(n))

33 ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 33 Cuantización diferencial Q Codif. x(n)d(n) ^ bits predic. Decodif. ^ x’(n)d(n) ^ d’(n) ^ x(n) p(x(n)) predic. p(x(n)) Ganancia de predicción:

34 ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 34 Predicción lineal (LPC) Predicción: combinación lineal de p muestras anteriores Coeficientes: se determinan para maximizar la ganancia de predicción (minimizar  d 2 ) Sistema de p ecuaciones con p incógnitas

35 ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 35 Predicción lineal de orden 1 Sólo hay que calcular 1 coef. predicción lineal: Si  (1) próximo a 1, mucha ganancia de predicción Si  (1) << 1, poca ganancia de predicción Si  (1) G p < 1

36 ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 36 ¿Dónde está el truco? Compresión: reducir la cantidad de datos sin perder información Aprovechar redundancias: Si se puede obtener una G p muy alta es porque la f s es muy alta Bit – rate para una determinada SNR

37 ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 37 Ejercicio 7 Repetir el ejercicio 2 para cuantización diferencial con predicción lineal de orden 1. –Usar una señal con f max <f s /8 –Calcular el bit-rate para una SNR de 12 dB –Sub-muestrear la señal dividiendo por 8 f s y volver a construir el cuantizador –Recalcular el bit-rate para SNR de 12 dB

38 ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 38 Cuantización de vectores Señales unidimensionales: A(n) A(n,m) Señales vectoriales: {A 1 (n,m),A 2 (n,m),A 3 (n,m)} Eficiencia cuantización: aprovechar los estados –Cuantización uniforme: ajuste de nivel –Compresión instantánea –Cuantización adaptable –Cuantización diferencial

39 ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 39 Cuantización vectorial (VQ) Correlaciones temporales: –Cuantización diferencial (predicción) Correlaciones entre componentes de señal vectorial: –Cuantización vectorial (VQ) La cuantización vectorial permite aprovechar las correlaciones entre componentes

40 ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 40 Cuantización escalar / vectorial

41 ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 41 Cuantización escalar / vectorial

42 ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 42 Cuantización escalar / vectorial VQ reduce el error de cuantización 36 centroides28 centroides

43 ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 43 Diagrama VQ VQ x(n) c Codif. bits Decod. c 000 010 001 011 100 x1x1 x2x2 Cada vector se sustituye por el centroide más próximo Se transmite el código del centroide Diccionario VQ Error de cuantización

44 ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 44 Proceso de cuantización El espacio vectorial se divide en K regiones disjuntas Un vector se sustituye por el vector característico asociado a su región (centroide) Se transmite el código que identifica al centroide El receptor sustituye el código por el centroide Regiones definidas por centroides y una DISTANCIA (usualmente la distancia euclídea) Diseño diccionario VQ: decidir dónde se ponen los centroides de modo que  e 2 sea mínimo: ENTRENAMIENTO DEL DICCIONARIO

45 ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 45 Diseño diccionario VQ Algoritmo k-medias (k-means) o algoritmo LBG (Linde-Buzo-Gray 1980): “An algorithm for Vector Quantizer Design” Y. Linde, A. Buzo, R. Gray, IEEE Trans. on Communications, Vol 28, num. 1, Jan-1980 pp 84-95 Algoritmo: para 2 B centroides: –Inicializacion: centroide 1: media –Bipartición con perturbación –Clasificación y reestimación de centroides iterativa –Cuando converge, si no tenemos los 2 B centroides,

46 ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 46

47 ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 47

48 ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 48 Ejercicio 8 Construir un diccionario VQ para los valores RGB de una imagen, mediante algoritmo k- medias: –Escribir distorsión para cada iteración, para cada valor del número de centroides. –Dibujar la imagen cuantizada con 4,8 y 16 centroides. –Determinar la SNR y el número de bits necesario para codificar la imagen

49 ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 49 Capacidad de generalización Núm vectores entrenamiento Distorsión promedio Vectores no de entrenamiento Vectores de entrenamiento

50 ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 50 Ejercicio 9 Verificar para qué número de vectores de entrenamiento el algoritmo k-medias generaliza al cuantizar los valores RGB de una imagen: –Separar los pixels de la imagen en pixels para “entrenamiento” y pixels para “test” de forma aleatoria. –Entrenar con parte de los pixels de entrenamiento y analizar la distorsión promedio de entrenamiento y de test. –Repetir los calculos para cuantización con 4,8 y 16 centroides.

51 ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 51 Dimensionalidad en VQ 2 dimensiones: hipercubo con 2 2 esquinas (4) 20 dimensiones: hipercubo con 2 20 esquinas (1.048.576) Problemas: –La distancia entre cada vector y el más próximo es grande –Es difícil la generalización –Hacen falta muchos vectores de entrenamiento

52 ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 52 Ejercicio 10 Generar un conjunto de vectores aleatorios de dimensión N. Distribuirlos en dos particiones (entrenamiento y test): –Calcular la relación entre la varianza y la “distancia promedio al vecino más próximo”, en función del número de dimensiones. –Calcular la capacidad de generalizar en función del número de dimensiones (relación entre distorsión de entrenamiento y distorsión de test)

53 ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 53 Entrenamiento adecuado Factores involucrados: –Número de dimensiones –Número de vectores de entrenamiento –Número de centroides Consecuencias de mal entrenamiento: –En codificación –En compresión –En reconocimiento de formas

54 ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 54 La distancia Usualmente se usa distancia euclídea: –Sensible a transformaciones no ortonormales: Compresión de un eje Transformaciones no lineales El algoritmo k-medias trata de minimizar la distancia entre vectores de entrenamiento y los centroides más próximos Importancia de esto en: –codificación –reconocimiento

55 ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 55 Ejercicio 11 Cuantizar los niveles RGB de una imagen. Comprimir la componente R en la definición de la distancia y volver a cuantizar. Comparar ambos resultados

56 ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 56 Aplicaciones VQ Compresión y codificación de voz Compresión de imágenes Reconocimiento de formas

57 ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 57 VQ en Reconocimiento de formas Planteamiento: Reconocimiento de formas: Clases Objetos representados por vectores Conjunto de vectores de entrenamiento

58 ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 58 Marco estadístico Clase reconocida Regla de Bayes Determinación clase reconocida

59 ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 59 Probabilidad a priori de la clase Densidad de probabilidad de que la clase genere el vector MODELO DE GENERACIÓN DE VECTORES VQ se utiliza para construir el modelo

60 ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 60 Construcción pdf 1.- Cálculo de centroides k-medias 2.- Cada centroide: media, matriz de covarianza y M k vectores asociados 3.- Construcción pdf para la nube de vectores asociada a cada centroide: (usualmente una Gaussiana)

61 ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 61 Construcción de la Gaussiana

62 ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 62 Construcción pdf 4.- Probabilidad a priori de cada Gaussiana 5.- Probabilidad de que la clase genere el vector observado Aproximación:

63 ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 63 Reconocimiento patrones: Resumen Para cada clase: –Probabilidad a priori de la clase –Centroides con VQ –Para cada centroide: pdf asociada a cada centroide probabilidad a priori del centroide –pdf de la clase Comparación entre clases

64 ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 64 Ejercicio 12 Leer una imagen con un “paisaje”. Con un trozo de “cielo” y un trozo de “no-cielo” entrenar modelos de “cielo” y de “no cielo” utilizando como vector de características los valores RGB. Clasificar los pixels de la imagen a partir de los modelos de “cielo” y “no-cielo” anteriores.

65 ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 65 Clasificación y VQ Un clasificador separa el espacío de representación en tantas regiones como clases Superficies de separación más complejas que en VQ: –Clasificador: definidas a partir de “probabilidad máxima” –VQ: definidas con criterio “distancia mínima”

66 ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 66 Criterios de entrenamiento Maximum Likelihood (ML) –La pdf de cada clase se construye de modo que represente de forma óptima los vectores de esta clase (mínima distorsión promedio) Minimum Classification Error (MCE) –La pdf de cada clase se construye de modo que se minimice el error de clasificación de vectores de entrenamiento. ¿Cuándo interesa ML ó MCE?

67 ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 67 Entrenamiento discriminativo Elementos a entrenar Estimación iterativa de los elementos a entrenar para minimizar una “función de coste” Cuando se entrenan discriminativamente los centroides de un clasificador, éstos se mueven, de modo que las fronteras entre las clases se desplazan hasta minimizar el error de entrenamiento.

68 ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 68 Formulación Función de coste Función de coste para cada elemento Medida del error Función discriminante

69 ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 69 Formulación

70 ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 70 Problemas del entrenamiento discriminativo Alcanza mínimos locales –El algoritmo no garantiza una solución globalmente óptima –(Combinación con algoritmos genéticos) Problema de sobreentrenamiento –Excesivamente adaptado a datos de entrenamiento: pierde capacidad de generalización


Descargar ppt "ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 1 Complementos de Procesado de Señales y Comunicaciones Curso de Doctorado del programa: Tecnologías."

Presentaciones similares


Anuncios Google