Complementos de Procesado de Señales y Comunicaciones

Slides:



Advertisements
Presentaciones similares
Modelos ARMA.
Advertisements

COMPENSACIÓN DE MOVIMIENTO
Convertidores A/D y D/A
Códigos Detectores y Correctores de Errores
KRIGING.
MODELO DE REGRESIÓN MÚLTIPLE
Introducción Control digital
Tema 6: Compresión de imagen
Conversión A/D Muestreo de la señal analógica.
ESTRATEGIAS Y DISEÑOS AVANZADOS DE INVESTIGACIÓN SOCIAL
RECONOCIMIENTO DE OBJETOS
COMUNICACIONES ELÉCTRICAS ING. VERÓNICA M. MIRÓ 2011
Curso básico de física computacional
Aplicaciones de la derivada Resuelve problemas de optimización aplicando las ideas básicas relacionadas con extremos de funciones de una variable Bloque.
APRENDIZAJE WIDROW- HOFF
Reguladores Autoajustables (STR) Introducción ANTE EL CASO DE UN PROCESO NO LINEAL O CUYOS PARÁMETROS CAMBIEN CON EL TIEMPO, SE PLANTEA UNA ESTRUCTURA.
Tema 2: Métodos de ajuste
Codificación Distribuida
Maracaibo, 5 de Noviembre de 2007 Universidad del Zulia Facultad de Ingeniería Instituto de Cálculo Aplicado Universidad del Zulia Facultad de Ingeniería.
RECONOCIMIETO DE PATRONES
FUNCIONES DE DENSIDAD DE PROBABILIDAD
2. DISEÑO DE SEÑALES Y FILTROS
Ventajas de la señal digital Inconvenientes de la señal digital
Sesión 2: Métodos Probabilísticos Básicos
Flujo de carga en Sistemas de Potencia.
Ejemplo de aplicación de las ANN
Códigos IRA Máster en Multimedia y Comunicaciones
1 Asignatura: Autor: Análisis Numérico César Menéndez Titulación: Planificación: Materiales: Conocimientos previos: Aproximación Ingeniero Técnico Informático.
GRUPO DE INVESTIGACION EN CONTROL INDUSTRIAL
VARIABLE ALEATORIA Y DISTRIBUCION DE PROBABILIDAD
3. Funciones discriminantes para la f.d.p normal.
Amplificador Digital La nueva tendencia del audio digital Federico Cattivelli Matías Nogueira JEFI 04 Universidad ORT Uruguay 27 de Noviembre de 2004.
Vectores Aleatorios 1 Distribución conjunta de un vector aleatorio
Reconocimiento de Patrones
Descripción de Contenidos con Wavelets Jaime Gaviria.
Combinación de Clasificadores
Procesadores digitales de señal (PDS)
EXTRACCIÓN DE CARACTERISTICAS
MÉTODO DE PIXELES DE BORDE
José Ángel González Fraga, Erika. M. Ramos Michel, Facultad de Telemática, Universidad de Colima V TALLER DE PROCESAMIENTO.
Redes Competitivas.
Técnicas Supervisadas Aproximación no paramétrica Reconocimiento de Patrones 2003 Notas basadas en el curso Reconocimiento de Formas de F.Cortijo, Univ.
Reconocimiento de Formas en Data Mining Prof: Héctor Allende Capítulo 2 Aproximación Paramétrica.
Introducción general a la compresión de datos multimedia
Introducción La inferencia estadística es el procedimiento mediante el cual se llega a inferencias acerca de una población con base en los resultados obtenidos.
Tema 3: Filtros.
Repaso de clase anterior
Codificador De Imágenes Basado En Cuantización Vectorial Alexandro López Franco Salvador Gómez Oliver Fermín Cruz Mata.
Analisis de datos en imagenes hiperespectrales: intro 1 Analisis de datos hiperespectrales: otra revisión Hyperespectral image data analysis, D. Landgrebe,
6. ANÁLISIS DISCRIMINANTE
TEMA 2 CARACTERIZACIÓN FRECUENCIAL DE SEÑALES Y SISTEMAS
Sabemos reconocerlas, y calcularlas como soluciones de sistemas de ecuaciones, o de desigualdades Buscamos métodos de cálculo generales y eficientes Problemas.
ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 1 Complementos de Procesado de Señales y Comunicaciones Curso de Doctorado del programa: Tecnologías.
Una Estructura en Cascada para Prediccion Lineal Adaptiva Presentado por: Guillermo Dalla Vecchia ) Martes 14 de Setiembre, 2003.
Profesora: Ing. Yesenia Restrepo Chaustre
Algoritmo de Retropropagación. Conclusiones de Retropropagación n 1. Si la neurona j es un nodo de salida es igual al producto de la derivada y la señal.
Sistemas de Control en Tiempo Discreto
Telecomunicaciones II
Telecomunicaciones II
Reconocimiento de cara basado en “espectrocara”
MUESTREO : Generalidades
DETECCION DE SEÑALES BINARIAS EN RUIDO GAUSSIANO El criterio de toma de decisión fue descrito por la ecuación Un criterio muy usado para escoger el nivel.
DETECCION DE PSK DIFERENCIAL El nombre de PSK diferencial (DPSK) algunas veces necesita clarificación, debido a dos aspectos separados del formato de.
SEÑALIZACION M-ARIA Y DESEMPEÑO
OPTIMIZACION DEL DESEMPEÑO DE ERROR
Técnicas numéricas para el procesamiento de datos reales Antonio Turiel Instituto de Ciencias del Mar de Barcelona.
Germán Fromm R. 1. Objetivo Entender los diseños metodológicos predictivos 2.
Support Vector Machines.  Vocabulario básico: ◦ Repositorio de datos ◦ Atributos y Instancias ◦ Aprendizaje supervisado  Clasificación (Clase) ◦ Aprendizaje.
PROCESADORES DIGITALES DE SEÑALES Transformada Z - VI Sistemas Electrónicos, EPSG Tema IV Transformada Z:
TEMA 7 ANÁLISIS DE LOS RESULTADOS TEMA 7 ANÁLISIS DE LOS RESULTADOS.
Transcripción de la presentación:

Complementos de Procesado de Señales y Comunicaciones PROGRAMA DE POSGRADO EN SISTEMAS MULTIMEDIA Ángel de la Torre ATV 2007 – Dpto. Teoría de la Señal, Telemática y Comunicaciones - UGR

Organización 2ª parte: La cuantización en procesado de señales y comunicaciones. Cuantización escalar. Cuantización vectorial. Presentación de trabajos. ( 1/2 hora y/o memoria) Transparencias en: http://www.ugr.es/~atv E-mail: atv@ugr.es ATV 2007 – Dpto. Teoría de la Señal, Telemática y Comunicaciones - UGR

La cuantización en procesado de señales y comunicaciones La cuantización para adquisición de señales: Representación digital de señales: Muestreo Cuantización Codificación Para procesamiento digital de señales: Compresión de datos Transmisión de datos Reconocimiento de formas ATV 2007 – Dpto. Teoría de la Señal, Telemática y Comunicaciones - UGR

Adquisición de señales Muestreo: Discretizar el tiempo: x(t) => x(n) Cuantización: Discretizar la variable: x(n) => x(n) Codificación ^ ATV 2007 – Dpto. Teoría de la Señal, Telemática y Comunicaciones - UGR

Circuitos para adquisición de señales Amplificación y Filtrado Muestreo Retención Cuantización Codificación - + A/D Codif. v ref Rl Características circuitos de adquisición de señales: Número de bits: B bits => 2B estados Rango de entrada: Vref Tiempo de conversión (limita freq. muestreo) ATV 2007 – Dpto. Teoría de la Señal, Telemática y Comunicaciones - UGR

Conversor de comparadores en paralelo - + Conversor de códigos v ref i Diseño simple Rápido Caro: Para N bits, 2N comparadores Fácil determinar el nivel de referencia Fácil establecer valores de los cuantos ATV 2007 – Dpto. Teoría de la Señal, Telemática y Comunicaciones - UGR

Conversor de contador v - Más barato: Mucho más lento: + Conversor de códigos v i AND contador Rl Control (Ts) reset D/A Más barato: Sólo 1 comparador Mucho más lento: Requiere 2N pulsos de reloj para cuantizar ATV 2007 – Dpto. Teoría de la Señal, Telemática y Comunicaciones - UGR

Diagrama de bloques de un sistema adquisición de datos ^ x(t) x(n) x(n) bits Almacenamiento DSP Transm. Digital Etc. m Q Codif. Representación digital de la señal x(t) Muestreo: discretización en el tiempo: no hay pérdida de información (T. Muestreo) Cuantización: discretización en amplitud (pérdida de información) ATV 2007 – Dpto. Teoría de la Señal, Telemática y Comunicaciones - UGR

Representación digital de señales Precisión finita: Concepto de ruido de cuantización. Velocidad de transmisión: Fs B (bits por segundo) (bit-rate) Compromiso entre ruido de cuantización y bit-rate Precisión – recursos DSP / canal ATV 2007 – Dpto. Teoría de la Señal, Telemática y Comunicaciones - UGR

Cuantización escalar Señales muestreadas unidimensionales: x(n) F(n,m) {F1(n,m),F2(n,m),F3(n,m)} Cuantización instantánea: Uniforme Compresión instantánea Cuantización adaptable: Hacia adelante Hacia atrás Cuantización diferencial ATV 2007 – Dpto. Teoría de la Señal, Telemática y Comunicaciones - UGR

Cuantización uniforme Todos los cuantos son iguales: D B bits => 2B niveles en [–Xmax,Xmax] Xmax= 2B-1 D 100 011 010 ^ x 001 D 000 x ATV 2007 – Dpto. Teoría de la Señal, Telemática y Comunicaciones - UGR

Cuantizador de Cuantizador de media huella media contrahuella ^ ^ x x ATV 2007 – Dpto. Teoría de la Señal, Telemática y Comunicaciones - UGR

Estimación de la SNR (señal / distribución) Ruido de cuantización Relación señal ruido Estimación de la SNR (señal / distribución) ATV 2007 – Dpto. Teoría de la Señal, Telemática y Comunicaciones - UGR

Cálculo del ruido de cuantización (ejemplo) Saturación: Relación señal ruido: ATV 2007 – Dpto. Teoría de la Señal, Telemática y Comunicaciones - UGR

Cálculo del ruido de cuantización (ejemplo) B = 8 bits => SNR = 40.8 dB B = 12 bits => SNR = 64.8 dB B = 16 bits => SNR = 88.8 dB En procesamiento de audio: 80 dB......... HiFi 60 dB......... Equipos música gama media 40 dB......... Ruido se aprecia 20 dB......... Teléfono <10 dB....... Molesta / dificultades para entender voz ATV 2007 – Dpto. Teoría de la Señal, Telemática y Comunicaciones - UGR

Cuantización vs. Saturación Si Xmax >> 4 sx: Poco ruido de saturación Mucho ruido de cuantización Si Xmax << 4 sx: Mucho ruido de saturación Poco ruido de cuantización Ajuste de nivel de entrada crítico (ganancia de entrada) p(x) -Xmax Xmax p(x) -Xmax Xmax ATV 2007 – Dpto. Teoría de la Señal, Telemática y Comunicaciones - UGR

Ejercicio 1 a) En el ejemplo anterior, calcular SNR asociada al ruido de saturación. p(es) se2 SNR b) Relación entre Xmax y sx para cuantización óptima. SNRsat = SNRQ (depende de B) ATV 2007 – Dpto. Teoría de la Señal, Telemática y Comunicaciones - UGR

Ejercicio 2 A partir de una señal de voz muestreada, cuantizarla fijando varios valores de Xmax y B: a) Estimar la SNRsat y la SNRQ para cada Xmax, B b) Buscar el valor óptimo Xmax para 6 bits c) Determinar el número de bits mínimo para una SNR de 12 dB. ATV 2007 – Dpto. Teoría de la Señal, Telemática y Comunicaciones - UGR

Compresión instantánea Problema de Q-uniforme: Hay que preocuparse del nivel de la señal Objetivo compresión instantánea: SNR independiente de nivel de señal Cuantos D diferentes: D /x ≃ cte ^ y x ATV 2007 – Dpto. Teoría de la Señal, Telemática y Comunicaciones - UGR

Compresión logarítmica ^ ^ ^ ^ x y y y |x| x log Q log Codif. Decod. sgn sgn(x) sgn(x) ATV 2007 – Dpto. Teoría de la Señal, Telemática y Comunicaciones - UGR

Otras leyes de compresión: ley m ley A ^ ^ ^ ^ x y y y |x| x F Q F-1 Codif. Decod. sgn sgn(x) sgn(x) ATV 2007 – Dpto. Teoría de la Señal, Telemática y Comunicaciones - UGR

ATV 2007 – Dpto. Teoría de la Señal, Telemática y Comunicaciones - UGR

ATV 2007 – Dpto. Teoría de la Señal, Telemática y Comunicaciones - UGR

Ejercicio 3 Repetir el ejercicio 2 para compresión ley-m con m=255. Ejercicio 4 Demostrar la expresión de la SNR para ley-m. ATV 2007 – Dpto. Teoría de la Señal, Telemática y Comunicaciones - UGR

Cuantización adaptable Interesa D grande para evitar saturación Interesa D pequeña para reducir eq Señales no estacionaria: sx2 varía con el tiempo Solución: Adaptar G ó D a la varianza de la señal ATV 2007 – Dpto. Teoría de la Señal, Telemática y Comunicaciones - UGR

Adaptación de D o de G Estimación local de sx2 : Problemas: Mediante filtro pasa-baja aplicado sobre x2(n): Problemas: Causalidad Retardo Tiempo de estabilización Como sx2 varía lentamente, se calcula y transmite únicamente cada N muestras ATV 2007 – Dpto. Teoría de la Señal, Telemática y Comunicaciones - UGR

Adaptación hacia adelante ^ bits ^ x(n) x(n) x’(n) Q Codificador Decodif. Adapt. D ^ ^ ^ x(n) y(n) y(n) bits y’(n) x’(n) Q Codif. Decodif. ÷ Adapt. G ATV 2007 – Dpto. Teoría de la Señal, Telemática y Comunicaciones - UGR

Adaptación hacia atrás ^ bits ^ x(n) x(n) x’(n) Q Codificador Decodif. Adapt. D Adapt. D ^ ^ ^ x(n) y(n) y(n) bits y’(n) x’(n) Q Codif. Decodif. ÷ Adapt. G Adapt. G ATV 2007 – Dpto. Teoría de la Señal, Telemática y Comunicaciones - UGR

Cuantización adaptable: limitaciones Útil si la varianza varía lentamente Adaptación hacia delante: Requiere precisión en la transmisión del cuanto o de la ganancia ¿Qué ocurre si la varianza cambia demasiado rápidamente? Adaptación hacia atrás: Sensible a errores de transmisión (el resultado depende de toda la historia del sistema) ATV 2007 – Dpto. Teoría de la Señal, Telemática y Comunicaciones - UGR

Ejercicio 5 Repetir el ejercicio 2 para cuantización adaptable hacia adelante. Cambiar la ventana utilizada para la estimación de la varianza. Hacerlo con señales cuya varianza cambia poco y cuya varianza cambia mucho. Ejercicio 6 Repetir el ejercicio 2 para cuantización adaptable hacia atrás. Introducir errores en el código transmitido y determinar la SNR de la señal en función del porcentaje de bits cambiados. ATV 2007 – Dpto. Teoría de la Señal, Telemática y Comunicaciones - UGR

Cuantización diferencial Si la señal varía lentamente, la varianza de [x(n)-x(n-1)] es mucho menor que la de x(n) Q diferencial: Cuantizaión de x(n)-x(n-1) Q predictiva: Predicción de x(n): p(x(n)) Cuantización del “error de predicción” d(n): d(n)=x(n)-p(x(n)) ATV 2007 – Dpto. Teoría de la Señal, Telemática y Comunicaciones - UGR

Cuantización diferencial ^ ^ ^ x(n) d(n) d(n) bits d’(n) x’(n) Q Codif. Decodif. ^ x(n) predic. predic. p(x(n)) p(x(n)) Ganancia de predicción: ATV 2007 – Dpto. Teoría de la Señal, Telemática y Comunicaciones - UGR

Predicción lineal (LPC) Predicción: combinación lineal de p muestras anteriores Coeficientes: se determinan para maximizar la ganancia de predicción (minimizar sd2) Sistema de p ecuaciones con p incógnitas ATV 2007 – Dpto. Teoría de la Señal, Telemática y Comunicaciones - UGR

Predicción lineal de orden 1 Sólo hay que calcular 1 coef. predicción lineal: Si r(1) próximo a 1, mucha ganancia de predicción Si r(1) << 1, poca ganancia de predicción Si r(1) < 0 => Gp < 1 ATV 2007 – Dpto. Teoría de la Señal, Telemática y Comunicaciones - UGR

reducir la cantidad de datos sin perder información ¿Dónde está el truco? Compresión: reducir la cantidad de datos sin perder información Aprovechar redundancias: Si se puede obtener una Gp muy alta es porque la fs es muy alta Bit – rate para una determinada SNR ATV 2007 – Dpto. Teoría de la Señal, Telemática y Comunicaciones - UGR

Ejercicio 7 Repetir el ejercicio 2 para cuantización diferencial con predicción lineal de orden 1. Usar una señal con fmax<fs/8 Calcular el bit-rate para una SNR de 12 dB Sub-muestrear la señal dividiendo por 8 fs y volver a construir el cuantizador Recalcular el bit-rate para SNR de 12 dB ATV 2007 – Dpto. Teoría de la Señal, Telemática y Comunicaciones - UGR

Cuantización de vectores Señales unidimensionales: A(n) A(n,m) Señales vectoriales: {A1(n,m),A2(n,m),A3(n,m)} Eficiencia cuantización: aprovechar los estados Cuantización uniforme: ajuste de nivel Compresión instantánea Cuantización adaptable Cuantización diferencial ATV 2007 – Dpto. Teoría de la Señal, Telemática y Comunicaciones - UGR

Cuantización vectorial (VQ) Correlaciones temporales: Cuantización diferencial (predicción) Correlaciones entre componentes de señal vectorial: Cuantización vectorial (VQ) La cuantización vectorial permite aprovechar las correlaciones entre componentes ATV 2007 – Dpto. Teoría de la Señal, Telemática y Comunicaciones - UGR

Cuantización escalar / vectorial ATV 2007 – Dpto. Teoría de la Señal, Telemática y Comunicaciones - UGR

Cuantización escalar / vectorial ATV 2007 – Dpto. Teoría de la Señal, Telemática y Comunicaciones - UGR

Cuantización escalar / vectorial 36 centroides 28 centroides VQ reduce el error de cuantización ATV 2007 – Dpto. Teoría de la Señal, Telemática y Comunicaciones - UGR

Diagrama VQ bits x(n) VQ l c Codif. Decod. l c Cada vector se sustituye por el centroide más próximo Se transmite el código del centroide Diccionario VQ Error de cuantización 010 000 001 100 x1 x2 011 ATV 2007 – Dpto. Teoría de la Señal, Telemática y Comunicaciones - UGR

Proceso de cuantización El espacio vectorial se divide en K regiones disjuntas Un vector se sustituye por el vector característico asociado a su región (centroide) Se transmite el código que identifica al centroide El receptor sustituye el código por el centroide Regiones definidas por centroides y una DISTANCIA (usualmente la distancia euclídea) Diseño diccionario VQ: decidir dónde se ponen los centroides de modo que se2 sea mínimo: ENTRENAMIENTO DEL DICCIONARIO ATV 2007 – Dpto. Teoría de la Señal, Telemática y Comunicaciones - UGR

“An algorithm for Vector Quantizer Design” Diseño diccionario VQ Algoritmo k-medias (k-means) o algoritmo LBG (Linde-Buzo-Gray 1980): “An algorithm for Vector Quantizer Design” Y. Linde, A. Buzo, R. Gray, IEEE Trans. on Communications, Vol 28, num. 1, Jan-1980 pp 84-95 Algoritmo: para 2B centroides: Inicializacion: centroide 1: media Bipartición con perturbación Clasificación y reestimación de centroides iterativa Cuando converge, si no tenemos los 2B centroides, ATV 2007 – Dpto. Teoría de la Señal, Telemática y Comunicaciones - UGR

ATV 2007 – Dpto. Teoría de la Señal, Telemática y Comunicaciones - UGR

ATV 2007 – Dpto. Teoría de la Señal, Telemática y Comunicaciones - UGR

Ejercicio 8 Construir un diccionario VQ para los valores RGB de una imagen, mediante algoritmo k-medias: Escribir distorsión para cada iteración, para cada valor del número de centroides. Dibujar la imagen cuantizada con 4,8 y 16 centroides. Determinar la SNR y el número de bits necesario para codificar la imagen ATV 2007 – Dpto. Teoría de la Señal, Telemática y Comunicaciones - UGR

Capacidad de generalización Vectores no de entrenamiento Distorsión promedio Vectores de entrenamiento Núm vectores entrenamiento ATV 2007 – Dpto. Teoría de la Señal, Telemática y Comunicaciones - UGR

Ejercicio 9 Verificar para qué número de vectores de entrenamiento el algoritmo k-medias generaliza al cuantizar los valores RGB de una imagen: Separar los pixels de la imagen en pixels para “entrenamiento” y pixels para “test” de forma aleatoria. Entrenar con parte de los pixels de entrenamiento y analizar la distorsión promedio de entrenamiento y de test. Repetir los calculos para cuantización con 4,8 y 16 centroides. ATV 2007 – Dpto. Teoría de la Señal, Telemática y Comunicaciones - UGR

Dimensionalidad en VQ 2 dimensiones: hipercubo con 22 esquinas (4) Problemas: La distancia entre cada vector y el más próximo es grande Es difícil la generalización Hacen falta muchos vectores de entrenamiento ATV 2007 – Dpto. Teoría de la Señal, Telemática y Comunicaciones - UGR

Ejercicio 10 Generar un conjunto de vectores aleatorios de dimensión N. Distribuirlos en dos particiones (entrenamiento y test): Calcular la relación entre la varianza y la “distancia promedio al vecino más próximo”, en función del número de dimensiones. Calcular la capacidad de generalizar en función del número de dimensiones (relación entre distorsión de entrenamiento y distorsión de test) ATV 2007 – Dpto. Teoría de la Señal, Telemática y Comunicaciones - UGR

Entrenamiento adecuado Factores involucrados: Número de dimensiones Número de vectores de entrenamiento Número de centroides Consecuencias de mal entrenamiento: En codificación En compresión En reconocimiento de formas ATV 2007 – Dpto. Teoría de la Señal, Telemática y Comunicaciones - UGR

La distancia Usualmente se usa distancia euclídea: Sensible a transformaciones no ortonormales: Compresión de un eje Transformaciones no lineales El algoritmo k-medias trata de minimizar la distancia entre vectores de entrenamiento y los centroides más próximos Importancia de esto en: codificación reconocimiento ATV 2007 – Dpto. Teoría de la Señal, Telemática y Comunicaciones - UGR

Ejercicio 11 Cuantizar los niveles RGB de una imagen. Comprimir la componente R en la definición de la distancia y volver a cuantizar. Comparar ambos resultados ATV 2007 – Dpto. Teoría de la Señal, Telemática y Comunicaciones - UGR

Aplicaciones VQ Compresión y codificación de voz Compresión de imágenes Reconocimiento de formas ATV 2007 – Dpto. Teoría de la Señal, Telemática y Comunicaciones - UGR

VQ en Reconocimiento de formas Clases Objetos representados por vectores Conjunto de vectores de entrenamiento Planteamiento: ATV 2007 – Dpto. Teoría de la Señal, Telemática y Comunicaciones - UGR

Marco estadístico Clase reconocida Regla de Bayes Determinación clase reconocida ATV 2007 – Dpto. Teoría de la Señal, Telemática y Comunicaciones - UGR

Probabilidad a priori de la clase Densidad de probabilidad de que la clase genere el vector MODELO DE GENERACIÓN DE VECTORES VQ se utiliza para construir el modelo ATV 2007 – Dpto. Teoría de la Señal, Telemática y Comunicaciones - UGR

Construcción pdf 1.- Cálculo de centroides k-medias 2.- Cada centroide: media, matriz de covarianza y Mk vectores asociados 3.- Construcción pdf para la nube de vectores asociada a cada centroide: (usualmente una Gaussiana) ATV 2007 – Dpto. Teoría de la Señal, Telemática y Comunicaciones - UGR

Construcción de la Gaussiana ATV 2007 – Dpto. Teoría de la Señal, Telemática y Comunicaciones - UGR

Construcción pdf 4.- Probabilidad a priori de cada Gaussiana 5.- Probabilidad de que la clase genere el vector observado Aproximación: ATV 2007 – Dpto. Teoría de la Señal, Telemática y Comunicaciones - UGR

Reconocimiento patrones: Resumen Para cada clase: Probabilidad a priori de la clase Centroides con VQ Para cada centroide: pdf asociada a cada centroide probabilidad a priori del centroide pdf de la clase Comparación entre clases ATV 2007 – Dpto. Teoría de la Señal, Telemática y Comunicaciones - UGR

Ejercicio 12 Leer una imagen con un “paisaje”. Con un trozo de “cielo” y un trozo de “no-cielo” entrenar modelos de “cielo” y de “no cielo” utilizando como vector de características los valores RGB. Clasificar los pixels de la imagen a partir de los modelos de “cielo” y “no-cielo” anteriores. ATV 2007 – Dpto. Teoría de la Señal, Telemática y Comunicaciones - UGR

Clasificación y VQ Un clasificador separa el espacío de representación en tantas regiones como clases Superficies de separación más complejas que en VQ: Clasificador: definidas a partir de “probabilidad máxima” VQ: definidas con criterio “distancia mínima” ATV 2007 – Dpto. Teoría de la Señal, Telemática y Comunicaciones - UGR

Criterios de entrenamiento Maximum Likelihood (ML) La pdf de cada clase se construye de modo que represente de forma óptima los vectores de esta clase (mínima distorsión promedio) Minimum Classification Error (MCE) La pdf de cada clase se construye de modo que se minimice el error de clasificación de vectores de entrenamiento. ¿Cuándo interesa ML ó MCE? ATV 2007 – Dpto. Teoría de la Señal, Telemática y Comunicaciones - UGR

Entrenamiento discriminativo Elementos a entrenar Estimación iterativa de los elementos a entrenar para minimizar una “función de coste” Cuando se entrenan discriminativamente los centroides de un clasificador, éstos se mueven, de modo que las fronteras entre las clases se desplazan hasta minimizar el error de entrenamiento. ATV 2007 – Dpto. Teoría de la Señal, Telemática y Comunicaciones - UGR

Formulación Función de coste Función de coste para cada elemento Medida del error Función discriminante ATV 2007 – Dpto. Teoría de la Señal, Telemática y Comunicaciones - UGR

Formulación ATV 2007 – Dpto. Teoría de la Señal, Telemática y Comunicaciones - UGR

Problemas del entrenamiento discriminativo Alcanza mínimos locales El algoritmo no garantiza una solución globalmente óptima (Combinación con algoritmos genéticos) Problema de sobreentrenamiento Excesivamente adaptado a datos de entrenamiento: pierde capacidad de generalización ATV 2007 – Dpto. Teoría de la Señal, Telemática y Comunicaciones - UGR