ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 1 Complementos de Procesado de Señales y Comunicaciones Curso de Doctorado del programa: Tecnologías.

Slides:



Advertisements
Presentaciones similares
COMPENSACIÓN DE MOVIMIENTO
Advertisements

Convertidores A/D y D/A
CAP. 6 - DISTORSIÓN Ing. Verónica M.Miró 2011.
Unidad 4 Transmisión Digital.
KRIGING.
MODELO DE REGRESIÓN MÚLTIPLE
Introducción Control digital
Tema 6: Compresión de imagen
Tema II Unidad de memoria. 2 Unidad de memoria 2.1 Definiciones y conceptos básicos Localización Capacidad Unidad de transferencia
Conversión A/D Muestreo de la señal analógica.
RECONOCIMIENTO DE OBJETOS
COMUNICACIONES ELÉCTRICAS ING. VERÓNICA M. MIRÓ 2011
Curso básico de física computacional
ANÁLISIS DISCRIMINANTE
APRENDIZAJE WIDROW- HOFF
Reguladores Autoajustables (STR) Introducción ANTE EL CASO DE UN PROCESO NO LINEAL O CUYOS PARÁMETROS CAMBIEN CON EL TIEMPO, SE PLANTEA UNA ESTRUCTURA.
Análisis Estadístico de Datos Climáticos Facultad de Ciencias – Facultad de Ingeniería 2009 M. Barreiro – M. Bidegain – A. Díaz Análisis de correlación.
Codificación Distribuida
RECONOCIMIETO DE PATRONES
FUNCIONES DE DENSIDAD DE PROBABILIDAD
2. DISEÑO DE SEÑALES Y FILTROS
Ventajas de la señal digital Inconvenientes de la señal digital
Sesión 2: Métodos Probabilísticos Básicos
Electrónica Digital.
Flujo de carga en Sistemas de Potencia.
Ejemplo de aplicación de las ANN
Códigos IRA Máster en Multimedia y Comunicaciones
1 Asignatura: Autor: Análisis Numérico César Menéndez Titulación: Planificación: Materiales: Conocimientos previos: Aproximación Ingeniero Técnico Informático.
Inicialización de Superficies Deformables mediante Elipsoides Generalizados R. Dosil, X. M. Pardo, A. Mosquera, D. Cabello Grupo de Visión Artificial Departamento.
GRUPO DE INVESTIGACION EN CONTROL INDUSTRIAL
VARIABLE ALEATORIA Y DISTRIBUCION DE PROBABILIDAD
3. Funciones discriminantes para la f.d.p normal.
Amplificador Digital La nueva tendencia del audio digital Federico Cattivelli Matías Nogueira JEFI 04 Universidad ORT Uruguay 27 de Noviembre de 2004.
Vectores Aleatorios 1 Distribución conjunta de un vector aleatorio
Reconocimiento de Patrones
Descripción de Contenidos con Wavelets Jaime Gaviria.
Combinación de Clasificadores
Procesadores digitales de señal (PDS)
MÉTODO DE PIXELES DE BORDE
Redes Competitivas.
Técnicas Supervisadas Aproximación no paramétrica Reconocimiento de Patrones 2003 Notas basadas en el curso Reconocimiento de Formas de F.Cortijo, Univ.
Reconocimiento de Formas en Data Mining Prof: Héctor Allende Capítulo 2 Aproximación Paramétrica.
Introducción general a la compresión de datos multimedia
Programación Lineal Entera Antonio H. Escobar Z Universidad Tecnológica de Pereira – Colombia Posgrado en Ingeniería Maestría en Ingeniería Eléctrica.
Procesamiento de Imágenes digitales
Tema 3: Filtros.
Procesamiento de Imágenes Digitales Propagación del Error en Codificación de Video Escalable Pablo Fernández Riejos Roberto Fuentes González Francisco.
Repaso de clase anterior
Analisis de datos en imagenes hiperespectrales: intro 1 Analisis de datos hiperespectrales: otra revisión Hyperespectral image data analysis, D. Landgrebe,
6. ANÁLISIS DISCRIMINANTE
TEMA 2 CARACTERIZACIÓN FRECUENCIAL DE SEÑALES Y SISTEMAS
Complementos de Procesado de Señales y Comunicaciones
Una Estructura en Cascada para Prediccion Lineal Adaptiva Presentado por: Guillermo Dalla Vecchia ) Martes 14 de Setiembre, 2003.
Profesora: Ing. Yesenia Restrepo Chaustre
Algoritmo de Retropropagación. Conclusiones de Retropropagación n 1. Si la neurona j es un nodo de salida es igual al producto de la derivada y la señal.
Telecomunicaciones II
Elementos Principales de un sistema de control de Datos Discretos.
Control Moderno de Motores Eléctricos
Reconocimiento de cara basado en “espectrocara”
MUESTREO : Generalidades
DETECCION DE SEÑALES BINARIAS EN RUIDO GAUSSIANO El criterio de toma de decisión fue descrito por la ecuación Un criterio muy usado para escoger el nivel.
DETECCION DE PSK DIFERENCIAL El nombre de PSK diferencial (DPSK) algunas veces necesita clarificación, debido a dos aspectos separados del formato de.
SEÑALIZACION M-ARIA Y DESEMPEÑO
OPTIMIZACION DEL DESEMPEÑO DE ERROR
Técnicas numéricas para el procesamiento de datos reales Antonio Turiel Instituto de Ciencias del Mar de Barcelona.
Germán Fromm R. 1. Objetivo Entender los diseños metodológicos predictivos 2.
Support Vector Machines.  Vocabulario básico: ◦ Repositorio de datos ◦ Atributos y Instancias ◦ Aprendizaje supervisado  Clasificación (Clase) ◦ Aprendizaje.
PROCESADORES DIGITALES DE SEÑALES Transformada Z - VI Sistemas Electrónicos, EPSG Tema IV Transformada Z:
TEMA 7 ANÁLISIS DE LOS RESULTADOS TEMA 7 ANÁLISIS DE LOS RESULTADOS.
Unsupervised visual learning of three-dimensional objects using a modular network architecture Ando, Suzuki, Fujita Neural Networks 12 (1999)
Transcripción de la presentación:

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 1 Complementos de Procesado de Señales y Comunicaciones Curso de Doctorado del programa: Tecnologías Multimedia

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 2 Organización del curso: 4 partes: –Transformadas / Análisis multirresolución: Antonio Rubio –Cuantización: Ángel de la Torre: –Viernes 16 Enero aula G-14 –Lunes 19 Enero aula G-14 –Martes 20 Enero aula G-14 ??? –Modulación: Carmen Benítez ( Viernes 23 Enero 16 horas G-14) –Tutorial de MATLAB: Javier Ramírez Pérez de Inestrosa

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 3 Organización 2ª parte: La cuantización en procesado de señales y comunicaciones. (Viernes) Cuantización escalar. (Viernes-Lunes) Cuantización vectorial. (Lunes) Presentación de trabajos. (Lunes-Martes) ( 1/2 hora y/o memoria) Transparencias en:

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 4 La cuantización en procesado de señales y comunicaciones La cuantización para adquisición de señales: –Representación digital de señales: Muestreo Cuantización Codificación Para procesamiento digital de señales: –Compresión de datos –Transmisión de datos –Reconocimiento de formas

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 5 Muestreo: –Discretizar el tiempo: x(t) => x(n) Cuantización: –Discretizar la variable: x(n) => x(n) Codificación Adquisición de señales ^

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 6 Circuitos para adquisición de señales Amplificación y Filtrado Muestreo Retención Cuantización Codificación A/D Codif. v ref Rl Características circuitos de adquisición de señales: Número de bits: B bits => 2 B estados Rango de entrada: V ref Tiempo de conversión (limita freq. muestreo)

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 7 Conversor de comparadores en paralelo Conversor de códigos v ref v i Diseño simple Rápido Caro: –Para N bits, 2 N comparadores Fácil determinar el nivel de referencia Fácil establecer valores de los cuantos

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 8 Conversor de contador - + Conversor de códigos v i AND contador Rl Control (T s ) reset D/A Más barato: –Sólo 1 comparador Mucho más lento: –Requiere 2 N pulsos de reloj para cuantizar

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 9 Diagrama de bloques de un sistema adquisición de datos Muestreo: discretización en el tiempo: no hay pérdida de información (T. Muestreo) Cuantización: discretización en amplitud (pérdida de información)  QCodif. Almacenamiento DSP Transm. Digital Etc. x(t)x(n) ^ bits Representación digital de la señal x(t)

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 10 Representación digital de señales Precisión finita: –Concepto de ruido de cuantización. Velocidad de transmisión: –F s B (bits por segundo) (bit-rate) Compromiso entre ruido de cuantización y bit-rate –Precisión – recursos DSP / canal

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 11 Cuantización escalar Señales muestreadas unidimensionales: x(n) F(n,m) {F 1 (n,m),F 2 (n,m),F 3 (n,m)} Cuantización instantánea: –Uniforme –Compresión instantánea Cuantización adaptable: –Hacia adelante –Hacia atrás Cuantización diferencial

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 12 Cuantización uniforme Todos los cuantos son iguales:  B bits => 2 B niveles en [–X max,X max ] X max = 2 B-1  x x ^ 

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 13 x x ^ Cuantizador de media huella Cuantizador de media contrahuella x x ^

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 14 Ruido de cuantización Relación señal ruido Estimación de la SNR (señal / distribución)

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 15 Cálculo del ruido de cuantización (ejemplo) Saturación: Relación señal ruido:

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 16 Cálculo del ruido de cuantización (ejemplo) B = 8 bits => SNR = 40.8 dB B = 12 bits => SNR = 64.8 dB B = 16 bits => SNR = 88.8 dB En procesamiento de audio: 80 dB HiFi 60 dB Equipos música gama media 40 dB Ruido se aprecia 20 dB Teléfono <10 dB Molesta / dificultades para entender voz

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 17 Cuantización vs. Saturación Si X max >> 4  x : –Poco ruido de saturación –Mucho ruido de cuantización Si X max << 4  x : –Mucho ruido de saturación –Poco ruido de cuantización Ajuste de nivel de entrada crítico (ganancia de entrada) p(x) X max -X max p(x) X max -X max

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 18 Ejercicio 1 a) En el ejemplo anterior, calcular SNR asociada al ruido de saturación. –p(e s ) –  e 2 –SNR b) Relación entre X max y  x para cuantización óptima. –SNR sat = SNR Q –(depende de B)

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 19 Ejercicio 2 A partir de una señal de voz muestreada, cuantizarla fijando varios valores de X max y B: –a) Estimar la SNR sat y la SNR Q para cada X max, B –b) Buscar el valor óptimo Xmax para 6 bits –c) Determinar el número de bits mínimo para una SNR de 12 dB.

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 20 Compresión instantánea Problema de Q-uniforme: –Hay que preocuparse del nivel de la señal Objetivo compresión instantánea: –SNR independiente de nivel de señal Cuantos  diferentes:  /x ≃ cte x y ^

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 21 Compresión logarítmica logQ sgn Codif.Decod. log y ^ sgn(x) y ^ xxy ^ |x| ^ sgn(x)

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 22 Otras leyes de compresión: ley  ley A FQ sgn Codif.Decod. F -1 y ^ sgn(x) y ^ xxy ^ |x| ^ sgn(x)

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 23

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 24

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 25 Ejercicio 3 Repetir el ejercicio 2 para compresión ley-  con  =255. Ejercicio 4 Demostrar la expresión de la SNR para ley- .

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 26 Cuantización adaptable Interesa  grande para evitar saturación Interesa  pequeña para reducir e q Señales no estacionaria:  x 2 varía con el tiempo Solución: Adaptar G ó  a la varianza de la señal

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 27 Adaptación de  o de G Estimación local de  x 2 : –Mediante filtro pasa-baja aplicado sobre x 2 (n): Problemas: –Causalidad –Retardo –Tiempo de estabilización Como  x 2 varía lentamente, se calcula y transmite únicamente cada N muestras

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 28 Adaptación hacia adelante Q Codificador x(n) ^bits Adapt.  Decodif. ^ x’(n) Q Codif. x(n)y(n) ^ bits Adapt. G Decodif. ^ x’(n)y(n) ^ y’(n) ÷

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 29 Adaptación hacia atrás Q Codificador x(n) ^bits Adapt.  Decodif. ^ x’(n) Q Codif. x(n)y(n) ^ bits Adapt. G Decodif. ^ x’(n)y(n) ^ y’(n) ÷ Adapt.  Adapt. G

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 30 Cuantización adaptable: limitaciones Útil si la varianza varía lentamente Adaptación hacia delante: –Requiere precisión en la transmisión del cuanto o de la ganancia –¿Qué ocurre si la varianza cambia demasiado rápidamente? Adaptación hacia atrás: –Sensible a errores de transmisión (el resultado depende de toda la historia del sistema)

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 31 Ejercicio 5 Repetir el ejercicio 2 para cuantización adaptable hacia adelante. Cambiar la ventana utilizada para la estimación de la varianza. Hacerlo con señales cuya varianza cambia poco y cuya varianza cambia mucho. Ejercicio 6 Repetir el ejercicio 2 para cuantización adaptable hacia atrás. Introducir errores en el código transmitido y determinar la SNR de la señal en función del porcentaje de bits cambiados.

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 32 Cuantización diferencial Si la señal varía lentamente, la varianza de [x(n)-x(n-1)] es mucho menor que la de x(n) Q diferencial: –Cuantizaión de x(n)-x(n-1) Q predictiva: –Predicción de x(n): p(x(n)) –Cuantización del “error de predicción” d(n): d(n)=x(n)-p(x(n))

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 33 Cuantización diferencial Q Codif. x(n)d(n) ^ bits predic. Decodif. ^ x’(n)d(n) ^ d’(n) ^ x(n) p(x(n)) predic. p(x(n)) Ganancia de predicción:

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 34 Predicción lineal (LPC) Predicción: combinación lineal de p muestras anteriores Coeficientes: se determinan para maximizar la ganancia de predicción (minimizar  d 2 ) Sistema de p ecuaciones con p incógnitas

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 35 Predicción lineal de orden 1 Sólo hay que calcular 1 coef. predicción lineal: Si  (1) próximo a 1, mucha ganancia de predicción Si  (1) << 1, poca ganancia de predicción Si  (1) G p < 1

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 36 ¿Dónde está el truco? Compresión: reducir la cantidad de datos sin perder información Aprovechar redundancias: Si se puede obtener una G p muy alta es porque la f s es muy alta Bit – rate para una determinada SNR

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 37 Ejercicio 7 Repetir el ejercicio 2 para cuantización diferencial con predicción lineal de orden 1. –Usar una señal con f max <f s /8 –Calcular el bit-rate para una SNR de 12 dB –Sub-muestrear la señal dividiendo por 8 f s y volver a construir el cuantizador –Recalcular el bit-rate para SNR de 12 dB

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 38 Cuantización de vectores Señales unidimensionales: A(n) A(n,m) Señales vectoriales: {A 1 (n,m),A 2 (n,m),A 3 (n,m)} Eficiencia cuantización: aprovechar los estados –Cuantización uniforme: ajuste de nivel –Compresión instantánea –Cuantización adaptable –Cuantización diferencial

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 39 Cuantización vectorial (VQ) Correlaciones temporales: –Cuantización diferencial (predicción) Correlaciones entre componentes de señal vectorial: –Cuantización vectorial (VQ) La cuantización vectorial permite aprovechar las correlaciones entre componentes

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 40 Cuantización escalar / vectorial

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 41 Cuantización escalar / vectorial

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 42 Cuantización escalar / vectorial VQ reduce el error de cuantización 36 centroides28 centroides

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 43 Diagrama VQ VQ x(n) c Codif. bits Decod. c x1x1 x2x2 Cada vector se sustituye por el centroide más próximo Se transmite el código del centroide Diccionario VQ Error de cuantización

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 44 Proceso de cuantización El espacio vectorial se divide en K regiones disjuntas Un vector se sustituye por el vector característico asociado a su región (centroide) Se transmite el código que identifica al centroide El receptor sustituye el código por el centroide Regiones definidas por centroides y una DISTANCIA (usualmente la distancia euclídea) Diseño diccionario VQ: decidir dónde se ponen los centroides de modo que  e 2 sea mínimo: ENTRENAMIENTO DEL DICCIONARIO

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 45 Diseño diccionario VQ Algoritmo k-medias (k-means) o algoritmo LBG (Linde-Buzo-Gray 1980): “An algorithm for Vector Quantizer Design” Y. Linde, A. Buzo, R. Gray, IEEE Trans. on Communications, Vol 28, num. 1, Jan-1980 pp Algoritmo: para 2 B centroides: –Inicializacion: centroide 1: media –Bipartición con perturbación –Clasificación y reestimación de centroides iterativa –Cuando converge, si no tenemos los 2 B centroides,

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 46

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 47

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 48 Ejercicio 8 Construir un diccionario VQ para los valores RGB de una imagen, mediante algoritmo k- medias: –Escribir distorsión para cada iteración, para cada valor del número de centroides. –Dibujar la imagen cuantizada con 4,8 y 16 centroides. –Determinar la SNR y el número de bits necesario para codificar la imagen

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 49 Capacidad de generalización Núm vectores entrenamiento Distorsión promedio Vectores no de entrenamiento Vectores de entrenamiento

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 50 Ejercicio 9 Verificar para qué número de vectores de entrenamiento el algoritmo k-medias generaliza al cuantizar los valores RGB de una imagen: –Separar los pixels de la imagen en pixels para “entrenamiento” y pixels para “test” de forma aleatoria. –Entrenar con parte de los pixels de entrenamiento y analizar la distorsión promedio de entrenamiento y de test. –Repetir los calculos para cuantización con 4,8 y 16 centroides.

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 51 Dimensionalidad en VQ 2 dimensiones: hipercubo con 2 2 esquinas (4) 20 dimensiones: hipercubo con 2 20 esquinas ( ) Problemas: –La distancia entre cada vector y el más próximo es grande –Es difícil la generalización –Hacen falta muchos vectores de entrenamiento

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 52 Ejercicio 10 Generar un conjunto de vectores aleatorios de dimensión N. Distribuirlos en dos particiones (entrenamiento y test): –Calcular la relación entre la varianza y la “distancia promedio al vecino más próximo”, en función del número de dimensiones. –Calcular la capacidad de generalizar en función del número de dimensiones (relación entre distorsión de entrenamiento y distorsión de test)

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 53 Entrenamiento adecuado Factores involucrados: –Número de dimensiones –Número de vectores de entrenamiento –Número de centroides Consecuencias de mal entrenamiento: –En codificación –En compresión –En reconocimiento de formas

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 54 La distancia Usualmente se usa distancia euclídea: –Sensible a transformaciones no ortonormales: Compresión de un eje Transformaciones no lineales El algoritmo k-medias trata de minimizar la distancia entre vectores de entrenamiento y los centroides más próximos Importancia de esto en: –codificación –reconocimiento

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 55 Ejercicio 11 Cuantizar los niveles RGB de una imagen. Comprimir la componente R en la definición de la distancia y volver a cuantizar. Comparar ambos resultados

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 56 Aplicaciones VQ Compresión y codificación de voz Compresión de imágenes Reconocimiento de formas

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 57 VQ en Reconocimiento de formas Planteamiento: Reconocimiento de formas: Clases Objetos representados por vectores Conjunto de vectores de entrenamiento

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 58 Marco estadístico Clase reconocida Regla de Bayes Determinación clase reconocida

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 59 Probabilidad a priori de la clase Densidad de probabilidad de que la clase genere el vector MODELO DE GENERACIÓN DE VECTORES VQ se utiliza para construir el modelo

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 60 Construcción pdf 1.- Cálculo de centroides k-medias 2.- Cada centroide: media, matriz de covarianza y M k vectores asociados 3.- Construcción pdf para la nube de vectores asociada a cada centroide: (usualmente una Gaussiana)

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 61 Construcción de la Gaussiana

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 62 Construcción pdf 4.- Probabilidad a priori de cada Gaussiana 5.- Probabilidad de que la clase genere el vector observado Aproximación:

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 63 Reconocimiento patrones: Resumen Para cada clase: –Probabilidad a priori de la clase –Centroides con VQ –Para cada centroide: pdf asociada a cada centroide probabilidad a priori del centroide –pdf de la clase Comparación entre clases

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 64 Ejercicio 12 Leer una imagen con un “paisaje”. Con un trozo de “cielo” y un trozo de “no-cielo” entrenar modelos de “cielo” y de “no cielo” utilizando como vector de características los valores RGB. Clasificar los pixels de la imagen a partir de los modelos de “cielo” y “no-cielo” anteriores.

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 65 Clasificación y VQ Un clasificador separa el espacío de representación en tantas regiones como clases Superficies de separación más complejas que en VQ: –Clasificador: definidas a partir de “probabilidad máxima” –VQ: definidas con criterio “distancia mínima”

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 66 Criterios de entrenamiento Maximum Likelihood (ML) –La pdf de cada clase se construye de modo que represente de forma óptima los vectores de esta clase (mínima distorsión promedio) Minimum Classification Error (MCE) –La pdf de cada clase se construye de modo que se minimice el error de clasificación de vectores de entrenamiento. ¿Cuándo interesa ML ó MCE?

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 67 Entrenamiento discriminativo Elementos a entrenar Estimación iterativa de los elementos a entrenar para minimizar una “función de coste” Cuando se entrenan discriminativamente los centroides de un clasificador, éstos se mueven, de modo que las fronteras entre las clases se desplazan hasta minimizar el error de entrenamiento.

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 68 Formulación Función de coste Función de coste para cada elemento Medida del error Función discriminante

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 69 Formulación

ATV 2003 – Dpto. Electrónica y Tecn. Computadores - UGR 70 Problemas del entrenamiento discriminativo Alcanza mínimos locales –El algoritmo no garantiza una solución globalmente óptima –(Combinación con algoritmos genéticos) Problema de sobreentrenamiento –Excesivamente adaptado a datos de entrenamiento: pierde capacidad de generalización