COMPRESIÓN AUTORREGRESIVA Y CASI SIN PERDIDA Autores: Antonio Fernández Carpio Francisco José Lamela Rincón.

Slides:



Advertisements
Presentaciones similares
funciones Por: Carlos Alberto García Acosta
Advertisements

KRIGING CON TENDENCIA.
DESCRIPCION DE SISTEMAS
Tema 3: Introducción a la programación lineal
OBJETIVO GENERAL Hacer una comparación del porcentaje de compresión del formato MP3 con el porcentaje de compresión de audio en diferentes formatos.
KRIGING.
GEOESTADISTICA MULTIVARIADA
Modelado y simulación en Ingeniería Química. Manuel Rodríguez
INFERENCIA ESTADISTICA
MODELO DE REGRESIÓN MÚLTIPLE
MATRICES.
Tema 6: Compresión de imagen
9. Detección de Circunferencias. Transformada de Hough
REGRESIÓN POR MÍNIMOS CUADRADOS
Estadística 2009 Maestría en Finanzas Universidad del CEMA
Investigación Operativa
Sistema de tres ecuaciones con tres incógnitas
Reguladores Autoajustables (STR) Introducción ANTE EL CASO DE UN PROCESO NO LINEAL O CUYOS PARÁMETROS CAMBIEN CON EL TIEMPO, SE PLANTEA UNA ESTRUCTURA.
2- SIMPLEX.
Estadística Descriptiva: 4. Correlación y Regresión Lineal
Estadística Descriptiva: 4. Correlación y Regresión Lineal Ricardo Ñanculef Alegría Universidad Técnica Federico Santa María.
Codificación Distribuida
Juan José Cortés Orozco. Antonio Muñoz Torres.
DETERMINANTES Autora: Mª Soledad Vega Fernández
Método Simplex dos fases
Método de Gauss-Seidel
Resolución de Problemas Método Simplex
Procesamiento de Imágenes Digitales
Mario Francisco, Pastora Vega
2º Bachillerato de Ciencias y Tecnología BC2A – BC2B Curso
Este procedimiento mide la relación entre la intensidad de un estímulo y la proporción de casos que presentan una cierta respuesta a dicho estímulo. Es.
Sesión 6: Campos de Markov
COMPRESION DE IMAGENES DIGITALES Jaime Lopez Carvajal Univalle Tulua 2008.
Capítulo II GUIAS DE ONDAS Parte II.
Redes Asociativas.
Flujo Eléctrico El campo eléctrico debido a una distribución continua de cargas siempre puede calcularse a partir del campo generado por una carga puntual,
ALGORITMOS GEN É TICOS: DETECCI Ó N DE BORDES EN IM Á GENES Daniel Mej í as Pinto Luis Manuel Merino Su á rez.
MÉTODO DE PIXELES DE BORDE
Departamento de Física
Rectas en 3D.
Programación Lineal ANÁLISIS DE SENSIBILIDAD en Programación Lineal.
Procesamiento Digital de Imágenes
Introducción a la Inferencia Estadística
Previsión de Ventas. Métodos no paramétricos Previsión de Ventas. Tema 2. 1 Antonio Montañés Bernal Curso
ECUACIONES DE RECTAS Ecuación vectorial
5. El Método Simplex En lo que sigue consideremos un problema de programación lineal en su forma estándar ³ =
Procesamiento de Imágenes digitales
Problema de inclusión en una Curva Digital Por Orellana Muñoz, Alfonso Paz Vicente, Rafael Pérez Medina, Gerardo Rodríguez Naranjo.
Adelgazamiento de Imágenes RGB
CARPLATE Reconocimiento del marco de la matrícula de un coche
Tema 3: Filtros.
Matrices – Determinantes Sistemas de Ecuaciones lineales
MoMento S Grupo 33: Ignacio Ayllón Benito Félix A. Velázquez Salas.
Eliminación de ruido y Tratamiento de partes alargadas en imágenes digitales.
Imágenes binarias Horn, Robot Vision
II QUIMESTRE PARCIAL 4.
VECTORES MÉTODO DEL TRIÁNGULO
Guadalupe Martínez Hernández.  La tarea de la Segmentación de imágenes es de : Encontrar un grupo de pixeles “juntos”.  En estadística este problema.
MATRICES.
Las fórmulas más usadas en excel
ESTIMACIÓN DE PARÁMETROS
Pixelación de imágenes avanzada usando el algoritmo slic
Salir de la presentación
Formatos y Extensiones Presentado por: Leandro Aguilera Sonia Santamaría German Castañeda Presentado a: Yamid Solano Colegio Departamental Ubalá Asignatura.
MODELOS DE PRONOSTICOS Primer semestre 2010 Modelo de Regresión con dos variables.
DETECCION DE SEÑALES BINARIAS EN RUIDO GAUSSIANO El criterio de toma de decisión fue descrito por la ecuación Un criterio muy usado para escoger el nivel.
Análisis cinemático: VELOCIDAD
OPTIMIZACION DEL DESEMPEÑO DE ERROR
Método Simplex Es un procedimiento sistemático y eficiente para encontrar y probar soluciones situadas en los puntos extremos de la región de soluciones.
Programación Dinámica  La programación dinámica se suele utilizar en problemas de optimización, donde una solución está formada por una serie de decisiones.
Transcripción de la presentación:

COMPRESIÓN AUTORREGRESIVA Y CASI SIN PERDIDA Autores: Antonio Fernández Carpio Francisco José Lamela Rincón

CONTENIDO Introducción. Conceptos y notacion básica. Ecuaciones. Algoritmos. Conclusiones.

INTRODUCCIÓN ¿Què es? ¿Para qué sirve? Utilidades.

INTRODUCCIÓN ¿Qué es? Es un pretratamiento que prepara las imágenes para obtener mejores resultados al serles aplicados otros métodos de compresión sin pérdida.

INTRODUCCIÓN ¿Para qué sirve? Permite la compresión de una imagen asumiendo que el valor de cada píxel puede ser cambiado en función de un pequeño . Compresión sin pérdida corresponde a un  =0. Pequeños valores de  pueden mejorar sustancialmente la compresión de una imagen sin cambios perceptibles por el ojo humano.

INTRODUCCIÓN Utilidades: Un ejemplo claro es la compresión de imágenes médicas donde mantener todos los detalles de la imagen es muy importante.

CONCEPTOS Y NOTACIÓN BÁSICA Se utilizará el modelo autorregresivo de quinto orden. Donde: u = Imagen original. B y L representan un pixel de abajo y a la izquierda respectivamente. r = matriz residual.  i son los componentes del vector  que se utilizarán junto a la matriz residual r para recobrar la imagen original.  representa el suelo o parte entera. u =   L +    B   LB +   L 2    B 2 ) u  r

CONCEPTOS Y NOTACIÓN BÁSICA La compresión autorregresiva está basada en el hecho de que dados r y  podemos recuperar la imagen u reconstruyendo la intensidad de cada píxel u[i, j] a partir de sus vecinos de abajo y a la izquierda.

ECUACIONES Ecuaciones NLAR. Minimización de la varianza residual. Optimización de los parámetros del modelo.

ECUACIONES ( NLAR ) u =   L +    B   LB +   L 2    B 2 ) u  r Ecuación principal: Con esta ecuación se obtiene la matriz residual de la imagen. A través de ella se puede recobrar la imagen original en el proceso de descompresión.

ECUACIONES ( NLAR )  = (v T v) -1 (v T u) v = (Lu, Bu, LBu, L 2 u, B 2 u) L m B n u[i,j] = u[i-m, j-n]            T Las  i son las componentes del vector  Los valores óptimos para  se obtienen por: Donde la matriz v viene definida por: Cada componente de la matriz se obtiene a traves de:

ECUACIONES ( NLAR ) Vamos a tratar esta matriz como ejemplo. Para ello, tomaremos primero un píxel de un extremo, y luego uno interior.

ECUACIONES ( NLAR ) El píxel a tratar es el 0,0. Tenemos que tener en cuenta que a la matriz la rodea un marco de ceros.

ECUACIONES ( NLAR ) Para calcular cada píxel nos basamos en sus vecinos izquierdos y de debajo.

ECUACIONES ( NLAR ) L m B n u[i,j] = u[i-m, j-n] Cada componente de la matriz se obtiene a traves de: Para calcular el píxel [0][0] de la matriz v se haría: V[0][0]=(matriz[0-1][0], matriz[0][0-1],matriz[0-1][0-1],matriz[0-2][0],matriz[0][0-2]) Por lo tanto, V[0][0]=(0,0,0,0,0). Es decir, un vector de 5 columnas. Esto habría que hacerlo para todos los elementos de la matriz de entrada.

ECUACIONES ( NLAR ) El píxel a tratar es el de color verde, es decir el [6][4]. Ahora no nos salimos de la matriz, y por tanto no hay que tener en cuenta el marco de ceros.

ECUACIONES ( NLAR ) Ahora, para tratar el píxel de color verde, es decir, el píxel [6][4]. Tenemos que fijarnos en los píxeles de debajo y de la izquierda, igual que en el ejemplo anterior.

ECUACIONES ( NLAR ) L m B n u[i,j] = u[i-m, j-n] Cada componente de la matriz se obtiene a traves de: Para calcular el píxel [6][4] de la matriz v se haría: V[6][4]=(matriz[6-1][4], matriz[6][4-1],matriz[6-1][4-1],matriz[6-2][4],matriz[6][4-2]) Por lo tanto, V[6][4]=(0,0,255,0,255). Es decir, un vector de 5 columnas. Esto habría que hacerlo para todos los elementos de la matriz de entrada. V[6][4]=(matriz[5][4], matriz[6][3],matriz[5][3],matriz[4][4],matriz[6][2])

ECUACIONES (MINIMIZACIÓN DE LA VARIANZA RESIDUAL) Var [x,y] (e)=(r[x,y] + e) 2 + (r[x + 1,y] – e  1 ) 2 + (r[x,y + 1] – e  2 ) 2 + (r[x + 1,y + 1] – e  3 ) 2 + (r[x + 2,y] – e  4 ) 2 + (r[x,y + 2] – e  5 ) 2 La varianza residual es: La mejor opción para escoger un e tal que minimice la varianza es: e min =(-r[x,y] + r[x + 1,y]  1 + r[x,y + 1]  2 + r[x + 1,y + 1]  3 + r[x + 2,y]  4 + (r[x,y + 2]  5 )/(1 +      5 2 )

ECUACIONES (Optimización de los parámetros del modelo) Este paso sólo se realiza cuando la imagen es dependiente de del modelo autorregresivo elegido. Una imagen es dependiente del modelo AR cuando se pueden calcular los coeficientes beta asociados a la imagen u. Para esto tomamos ũ= u + du du es la parte de la imagen orginal que se va a perder.

ECUACIONES (Optimización de los parámetros del modelo) Tenemos que tener en cuenta que los parámetros beta óptimos calculados para u, no tienen por que ser los óptimos para ũ, por lo que hay que volver a calcularlos, de la misma manera que lo calculamos para la u.

ALGORITMOS Algoritmo para minimizar la varianza residual. Algoritmo general NLAR.

ALGORITMOS (Minimización de la varianza residual) Escoger un  > 0. Inicializar la matriz du a ceros. Para píxel [i,j] en la matriz u hacer: Calcular el e min. Encontrar el mayor k ≤ 1 tal que | du[i,j] + ke min | ≤   Si k > 0 hacer:  e = ke min  Du[i,j]  du[i,j] + e  r[i,j]  r[i,j] + e  r[i + 1,j]  r[i + 1,j] + e  1  r[i,j + 1]  r[i,j + 1] + e  2  r[i + 1,j + 1]  r[i + 1,j + 1] + e  3  r[i + 2,j]  r[i +2,j] + e  4  r[i,j + 2]  r[i,j + 4] + e  5 

ALGORITMOS (Algoritmo general NLAR) Escoger un error  > 0 Inicializar du como una matriz nula. Hacer Generar ũ = u + du Reducir la varianza con el algoritmo anterior píxel por píxel hasta que no se pueda reducir más Reemplazar u por ũ = u + du Generar ř = ũ – ( Σ  ij L i B j ) ũ Comprimir ř con algun método convencional de compresion sin perdida, como por ejemplo el Método Huffman.

CONCLUSIONES Con este método se reduce la varianza residual, lo que hace que se reduzca la entropía de dicha imagen. El incremento de  reduce la entropía, varianza residual y el rango de intensidad de la matriz residual r, usada para reconstruir la imagen original junto con los coeficientes beta.

CONCLUSIONES Preserva el rango de intensidad original Mayor control de la información perdida. Para relativamente pequeños  los cambios realizados en la imagen son imperceptibles. Puede ser usado para la restauración y la reducción del ruido.

CONCLUSIONES  Entropía NLAR Entropía JPEG Entropía Wavelet Mejora NLAR frente JPEG (%) Mejora NLAR frente Wavelet (%)    