Analisis de datos en imagenes hiperespectrales: intro 1 Analisis de datos hiperespectrales: otra revisión Hyperespectral image data analysis, D. Landgrebe,

Slides:



Advertisements
Presentaciones similares
4. ANÁLISIS FACTORIAL Introducción Modelo factorial ortogonal
Advertisements

Planificación de Monoprocesadores
CONTENIDOS Teoría del muestreo ¿Cómo seleccionar una muestra?
KRIGING CON TENDENCIA.
Bivariadas y Multivariadas
KRIGING.
GEOESTADISTICA MULTIVARIADA
INFERENCIA ESTADISTICA
MODELO DE REGRESIÓN MÚLTIPLE
Especialista en Business Intelligence Analysis Services SSAS (Sesión 14) Microsoft SQL Server 2008 R2 Suscribase a o escríbanos a
Imagenes hiperespectrales: introducción
Detección en imagen hiperespectral 1
RECONOCIMIENTO DE OBJETOS
Propiedades curiosas de los espacios de alta dimensión
ANÁLISIS DISCRIMINANTE
APRENDIZAJE WIDROW- HOFF
Determinacion de endmembers CCA1 Determinación de endmembers mediante una transformacion cónica.
FUNDAMENTOS DE DATA MINING Y SUS APLICACIONES N. QUEIPO, S. PINTOS COPYRIGHT 2000 CLASIFICACIÓN NO SUPERVISADA.
FUNCIONES DE DENSIDAD DE PROBABILIDAD
Análisis Discriminante
Sesión 2: Métodos Probabilísticos Básicos
Procesamiento de Imágenes Digitales
Ejemplo de aplicación de las ANN
VARIABLE ALEATORIA Y DISTRIBUCION DE PROBABILIDAD
Mt. Martín Moreyra Navarrete.
3. Funciones discriminantes para la f.d.p normal.
Reconocimiento de Patrones
Distribuciones derivadas del muestreo
Resoluciones de la imagen de satélite
Combinación de Clasificadores
EXTRACCIÓN DE CARACTERISTICAS
MÉTODO DE PIXELES DE BORDE
ESTIMACIÓN DE COEFICIENTES DE MÁXIMA VEROSIMILITUD
Unidad V: Estimación de
1 M. en C. Gal Vargas Neri. 2 Planeación del curso TEMACAP.TITULODÍASSEMFEC FIN TEMA 00MOTIVACION Y PLANEACION1111/01 TEMA I1-2ESTADISTICA Y MEDICION2115/01.
Técnicas Supervisadas Aproximación no paramétrica Reconocimiento de Patrones 2003 Notas basadas en el curso Reconocimiento de Formas de F.Cortijo, Univ.
Reconocimiento de Formas en Data Mining Prof: Héctor Allende Capítulo 2 Aproximación Paramétrica.
Introducción La inferencia estadística es el procedimiento mediante el cual se llega a inferencias acerca de una población con base en los resultados obtenidos.
Universidad Nacional de Colombia Curso Análisis de Datos Cuantitativos.
Capítulo 7 Estimación de Parámetros Estadística Computacional
Introducción a la Inferencia Estadística
Inferencia Estadística
Método para evaluar valores y cualidades
Inferencia Multivariante Cap 10 y 11
ANÁLISIS MULTIVARIANTE
Estimación de modelos ARMA
Capítulo 1. Conceptos básicos de la Estadística
 Introducción  Modelo factorial ortogonal  Construcción del modelo factorial: método de componentes principales  Construcción del modelo factorial:
6. ANÁLISIS DISCRIMINANTE
Sabemos reconocerlas, y calcularlas como soluciones de sistemas de ecuaciones, o de desigualdades Buscamos métodos de cálculo generales y eficientes Problemas.
Regresión lineal múltiple
Imágenes binarias Horn, Robot Vision
5. CORRELACIONES CANÓNICAS
Sesión 13: Distribuciones Muestrales y Tamaño de Muestra
Universidad Nacional del Nordeste Facultad de Humanidades CARRERA DE ESPECIALIZACION TECNOLOGIAS DE LA INFORMACION GEOGRAFICA (TIG) Resoluciones 511/10-CS.
Clasificación visual con fotos aéreas
DATA MINING KAROL PARDO MIGUEL VALCERO CORPORACION UNIVERSITARIA MINUTO DE DIOS.
Estimación Diferencia de dos medias
Septiembre  Responde a quienes y cuantas personas se aplicará el instrumento de recolección de datos.
ESTIMACIÓN DE PARÁMETROS
CLASIFICACIÓN SUPERVISADA
DETECCION DE SEÑALES BINARIAS EN RUIDO GAUSSIANO El criterio de toma de decisión fue descrito por la ecuación Un criterio muy usado para escoger el nivel.
OPTIMIZACION DEL DESEMPEÑO DE ERROR
Técnicas numéricas para el procesamiento de datos reales Antonio Turiel Instituto de Ciencias del Mar de Barcelona.
Clase 17 Introducción a la Estadística Universidad de la República Centro Universitario Regional del Este Pablo Inchausti Licenciatura en Gestión Ambiental.
Departamento de Informática Universidad Técnica Federico Santa María EconometríaEconometría Capitulo II.
Support Vector Machines.  Vocabulario básico: ◦ Repositorio de datos ◦ Atributos y Instancias ◦ Aprendizaje supervisado  Clasificación (Clase) ◦ Aprendizaje.
TAMAÑO DE LA MUESTRA. Para definir el tamaño de la muestra se debe tener en cuenta los recursos disponibles y las necesidades del plan de análisis, el.
TEMA 7 ANÁLISIS DE LOS RESULTADOS TEMA 7 ANÁLISIS DE LOS RESULTADOS.
Unsupervised visual learning of three-dimensional objects using a modular network architecture Ando, Suzuki, Fujita Neural Networks 12 (1999)
Transcripción de la presentación:

analisis de datos en imagenes hiperespectrales: intro 1 Analisis de datos hiperespectrales: otra revisión Hyperespectral image data analysis, D. Landgrebe, IEEE Signal Processing Magazine, Jan 2002, p.17-28

analisis de datos en imagenes hiperespectrales: intro 2 Introducción Idea básica: sustituir resolución espacial por resolución espectral. Clases distintas de cobertura de la superficie tienen distintas respuestas espectrales, únicas dentro de un conjunto de datos.

analisis de datos en imagenes hiperespectrales: intro 3 Representación de la señal Cada pixel es un vector de N dimensiones. Los pixels pueden considerarse como realizaciones de una variable aleatoria. La caracterización de los datos se hará en términos de la distribución de probabilidad condicionada a la clase.

analisis de datos en imagenes hiperespectrales: intro 4

5 Discriminación entre clases Distancia de Bhattacharyya entre dos clases en función de sus densidades condicionales

analisis de datos en imagenes hiperespectrales: intro 6 En la derivación se asumen distribuciones gausianas. El primer término de la distancia es la diferencia entre las medias, el segundo se refiere a la discriminación basada en los segundos momentos centrales. Un resultado derivado es la posibilidad de discriminar clases que tienen la misma media, pero distintas matrices de covarianza. Esto requiere discriminantes cuadráticos. Clasificación basada en las funciones discriminantes:

analisis de datos en imagenes hiperespectrales: intro 7 La distribución condicional puede servir como función discriminante. En este caso el clasificador es de máxima verosimilitud. Si todas las clases tienen varianza unidad y las caracteristicas son incorreladas, tenemos el clasificador de mínima distancia a las medias. Las clases tienen la misma covarianza, las características no son incorreladas y no tienen la misma varianza: discriminante lineal de Fisher Distintas matrices de covarianza por clase: clasificador cuadrático gausiano:

analisis de datos en imagenes hiperespectrales: intro 8 En teoría, si se conocen las probabilidades a priori se pueden construir los clasificadores de mínimo error basados en la probabilidad a posteriori, pero es poco usual. Aumentar el orden de los clasificadores puede mejorar el rendimiento del clasificador, el inconveniente es la falta de datos para realizar la estimación de los parámetros. Inconvenientes de redes neuronales: grandes tiempos de entrenamiento y conjuntos de datos de entrenamiento.

analisis de datos en imagenes hiperespectrales: intro 9 Problemas en datos de alta dimensión La ventaja de los datos de alta dimension es que el desdoblamiento de los datos puede reforzar las habilidades discriminantes. Si bien en la representación bidimensional no se aprecian dos clases, en la representación tridimensional dada por la imagen en color si se aprecián.

analisis de datos en imagenes hiperespectrales: intro 10 Considerese una hiperesfera de radio d, el volumen que ocupa es Idem para un hipercubo: La fracción del volumen de un hipercubo ocupado por la hiperesfera inscrita en el es: Esta fracción tiende a cero al crecer la dimensión. Los datos se concentran en las esquinas de los hipercubos.

analisis de datos en imagenes hiperespectrales: intro 11 Conclusión: el espacio de alta dimensión está practicamente vacio. Los datos se pueden proyectar en espacios de baja dimensión sin pérdida de capacidad de discriminación. ¿cuales? Consecuencia 2: los datos distribuidos normalmente se concentran en la cola de la distribución al aumentar la dimensión. Esto dificulta la estimación de las densidades.

analisis de datos en imagenes hiperespectrales: intro 12 Dependencia de la bondad del clasificador sobre el tamaño del conjunto de muestras para entrenamiento (m). Efcto de Hughes. Si el numero de muestras es finito se encuentra un máximo de rendimiento a partir del cual entrenar modelos más complejos empeora los resultados. El valor del máximo aumenta con el tamaño de la muestra.

analisis de datos en imagenes hiperespectrales: intro 13 Extracción de características Reducción de la dimensión garantizando la bondad de la clasificación con los datos reducidos. –Extracción basada en la capacidad discriminante (DAFE) –Extracción basada en la frontera de decisión (DBFE).

analisis de datos en imagenes hiperespectrales: intro 14 Discriminate Analysis Feature Extraction: DAFE Busca el subespacio óptimo garantizando que las clases tienen máxima separación de las medias sobre este nuevo eje, mientras que sus varianzas en la proyección son tan pequeñas como sea posible. Trata de maximizar:

analisis de datos en imagenes hiperespectrales: intro 15 En formato matricial La función criterio a maximizar en la selección de vectores característicos se formula como:

analisis de datos en imagenes hiperespectrales: intro 16 DBFE Se basa en la frontera de decisión y las muestras que la definen. Las características discriminantes tienen al menos un componente que es ortogonal a la frontera de decisión en al menos un punto. Características redundantes son ortogonales al vector normal a la frontera de decisión en todos los puntos.

analisis de datos en imagenes hiperespectrales: intro 17 Paradigma de analisis de datos Primer paso en la construcción del clasificador: dar una lista de clases –Donde cada clase tenga algun valor informativo –Exaustiva: todo pixel puede ser clasificado –Separable: las clases deben ser separables en función de las características disponibles. Segundo: disponer de datos de entrenamiento fiables y abundantes.

analisis de datos en imagenes hiperespectrales: intro 18

analisis de datos en imagenes hiperespectrales: intro datos multiespectrales: no existe una frontera definida entre datos multi e hiperespectrales. Las propiedades del espacio varian al aumentar la dimensión. Las dimensiones varian entre 10 y extracción de las características importantes para la tarea, condicionada a la información específica de la tarea 3- selección de las características calculadas. 4- algoritmo de clasificación dependiente de la aplicación preparación del conjunto de entrenamiento. 6- construccion de los modelos cuantitativos de los datos: distribuciones condicionales 7-uso de información de calibración para obtener datos de entrenamiento a partir de las observaciones.

analisis de datos en imagenes hiperespectrales: intro 20 Utilización de los datos no etiquetados para mejorar la efectividad del clasificador supervisado. Clases en el espacio de características. Cada clase caracterizada por m componentes gausianos. Datos de entramiento de cada clase. Datos de entrenamiento sin etiquetar. Verosimilitud a maximizar en el proceso de estimación.

analisis de datos en imagenes hiperespectrales: intro 21 Proceso de maximización de la expectación (EM) Probabilidades a posteriori.

analisis de datos en imagenes hiperespectrales: intro 22 Airborne sensor, 3m pixels, 210 bands 0.4 to 2.4  m lineas, 307 pixels por linea. Imagen con las bandas 60,27,17 para RGB. No ajuste geométrico. 2-clases: tejados, carretera,hierba, arboles, pista, agua, sombra. Se desea distinguir entre carreteras y tejados. Se definen 10 subclases de tejados, con muestras etiquetadas por cada subclase.

analisis de datos en imagenes hiperespectrales: intro Extracción de características: DAFE obtiene 210 bandas que son combinación lineal de las originales, ordenadas por capacidad discriminante. Las nueve primeras parecen ser suficientes. 4- la selección consiste en reformatear la imagen. 5- clasificación inicial (ECHO) algoritmo cuadrático que segmenta la escena en objetos homogeneos y los clasifica en base a la verosimilitud cuacrática. 6- se refina el entrenamiento añadiendo algunas muestras etiquetadas adicionales. 7- clasificación final.

analisis de datos en imagenes hiperespectrales: intro 24 Resultado final del etiquetado.

analisis de datos en imagenes hiperespectrales: intro 25