RECONOCIMIENTO DE OBJETOS

Slides:



Advertisements
Presentaciones similares
Unidad I. Conceptos Básicos y Estadística Descriptiva
Advertisements

Procesos matemáticos en la enseñanza/aprendizaje de la geometría
REGRESION LINEAL SIMPLE
Valores y Vectores Propios
Variable Aleatoria Continua. Principales Distribuciones
Visión de Máquina: Aplicaciones a la Industria
INFERENCIA ESTADISTICA
MODELO DE REGRESIÓN MÚLTIPLE
Reducción de datos Por Elizabeth León.
Máquinas con Vectores de Soporte - SVM
Universidad Autónoma San Francisco
Unidad I. Conceptos Básicos y Estadística Descriptiva
Circunferencia. Presentado por: María del Rosario Ochoa Guerrero.
El Perceptrón  El psicólogo Frank Ronsenblant desarrolló un modelo simple de neurona basado en el modelo de McCulloch y Pitts que utilizaba.
Determinacion de endmembers CCA1 Determinación de endmembers mediante una transformacion cónica.
Modelos de Programación Entera - Heurísticas
FUNDAMENTOS DE DATA MINING Y SUS APLICACIONES N. QUEIPO, S. PINTOS COPYRIGHT 2000 CLASIFICACIÓN NO SUPERVISADA.
Capítulo 2. Representación de imágenes digitales
RECONOCIMIETO DE PATRONES
FUNCIONES DE DENSIDAD DE PROBABILIDAD
Análisis Discriminante
Sesión 2: Métodos Probabilísticos Básicos
J. Trinidad Guillen Bonilla, H. Guillen Bonilla, A. Guillen Bonilla,
Estadística aplicada al análisis financiero
Ejemplo de aplicación de las ANN
SISTEMAS DE ECUACIONES
La segmentación de imágenes se ocupa de descomponer una imagen en sus partes constituyentes, es decir, los objetos de interés y el fondo, basándose en.
Inicialización de Superficies Deformables mediante Elipsoides Generalizados R. Dosil, X. M. Pardo, A. Mosquera, D. Cabello Grupo de Visión Artificial Departamento.
3. Funciones discriminantes para la f.d.p normal.
Cecilia Aguerrebere – Germán Capdehourat Proyecto Final de Reconocimiento de Patrones Reconocimiento de Caras con características locales.
Combinación de Clasificadores
Ecuaciones Algebraicas
EXTRACCIÓN DE CARACTERISTICAS
Capitulo 3 Segmentación.
MÉTODO DE PIXELES DE BORDE
José Ángel González Fraga, Erika. M. Ramos Michel, Facultad de Telemática, Universidad de Colima V TALLER DE PROCESAMIENTO.
Unidad V: Estimación de
ESTIMACION En varios pasajes de este libro hemos planteado la dificultad que se confronta en las investigaciones, de llegar a conclusiones sobre una población.
Técnicas Supervisadas Aproximación no paramétrica Reconocimiento de Patrones 2003 Notas basadas en el curso Reconocimiento de Formas de F.Cortijo, Univ.
Reconocimiento de Formas en Data Mining Prof: Héctor Allende Capítulo 2 Aproximación Paramétrica.
Introducción La inferencia estadística es el procedimiento mediante el cual se llega a inferencias acerca de una población con base en los resultados obtenidos.
Inferencia Estadística
Simular: Representar una cosa, fingiendo o imitando lo que no es.
Análisis Cuantitativo de Datos (Básico)
Inferencia Estadística
CARPLATE Reconocimiento del marco de la matrícula de un coche
Unidad II: Variables Aleatorias Concepto Discreta y Continua Fun. de densidad Fun. de probabilidad F. de distribución Esperanza y Varianza Propiedades.
Universidad Michoacana de San Nicolás de Hidalgo Facultad de Ingeniería Eléctrica.
1 Image Segmentation Chapter 9 Dr. Mario Chacón DSP & Vision Lab.
ERICK CISNEROS SAAVEDRA GABRIELA REGULES GUTIÉRREZ Datamining.
Analisis de datos en imagenes hiperespectrales: intro 1 Analisis de datos hiperespectrales: otra revisión Hyperespectral image data analysis, D. Landgrebe,
Tema 6: Morfología Segunda parte.
LA ESTADÍSTICA PROF.: EDMUNDO C.PARDO H. CARACAS,OCTUBRE DE 2014
Pruebas de hipótesis.
DATA MINING KAROL PARDO MIGUEL VALCERO CORPORACION UNIVERSITARIA MINUTO DE DIOS.
Taller: Inteligencia Computacional MC. LETICIA FLORES PULIDO.
Tomando decisiones sobre las unidades de análisis
Prof. Juan José Bravo B., M.Sc. ©
Inteligencia Artificial- Aplicaciones 1. Contenido  Conceptos  Introducción  Esquema general  Ejemplos de Aplicaciones 2.
Aspectos generales de la investigación educativa en el SNIT
DETECCION DE SEÑALES BINARIAS EN RUIDO GAUSSIANO El criterio de toma de decisión fue descrito por la ecuación Un criterio muy usado para escoger el nivel.
INFERENCIA ESTADÍSTICA
OPTIMIZACION DEL DESEMPEÑO DE ERROR
REGRESIÓN LINEAL SIMPLE
Álgebra y funciones 3 Índice del libro 1.PolinomiosPolinomios 2.Identidades notablesIdentidades notables 3.Resolución de ecuaciones de primer gradoResolución.
Support Vector Machines.  Vocabulario básico: ◦ Repositorio de datos ◦ Atributos y Instancias ◦ Aprendizaje supervisado  Clasificación (Clase) ◦ Aprendizaje.
Estimación Estadística Tares # 3. Estimación Estadística Conjunto de técnicas que permiten dar un valor aproximado de un parámetro de una población a.
Intervalos de Confianza M. C. José Juan Rincón Pasaye UMSNH – FIE Mayo de 2003.
Unsupervised visual learning of three-dimensional objects using a modular network architecture Ando, Suzuki, Fujita Neural Networks 12 (1999)
PROGRAMA DE INNOVACIÓN Y DESARROLLO TECNOLÓGICO PRODUCTIVO – CONVENIO : SENA-NEW STETIC Proyecto: Sistema de visión industrial para inspección.
Transcripción de la presentación:

RECONOCIMIENTO DE OBJETOS Visión de Máquina Ingeniería en Automática Industrial

Procesamiento de Imágenes imagen de entrada objetos separados Patrón de características Imagen acondicionada A la aplicación SEGMENTACIÓN EXTRACCIÓN DE CARACTERÍSTICAS PRE PROCESAMIENTO RECONOCIMIENTO CLASIFICACIÓN INTERPRETACIÓN DE LA ESCENA tipos de objeto

Reconocimiento de Objetos Los objetos son descritos mediante un vector de características o bien mediante una representación estructural a partir de la cual se pretende su reconocimiento. Reconocimiento ⇔ Clasificación Agrupación de objetos con una representación conocida (PATRONES) a alguno de los grupos representativos (CLASES).

Ejemplo Reconocimiento de Objetos Si C < 14.3 entonces objeto = Circulo Si 14.3 < C < 18.4 entonces objeto = Cuadrado Si 18.4 < C entonces objeto = Triangulo

Ejemplo Reconocimiento de Objetos Supóngase una cinta transportadora transparente por la que circulan tornillos, arandelas y tuercas. Se precisa desarrollar un sistema que cuente cuántas unidades de cada tipo hay en cada momento en un intervalo de la cinta. Se supone que la iluminación se realiza a contraluz con lo que se obtienen las siluetas Se debe pues construir un sistema que identifique cada silueta como correspondiente a una de las tres clases de objetos.

Ejemplo Reconocimiento de Objetos En este caso se propone usar como características el número de agujeros presentes en la figura . Y la desviación típica de las distancias del perímetro al centro del objeto.

Ejemplo Reconocimiento de Objetos Valores de estas características para una muestra aleatoria obtenida durante 10 minutos de operación del sistema.

Enfoques Reconocimiento de Objetos Clasificación de Objetos. Enfoque geométrico Métodos Estadísticos: Optimización de probabilidades en la asignación de los objetos a clases (Distancia de Mahalanobis) Métodos No-paramétricos: Se particiona el espacio de acuerdo con objetos cuya clasificación es conocida a priori (Perceptrón) Enfoque Sintáctico: Identificación de las partes constituyentes

Enfoque Geométrico Clasificación de los objetos (vector de características) de acuerdo con una determinada partición del espacio de características.

Enfoque Geométrico Propiedades a tener en cuenta en la elección y prueba de las características: 1ª.- Poder discriminante 2ª.- Fiabilidad 3ª.- Independencia 4ª.- Tiempo de computo aceptable 5ª.- Número de características

Método Sintáctico Válido para reconocer objetos excesivamente complejos debido a un número excesivo de características o de clases Una vez seleccionado un espacio de características es necesario inferir una gramática que regule las posibilidades de relación de éstas.

Funciones de Decisión Funciones de decisión lineales Espacio de parámetros Funciones de decisión generalizadas Interpretación geométrica de las fronteras de decisión

Funciones de Decisión Lineales Decidir la pertenencia del objeto a las clases Dado un vector de características x,

Funciones de Decisión Lineales Caso n-dimensional Vectores de pesos y características

Funciones de Decisión Lineales Las clases cuya envolvente conexa no se corte se pueden separar mediante funciones de decisión lineales

Espacio de Parámetros Considere dos clases C1, C2 con dos patrones cada una Si las clases son linealmente separables ⇒ encontrar w=(w1,w2,w3)T tal que,

Espacio de Parámetros Si se considera el problema en el espacio de los parámetros en lugar del espacio de características. Cada inecuación representa la cara positiva de un plano que pasa por el origen de coordenadas. Cualquier vector w que caiga en la cara positiva de los patrones determinados por la clase 1 y en la negativa de los planos asociados a la clase 2 es solución válida del sistema de inecuaciones.

Espacio de Parámetros El número de planos viene limitado por el número de inecuaciones. Esta región (poliedro convexo) se generaliza a (n+1) dimensiones para vectores de dimensión n

Funciones de Decisión Generalizadas Las clases cuya envolvente conexa no se corte se pueden separar mediante funciones de decisión lineales

Funciones de Decisión Generalizadas Generalizar las funciones de decisión lineales Transformando las características x en x* mediante las funciones fi(x), el problema se reduce a una representación lineal.

Funciones de Decisión Generalizadas Funciones de decisión lineales: Funciones de decisión cuadráticas (polinomio de grado 2) De forma lineal,

Clasificadores Paramétricos Visión de Máquina Ingeniería en Automática Industrial

Clasificadores Paramétricos Las funciones de decisión se determinan a partir de las distribuciones estadísticas que caracterizan las clases. Dado un patrón desconocido x, este puede ser clasificado como perteneciente a una clase j de un conjunto de M clases. Esto se puede hacer usando un clasificador estadístico; como el clasificador de Bayes como función discriminante para dividir el espacio de características.

Clasificador de Bayes Objetivo: Minimizar la probabilidad de error en la asignación a clases, Pérdida Media en la decisión j = 1, 2,… M

Clasificador de Bayes La decisión a tomar es aquella que minimice la pérdida media. Se toma como función de pérdida

Clasificador de Bayes Regla de Decisión: Asignar a la clase Cl la que tenga una probabilidad a posteriori mayor. Asignar x a la clase Cj tal que:

Clasificadores No Paramétricos Entrenables Visión de Máquina Ingeniería en Automática Industrial

Perceptrón Para n componentes

Perceptrón

Funciones de Decisión con RN

TEMAS DE EXPOSICIÓN TEMA FECHA DE PRESENTACIÓN Visión estéreo Diciembre 10 Reconstrucción 3D Flujo óptico Diciembre 11 Visual Servoing Filtro de Kalman en el seguimiento de objetos Diciembre 17 Block Matching Lógica difusa y procesamiento de imágenes Diciembre 18