RECONOCIMIETO DE PATRONES

Slides:



Advertisements
Presentaciones similares
Diseño y análisis de algoritmos
Advertisements

Tema: Decibilidad Integrantes: Ileana Rdguez Soto
Master en Recursos Humanos
K-NN: K vecinos más cercanos
TEÓRIA DE CONJUNTOS Profesor: Rubén Alva Cabrera.
UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO FACULTAD DE INGENIERIA DIVISIÓN DE INGENIERÍA ELÉCTRICA COMPUTACIÓN PARA INGENIEROS NOTA IMPORTANTE: Para complementar.
UNIVERSIDAD ESTATAL DE MILAGRO Curso de Nivelación y Admisión 2012
Capítulo I. Introducción
RECONOCIMIENTO DE OBJETOS
Clustering (Agrupamiento)
ANÁLISIS DISCRIMINANTE
DERIVADAS PARCIALES Gráficas.
Aplicaciones de la derivada Resuelve problemas de optimización aplicando las ideas básicas relacionadas con extremos de funciones de una variable Bloque.
CONCEPTOS BÁSICOSDE ESTADÍSTICA.
Estrategias de comprensión lectora
Estadística Descriptiva Tema I. Conceptos Básicos
INTEGRALES.
FUNDAMENTOS DE DATA MINING Y SUS APLICACIONES N. QUEIPO, S. PINTOS COPYRIGHT 2000 CLASIFICACIÓN NO SUPERVISADA.
Tema 2: Métodos de ajuste
Conjunto de los números reales
Representación del Conocimiento
FUNCIONES DE DENSIDAD DE PROBABILIDAD
TRANSFORMACIONES LINEALES PARA REDES NEURALES ARTIFICIALES
Sesión 2: Métodos Probabilísticos Básicos
Población y Muestra.
A TRAVÉS DE LOS ESTÁNDARES DE EXCELENCIA EN MATEMÁTICAS Estándar 2:
Ejemplo de aplicación de las ANN
TEMA Nº 1 Conjuntos numéricos.
Mt. Martín Moreyra Navarrete.
3. Funciones discriminantes para la f.d.p normal.
Caso: Situación de las Comunidades Autónomas españolasen cuanto a indicadores de bienestar En el periódico “El País” del día 17 de enero de 2002 se publicó.
Redes Competitivas.
Unidad V: Estimación de
ESTADISTICA TEMA y 223.
Datos: Estadística.
Técnicas Supervisadas Aproximación no paramétrica Reconocimiento de Patrones 2003 Notas basadas en el curso Reconocimiento de Formas de F.Cortijo, Univ.
Estimación Sea una característica, un parámetro poblacional cuyo valor se desea conocer a partir de una muestra. Sea un estadístico ( función.
Clasificación Guía Ramírez Sandra Paola.
1 Introducción a la Computación para Biólogos, Bioquímicos, Médicos, etc.
Medidas de Posición y Centralización Estadística E.S.O.
ESTADÍSTICA DESCRIPTIVA
Tratamiento de datos y azar
Estadísticas Datos y Azar
MENSURABILIDAD Y VARIABILIDAD
UNIDAD III DESCRIPTORES NUMÉRICOS
Método para evaluar valores y cualidades
Unidad V: Estimación de
Sabemos reconocerlas, y calcularlas como soluciones de sistemas de ecuaciones, o de desigualdades Buscamos métodos de cálculo generales y eficientes Problemas.
Universidad Nacional del Nordeste Facultad de Humanidades CARRERA DE ESPECIALIZACION TECNOLOGIAS DE LA INFORMACION GEOGRAFICA (TIG) Resoluciones 511/10-CS.
Muestreos.
Reconocimiento de caras usando Histogramas de Gradientes Orientados
DATA MINING KAROL PARDO MIGUEL VALCERO CORPORACION UNIVERSITARIA MINUTO DE DIOS.
ANALISIS DE VARIABLES CUANTITATIVAS EN EL PROCESO DE INVESTIGACIÓN
Las fórmulas más usadas en excel
LIC. JOSEPH RUITON RICRA
CLASIFICACIÓN SUPERVISADA
MEDIDAS DE TENDENCIA CENTRAL
Aplicación JAVA implementando Arboles de Decisión
Conceptos Básicos y Estadística Descriptiva
Muestreo Probabilístico
Aspectos generales de la investigación educativa en el SNIT
DETECCION DE SEÑALES BINARIAS EN RUIDO GAUSSIANO El criterio de toma de decisión fue descrito por la ecuación Un criterio muy usado para escoger el nivel.
Inferencia Estadística Conceptos Previos. Conceptos Previos Población: Es la colección de toda la posible información que caracteriza a un fenómeno aleatorio.
COLEGIO VIRTUAL GERSAIN
Introducción al Cálculo Infinitesimal Tema 1: Conceptos básicos José R. Narro Introducción al Cálculo Infinitesimal Tema 1: Conceptos básicos José R. Narro.
Support Vector Machines.  Vocabulario básico: ◦ Repositorio de datos ◦ Atributos y Instancias ◦ Aprendizaje supervisado  Clasificación (Clase) ◦ Aprendizaje.
PROCEDIMIENTO DE MUESTREO
REDES NEURONALES ARTIFICIALES (SOM - Kohonen)
Ecuaciones Diferenciales Parciales
PROGRAMA DE INNOVACIÓN Y DESARROLLO TECNOLÓGICO PRODUCTIVO – CONVENIO : SENA-NEW STETIC Proyecto: Sistema de visión industrial para inspección.
Transcripción de la presentación:

RECONOCIMIETO DE PATRONES

El reconocimiento de patrones es una área de la tecnología conocido como Aprendizaje de Maquinas (Machine Learning) o Aprendizaje Automático. Clasificar un patrón de prueba en una determinada clase ó categoría Se determina la clase del patrón de prueba comparándolo con un conjunto previo (de entrenamiento), ya clasificado

El objetivo es clasificar patrones en base a un conocimiento a priori o información estadística extraída de los patrones. Los patrones a clasificar suelen ser grupos de medidas u observaciones, definiendo puntos en un espacio multidimensional apropiado Un sistema de reconocimiento de patrones completo consiste en un sensor que recoge las observaciones a clasificar, un sistema de extracción de características que transforma la información observada en valores numéricos o simbólicos, y un sistema de clasificación o descripción que, basado en las características extraídas, clasifica la medición.

EJEMPLOS Reconocimiento del rostro de una persona Reconocimiento de huellas digitales Identificar la llave para abrir una chapa Agrupación de palabras para hacer sentido en una frase Olores para saber si una naranja está fresca o podrida.

ENFOQUES: Sintáctico Estructural: Utiliza patrones físicos. Una representación geométrica Estadístico: Utiliza patrones abstractos, determinados por sus características.

Teoría de Conjuntos -Extensión: Se tiene la lista de elementos del conjunto y se determina si el elemento incógnita está en la lista (conjuntos finitos) -Intención: Se tiene la propiedad que caracteriza a los elementos del conjunto y se verifica si el elemento incógnita cumple la propiedad

Ejemplos: a) C1 = { 2,4,6,8 } C2 = { 1,3,5,7 } 3 ? Se determina a cuál conjunto pertenece el 3 b) C1 = números pares C2 = números impares 8 ? Se utiliza la propiedad X mod 2 para determinar la pertenencia c) C1 = { , } C2 = { , } ? Se utiliza la propiedad de convexidad d) C1 = 1 (1|0)* 0 C2 = 0 (0|1)* 1 C3 = …. 11011010 ? Se utiliza la regularidad de la expresión regular

Ejemplos: e) Diagnóstico médico: Sobre la base de informaciones almacendas en Historias Clínicas se tiene una sucesión de pacientes: P1, P2, P3,…,Pm1 que padecen la enfermedad E1 Pm1+1, Pm1+2, …, Pm2 que padecen la enfermedad E2 y asi sucecivamente Px ? Problemas - No se descarta que un paciente tenga más de una enfermedad - No se tiene el listado completo de pacientes que padecieron cada una de las enfermedades - No se tiene una propiedad que caracterice a cada enfermedad

Punto de Vista Formal: - Consideremos un universo de objetos admisibles M - K1, K2 ,…, Kr subconjuntos propios, donde Ki TM - R = { X1, X2, …, XN } Conjunto de rasgos ó características que describen a los objetos - Cada rasgo posee un conjunto de valores admisibles, incluyendo ausencia de información Ejemplo: R = { color, área, forma } color = {rojo, verde, azul } área = número real forma = { convexa, no convexa }

Punto de Vista Formal: - Una descripción estándar de un objeto O es un n-uplo: I(O) = ( X1(O), X2(O), … Xn(O) ) La descripción es completa si todos los valores de los rasgos son conocidos. Ejemplo: I(O) = ( verde, 23.5, convexo )

Función de comparación: Permite comparar individualmente los rasgos de dos obejtos. Existe una función de comparación por cada rasgo (N rasgos, N funciones): Ci ( Xi(Op), Xi(Oq) ) Y { 0,1 } Estas N funciones sirven para comparar individualmente los rasgos de los objetos, pero no para decidir si los objetos son semejantes

R-uplo de Pertenencia de O Función de semejanza: Permite comparar dos objetos en base a los valores de sus rasgos. S ( I(Op), I(Oq) ) Y { 0,1 } R-uplo de Pertenencia de O P(O) = ( P1(O), P2(O),…,Pr(O) ) Se define como un vector de r valores que indican la pertenencia ó no del Objeto O a cada una de las r clases (K1, K2 ,…, Kr ) Cada valor Pi(O) es 1 ó 0 si O pertenece ó no a Ki

Información Estándar de Clases: Es la información que recoge la descripción de todos los objetos conocidos por cada clase I(Ki)= ( I(Oi1), P(Oi1), I(Oi2), P(Oi2)…, I(Oiz), P(Oiz) ) Matriz de aprendizaje (de control ó muestra): I0 = ( I(K1), I(K2), …, I(Kr) )

Ejemplo: Supongamos que tenemos 5 clases (A,B,C,D,E) (r=5) Y los siguientes objetos con sus rasgos y sabemos, a priori, que clase pertenece cada objeto O1 = (rojo,4.2,convexo) Clase A O2 = (verde,3.5,convexo) Clase A O3 = (rojo, 2, no convexo) Clase B O4 = (verde, 1.3, no convexo) Clase B O5 = (rojo, 6.9, convexo) Clase C O6 = (verde, 8, no convexo) Clase C O7 = (azul,10, convexo) Clase D O8 = (azul, 9, no convexo) Clase E

Matriz de aprendizaje: I(O) P(O) (rojo, 4.2, convexo), (1, 0, 0, 0, 0) (verde,3.5,convexo), (1, 0, 0, 0, 0) (rojo, 2, no convexo), (0, 1, 0, 0, 0) (verde, 1.3, no convexo), (0, 1, 0, 0, 0) (rojo, 6.9, convexo), (0, 0, 1, 0, 0) (verde, 8, no convexo), (0, 0, 1, 0, 0) (azul,10, convexo), (0, 0, 0, 1, 0) (azul, 9, no convexo), (0, 0, 0, 0, 1)

El problema ahora consiste en: Dado una matriz de aprendizaje (ó control) y los rasgos de un conjunto de objetos de los cuales no conocemos sus clases, encontrar un Algoritmo que permita clasificarlos. A ( Io, I(O) ) = ( P1(O), P2(O),…,Pr(O) )

Problemas de Reconocimiento de Patrones: 1) Selección de rasgos: -Mejorar la clasificación (más rápido, menos información) -Para encontrar mejores soluciones, ya que los objetos se describen de manera más eficiente

Problemas de Reconocimiento de Patrones: 2) Clasificación Con aprendizaje ó supervisada: Se conoce que el universo de objetos se agrupan en las r clases de las cuales tenemos una muestra que conocemos a que clases pertenecen (matriz de aprendizaje)

Problemas de Reconocimiento de Patrones: 2) Clasificación Con aprendizaje parcial ó parcialmente supervisada: Se conoce que el universo de objetos, pero existen clases para las cuales no tenemos objetos en la matriz de aprendizaje. No tenemos información de todas las clases.

Problemas de Reconocimiento de Patrones: 3) Agrupamiento (cluster analysis) Tenemos los objetos sin clasificar. No conocemos las clases y el problema consiste entonces en agruparlos por rasgos “comunes”. También llamado clasificación no supervisada.

Ejemplos de funciones de comparación de rasgos: Dependen del dominio de los valores de los rasgos Por igualdad: Cuando los dos rasgos son iguales Por intervalo: Cuando los dos rasgos se encuentran en un mismo intervalo Por diferencia: Cuando el valor absoluto de la diferencia de los dos rasgos es menor que un ε (márgen de error) Por conjunto: Cuando los dos rasgos pertenecen al mismo conjunto Por relación: Cuando la división de la diferencia de los rasgos entre la diferencia entre los valores máximos y mínimos es menor que un ε (márgen de error)

La función de semejanza S ( I(Op), I(Oq) ) Debe elegirse de acuerdo a las funciones de comparación de rasgos. Por ejemplo para decidir la semejanza ó no podría tomarse el criterio de la cantidad de rasgos que fueron “iguales” (cantidad máxima que pueden ser diferentes y cantidad mínima que deben ser iguales)

Selección de rasgos El problema consiste en determinar para un conjunto de objetos, que conocemos su clasificación cuál es el conjunto de rasgos mínimos que debemos seleccionar para realizar correctamente la clasificación. - Testores Típicos Algoritmo BT Zhuravliov (con peso informacional de variables)

Clasificación Algunos algoritmos con aprendizaje: - KORA-3 (2 clases, rasgos booleanos) - Conjunto de representantes (r clases no disjuntas) - NN (Nearest Neighbor) (r clases) - Medios o centros - Superficies de separación (perceptron)

Clasificación Algunos algoritmos sin aprendizaje: - CLASS (sin aprendizaje, clustering) - Análisis discriminante - Clasificación de Bayes (enfoque estadístico) - Vector Quantization - Mapas topológicos de Kohonen

Clasificación Algoritmo NN (Nearest Neighbour) Fase de Aprendizaje: - Se determina, en primer lugar, en cuantas clases diferentes vamos a realizar la clasificación. - Se determinan los rasgos que caracterizan a los objetos - Se busca una muestra de objetos para cada clase y se le calculan sus rasgos, para formar la matriz de aprendizaje

Clasificación Algoritmo NN (Nearest Neighbour) Fase de Clasificación: - Se calculan los rasgos del objeto y se calcula la "distancia" a cada uno de los objetos de la muestra - La clasificación del nuevo objeto corresponde a la clase a la que pertenece aquel objeto de la muestra cuya distancia sea la mas cercana al nuevo objeto

Ejemplo: Los objetos son figuras geométricas. Tres clases A, B y C que representan objetos redondos, semi-alargados y alargados respectivamente Tendremos un solo rasgo, calculado en base a la división entre el diámetro mayor y menor del objeto Tendremos un conjunto de objetos cuyos rasgos y clasificación conocemos

Supongamos que queremos clasificar un nuevo objeto cuyo rasgo es igual a: 1.6 Habría que calcular la “distancia” entre ese objeto y los de la muestra para determinar cuál es el más cercano. En este caso el mas cercano es el que tiene como rasgo 1.737, que pertenece a la clase B Por tanto: La clase a la que pertenece el nuevo objeto es la B

Distancia: Tomaremos como media de distancia entre los dos obejtos el valor absoluto de la resta de sus rasgos. En este caso, porque cada objeto posee un solo rasgo. Para el caso de N rasgos podemos utilizar la distancia Euclidiana Distancia(Op,Oq) = ( Xi(Op) - Xi(Oq) ) 2