Red de Minería y Aprendizaje Grupo de Aprendizaje Automático Universidad de Oviedo en Gijón www.aic.uniovi.es/MLGroup Selección de Atributos en Aprendizaje.

Slides:



Advertisements
Presentaciones similares
Capítulo 2 Algoritmos.
Advertisements

Data Mining Minería de Datos Universidad Tecnológica Metropolitana
Jacqueline Chávez Cuzcano
Planificación de Monoprocesadores
DATA MINING MINERIA DE DATOS Gersom Costas.
Silvana Arias Carla Espinosa Livia Loaiza INGENIERIA EN SISTEMAS
COMPONENTIZACIÓN DE ALGORITMOS GENETICOS Y SU IMPLEMENTACIÓN EN UNA PLATAFORMA ABIERTA PARA APRENDIZAJE COMPUTACIONAL.
Definición Machine learning traducido al español significa el aprendizaje automático o también aprendizaje de las maquinas. A partir de esto podemos darle.
Tema 3 Revisión de diversos métodos robustos aplicados en algunos problemas fotogramétricos.
Modelado y simulación en Ingeniería Química. Manuel Rodríguez
Introducción al Diseño de Experimentos para el Reconocimiento de Patrones Capítulo 7: Máquinas de Vectores Soporte Curso de doctorado impartido por Dr.
SUPPORT VECTOR MACHINE SVM
Máquinas con Vectores de Soporte - SVM
Universidad Autónoma San Francisco
Taller: Inteligencia Computacional
RECONOCIMIENTO DE OBJETOS
Definición Los Algoritmos Genéticos son métodos adaptativos que pueden usarse para resolver problemas de búsqueda y optimización. los Algoritmos Genéticos.
APRENDIZAJE WIDROW- HOFF
REDES NEURONALES ARTIFICIALES
2- SIMPLEX.
Fundamentos de Programación Matemática y Casos de Estudio en Economía.
Tema 2: Métodos de ajuste
Maracaibo, 5 de Noviembre de 2007 Universidad del Zulia Facultad de Ingeniería Instituto de Cálculo Aplicado Universidad del Zulia Facultad de Ingeniería.
RECONOCIMIETO DE PATRONES
Programación Lineal Entera Antonio H. Escobar Z Universidad Tecnológica de Pereira – Colombia Posgrado en Ingeniería – Maestría/Doctorado.
Teoría de sistemas de Ecuaciones No lineales
Universidad de los Andes-CODENSA
Introducción Calculabilidad clásica Computación celular
EL PODER DE SOLVER.
Redes Neuronales Monocapa
CONSECUENCIAS DE LA OPCIÓN METODOLÓGICA EN LA PROGRAMACIÓN Y LA EVALUACIÓN Elena Rodríguez Halffter 27 de octubre de 2006 Palma de Mallorca.
Mario Francisco, Pastora Vega
Redes Neuronales Artificiales Autoorganizadas
1 Asignatura: Autor: Análisis Numérico César Menéndez Titulación: Planificación: Materiales: Conocimientos previos: Aproximación Ingeniero Técnico Informático.

Tipos de redes neuronales Perceptrón multicapa Redes de respuesta radial Competitivas Clasificación Mapa topológico.
Inicialización de Superficies Deformables mediante Elipsoides Generalizados R. Dosil, X. M. Pardo, A. Mosquera, D. Cabello Grupo de Visión Artificial Departamento.
Complejidad de los problemas de decisión
Importancia de Evaluar Sitios Web Diversas características y atributos de calidad de sitios Web tales como usabilidad, navegabilidad, seguridad, características.
Reconocimiento de Patrones
DEFINICIONES Sea (P) el siguiente problema de programación lineal:
COMPUTACION EVOLUTIVA Introducción. Computación Evolutiva: Computación Evolutiva: Enfoque alternativo para abordar problemas complejos de: Enfoque alternativo.
Programación lineal: 1- Introducción: dualidad, definiciones, holguras
Investigación de Operaciones (IO)
complejidad de un problema.
REDES NEURONALES.
1 Introducción a la Computación para Biólogos, Bioquímicos, Médicos, etc.
Programación Lineal Entera Antonio H. Escobar Z Universidad Tecnológica de Pereira – Colombia Posgrado en Ingeniería Maestría en Ingeniería Eléctrica.
Universidad Central de Venezuela Facultad de Ciencias Postgrado en Ciencias de la Computación Sistemas Distribuidos Albany Márquez.
Redes Neuronales Artificiales 2 - Aprendizaje
CARPLATE Reconocimiento del marco de la matrícula de un coche
Una introducción a la computación evolutiva
Deds Funciones kernel en espacios discretos. Aplicación a la evaluación del riesgo de crédito* La tesi que presentem a continuacio titulada: “Estructures.
Introduccion a las Redes de Funciones de Base Radial
INTRODUCCIÓN A LA INTELIGENCIA ARTIFICIAL Y LOS SISTEMAS EXPERTOS
Sabemos reconocerlas, y calcularlas como soluciones de sistemas de ecuaciones, o de desigualdades Buscamos métodos de cálculo generales y eficientes Problemas.
Dualidad Multiplicadores Dualidad Aplicación práctica:
Sistemas Expertos Integrantes Javier Farfán Katherine Jara Héctor Gatica.
L A ESTIMACION DE PARAMETROS 1. /31 CONTENIDO Principio fundamental de la estimación de parámetros Un metodo grafico para la estimacion de parametros.
Introducción a las Ingenierías de la Información
DATA MINING KAROL PARDO MIGUEL VALCERO CORPORACION UNIVERSITARIA MINUTO DE DIOS.
Diseño Orientado al Flujo de Datos
Maracaibo, 26 de Mayo de 2006 Universidad del Zulia Facultad de Ingeniería División de Postgrado Maestría en Computación Aplicada Universidad del Zulia.
INVESTIGACION OPERATIVA
-.Estudio de pérdidas fijas y variables en transformadores. Soluciones técnicas mediante control adaptativo.- Autor: Fernando J. Espí García. Ingeniero.
Marco de Trabajo para Indexación, Clasificación y Recopilación Automática de Documentos Digitales Javier Caicedo Espinoza Gonzalo Parra Chico.
La Programación Lineal es un procedimiento o algoritmo matemático mediante el cual se resuelve un problema indeterminado, formulado a través de ecuaciones.

Support Vector Machines.  Vocabulario básico: ◦ Repositorio de datos ◦ Atributos y Instancias ◦ Aprendizaje supervisado  Clasificación (Clase) ◦ Aprendizaje.
Licenciatura en Psicopedagogía: Métodos, Diseños y Técnicas de Investigación Psicológica Tema 9 Fiabilidad de las puntuaciones.
Transcripción de la presentación:

Red de Minería y Aprendizaje Grupo de Aprendizaje Automático Universidad de Oviedo en Gijón Selección de Atributos en Aprendizaje de Preferencias (usando SVM)

Red de Minería y Aprendizaje Índice de la presentación Aprendizaje de Preferencias Máquinas de Vectores Soporte SVM para Aprendizaje de Preferencias Selección de Atributos Resultados Experimentales Conclusiones

Red de Minería y Aprendizaje Aprendizaje de Preferencias Aplicaciones típicas:  Calidad de productos  Recuperación de información  Interfaces adaptativas Problemas en los que los métodos de regresión fracasan ¿Por qué fracasan?  Las calificaciones proceden de diferentes fuentes (distintas escalas)  Tienen un sentido relativo

Red de Minería y Aprendizaje Aprendizaje de Preferencias

Red de Minería y Aprendizaje Aprendizaje de Preferencias No intenta predecir las etiquetas numéricas Datos: conjuntos de relaciones de preferencia { (v i, u i ) : i=1..l } donde v i es considerado mejor que u i (v i > u i ) Reflejan el sentido relativo de las calificaciones Soluciones:  Clasificadores: no transitivos  Funciones de Preferencia

Red de Minería y Aprendizaje Funciones de Preferencia f:  d   tal que f(v) > f(u) siempre que v > u Si consideramos f lineal, en ese caso f w (x) = + w,x, + w,v, > + w,u, (v-u), + (u-v), -

Red de Minería y Aprendizaje Máquinas de Vectores Soporte Introducidas en los 90 por Vapnik Se basan en la Minimización del Riesgo Estructural (SRM) 92: maximización del margen y uso de kernels 95: margen blando Rápido desarrollo: algoritmos más eficientes, diseño de kernels “No hay nada más práctico que una buena teoría”

Red de Minería y Aprendizaje Maximización del Margen

Red de Minería y Aprendizaje Hiperplano Óptimo

Red de Minería y Aprendizaje Problema Primal Maximizar el margen equivale a minimizar la norma Minimizar: Sujeto a:

Red de Minería y Aprendizaje Teoría de Optimización Se usa la teoría de Lagrange (o de Kuhn-Tucker) Lagrangiana: Diferenciar y sustituir

Red de Minería y Aprendizaje Problema Dual Maximizar: Sujeto a: ¡Podemos usar KERNELS!

Red de Minería y Aprendizaje Propiedades de la solución Margen Problema de Optimización cuadrática:  convexidad  no hay mínimos locales  resoluble en tiempo polinomial Dualidad: permite el uso de kernels Esparsidad: sólo son necesarios los puntos cerca del margen (vectores soporte)

Red de Minería y Aprendizaje Margen blando

Red de Minería y Aprendizaje Margen blando Minimizar: Sujeto a: Maximizar: Sujeto a:

Red de Minería y Aprendizaje Clasificadores no-lineales Solución 1: crear una red neuronal Problemas:  Topología  Mínimos locales  Muchos parámetros Solución 2: transformar (kernel) el espacio de entrada en un espacio de características, y aplicar un clasificador lineal. Hay que decidir:  qué espacio de características es el adecuado para el problema  el grado de sobreajuste (C)

Red de Minería y Aprendizaje Clasificadores no-lineales Maximizar: Sujeto a: Kernel Polinómico Kernel Gaussiano Kernel Perceptrón Multicapa

Red de Minería y Aprendizaje Espacio de características Input spaceFeatures space K

Red de Minería y Aprendizaje Kernels

Red de Minería y Aprendizaje SVM puede resolver problemas de… Clasificación binaria Multiclasificación Regresión Clustering y … de Aprendizaje de Preferencias

Red de Minería y Aprendizaje SVM para Preferencias [Herbrich] Minimizar: Sujeto a: Dual:

Red de Minería y Aprendizaje FSS en Aprendizaje de Preferencias Kernel Lineal Ranking de conjunto de atributos: permite construir d subconjuntos de atributos  Relieve (Kohavi, John, 97), modificación de Relief (Kira, Rendell, 92)  RFE (Recursive Feature Elimination) (Guyon et al.,02) Selección del mejor subconjunto:  Cross-Validation  ADJ (Schuurmans, 97) métrica entre modelos

Red de Minería y Aprendizaje RFE (Recursive Feature Elimination) Backward Feature Elimination: borra un atributo por iteración Criterio (kernel lineal): menor (w i ) 2 siendo w i el coeficiente del atributo i en el hiperplano inducido por SVM Obtiene una lista ordenada de subconjuntos de atributos

Red de Minería y Aprendizaje RFE (Recursive Feature Elimination) Funcion SVM-RFE(T, fs): Una lista ordenada de subconjuntos de atributos //T: Conjunto de relaciones de preferencias //fs: Conjunto de atributos |fs|=d //L: Lista ordenada de subconjuntos de atributos F d = fs; L = [ F d ]; //Inicialmente, un subconjunto con todos los atributos Para cada j desde d hasta 2 do w = SVM( T ); //Se entrena SVM r = //Criterio de selección F j-1 = F j \ f r ; //Se borra el atributo r de F j L = L + [F j-1 ]; //Se añade el subconjunto con el resto de attr. T = {x' i : x' i is x i 0 T con f r borrado}; //Borra atributo r de T FinPara Retorna L; //L: lista ordenada de subconjunto de atributos FinFuncion

Red de Minería y Aprendizaje ADJ (Schuurmans) Permite la selección entre múltiples hipótesis ordenadas por su complejidad Adaptable para técnicas FSS Define una métrica en el espacio de hipótesis La distancia entre dos hipótesis w Fi y w Fj es: err(w Fi (x), w Fj (x)) mide las discrepancias en un punto del espacio de ejemplos

Red de Minería y Aprendizaje ADJ (Schuurmans) Hipótesis seleccionada: d’ se mide las discrepancias en las predicciones sobre dos conjuntos T y U

Red de Minería y Aprendizaje Resultados Experimentales Problema real: Calificación de bovinos Idea: morfología del animal debe servir para evaluar la capacidad como productor de carne Sistema:  Obtención de medidas morfológicas (técnicas de Visión Artificial)  Calificación (ordenación) por grupos de expertos  Aplicación de sistemas de aprendizaje de preferencias Proceso costoso: la selección de atributos debe jugar un papel decisivo

Red de Minería y Aprendizaje Resultados Experimentales

Red de Minería y Aprendizaje Resultados Experimentales

Red de Minería y Aprendizaje Resultados Experimentales Relief + CVRelief +ADJRelief +QADJSVM %Acie.#Atrs%Acie.#Atrs%Acie.#Atrs%Acie. BULLS-Z-12095,439,394,4210,594,425,994,17 BULLS-Z-14195,4412,494,4213,294,678,294,68 BULLS-L-16595,6920,895,4418,395,4414,694,42 BULLS-L-19396,4525,495,6925,295,6922,194,68 COWS-Z ,292,4318,392,4315,293,19 COWS-Z-14193,1916,392,820,792,812,292,81 COWS-L-16593,1942,693,5651,193,3718,293 COWS-L-19393,3723,393,562192,819,493 Media94,4720,6694,0422,393,9513,2393,74

Red de Minería y Aprendizaje Resultados Experimentales RFE+CVRFE+ADJRFE+QADJSVM %Acie.#Atrs%Acie.#Atrs%Acie.#Atrs%Acie. BULLS-Z-12096,466,495,9614,596,219,194,17 BULLS-Z-14196,693,996,966,896,76,494,68 BULLS-L-16596,24,595,724,195,446,694,42 BULLS-L-19396,75,795,951095,956,294,68 COWS-Z-12094,144,993,574,293,574,293,19 COWS-Z-14193,954,293,1918,793,575,492,81 COWS-L-16594,334,994,147,694,25,8693 COWS-L-19393,566,593,1810,293,186,393 Media95,255,1394,8312,0194,856,2693,74

Red de Minería y Aprendizaje Resultados Experimentales RFE+CVRFE+ADJRFE+QADJSVM %Acie.#Atrs%Acie.#Atrs%Acie.#Atrs.%Acie. A ,151096,851296,851283,6 A ,951096,951096,951081,3 A ,95794,451194,451177,15 A , ,151374,3 A ,23977,654377,654371,9 A ,32294, ,65 A ,252292,952592,952582,55 A ,42193,452293,452278,7 A ,555678,555674,1 A ,154970, ,1 A ,853894,53194,53182,45 A ,93186,255192,753280,8 A ,44180,159288,453277,85 A ,655375,810783,82975,45 A ,856372,858373,852271,1 A ,54494,154094, A ,954486,954486,954481,35 A ,37177,552678,25 A ,957376,957375,4 A ,755271,058370,755872,65 Media85,0441,0584,4954,186,5432,377,83

Red de Minería y Aprendizaje Conclusiones El aprendizaje de preferencias resuelve tareas en las que la regresión fracasa Las máquinas de vectores soporte pueden aprender preferencias Se están desarrollando técnicas de selección de atributos para SVM Trabajo futuro, FSS para kernels no lineales

Red de Minería y Aprendizaje Grupo de Aprendizaje Automático Universidad de Oviedo en Gijón Selección de Atributos en Aprendizaje de Preferencias (usando SVM)