La descarga está en progreso. Por favor, espere

La descarga está en progreso. Por favor, espere

Selección de Características

Presentaciones similares


Presentación del tema: "Selección de Características"— Transcripción de la presentación:

1 Selección de Características
INTRODUCCION A TECNICAS DE MINERIA DE DATOS Selección de Características error del clasificador número de características número de ejemplos Mg. Samuel Oporto Díaz

2 Mapa Conceptual – Minería de Datos
Exploración y transformación Reconocimiento de Patrones Evaluación e Interpretación Fuentes de datos Pre-procesamiento Data cruda Data Objetivo Data Pre-procesada Data Transformada Evaluación y Entendimiento DHW Patrones DBMS Texto Muestreo y Selección Muestreo Selección Limpieza de Datos Limpieza de datos Datos que no existen Datos no clasificados Identificación de extremos Eliminación de Ruido Transformación de Datos Reducción de Dimensionalidad Creación de Características Normalización de Datos Variables Correlacionadas Discretización Modelado Descripción Clasificación Regresión Agrupamiento Asociación Secuenciación Detección de Desviación Reportes y Visualización

3 Tabla de Contenido Introducción 4 Pre-procesamiento 9
Reducción de Datos Selección de Instancias 36 Selección de Características 40 Ejemplo Planteamiento del Problema 49 Procedimiento de solución 53 Algoritmos Fuentes de Datos Diseño de Experimentos 66 Resultados Experimentales 68

4 INTRODUCCION

5 Proceso de la Minería de Datos

6 Proceso de Minería de Datos
Pre-procesamiento. Problemas de pre-procesamiento como un problema de búsqueda Minería de Datos. Aprendizaje/extracción de conocimiento como problemas de optimización y búsqueda

7 Preparación y pre-procesamiento de datos

8 Preparación de Datos El propósito fundamental de la preparación de los datos es la manipulación y transformación de los datos sin refinar para que la información contenida en el conjunto de datos pueda ser descubierta o estar accesible de forma más fácil.

9 PRE-PROCESAMIENTO

10 Importancia Los datos reales pueden ser impuros, pueden conducir a la extracción de patrones/reglas poco útiles. Esto se puede deber a: Datos Incompletos: falta de valores de atributos, Datos con Ruido Datos inconsistentes (incluyendo discrepancias)

11 Importancia La preparación de datos puede generar un conjunto de datos más pequeño que el original, lo cual puede mejorar la eficiencia del proceso de Minería de Datos. Esta actuación incluye: Selección relevante de datos: Eliminando registros duplicados Eliminando anomalías, Reducción de Datos: Selección de características muestreo o selección de instancias Discretización.

12 Importancia La preparación de datos genera “datos de calidad”, los cuales pueden conducir a patrones/reglas de calidad. Por ejemplo, se puede: Recuperar información incompleta. Eliminar outliers Resolver conflictos,

13 Importancia Datos de baja calidad puede llevar a modelos de minería de datos de baja calidad. Decisiones de calidad deben ser basadas en datos de calidad. La preparación de datos (limpieza, transformación, ….) puede llevar la mayor parte del tiempo de trabajo en una aplicación de minería de datos (90%).

14 ¿Qué incluye la Preparación de Datos?
Engloba a todas aquellas técnicas de análisis de datos que permite mejorar la calidad de un conjunto de datos de modo que las técnicas de extracción de conocimiento / minería de datos puedan obtener mayor y mejor información (mejor porcentaje de clasificación, reglas con más completitud, etc.)

15 ¿Qué incluye la Preparación de Datos?
Es difícil dar una lista exacta de tareas o tópicos. Diferentes autores dan diferentes tareas y clasificaciones. Se pueden incluir las siguientes tareas o tópicos. Limpieza de datos Integración de datos Transformación de datos Reducción de datos

16 ¿Qué incluye la Preparación de Datos?

17 Limpieza de datos Resuelve redundancias consecuencia de la integración
Chequea y resuelve problemas de ruido, valores perdidos, elimina outliers, Resuelve inconsistencias/conflictos entre datos

18 Limpieza de Datos Outliers
Son objetos/datos con características que son considerablemente diferentes de la mayoría de los otros datos/objetos del conjunto.

19 Limpieza de Datos Datos con ruido. Suavizado

20 Limpieza de Datos Ejemplo de inconsistencias
Presencia de discrepancias en datos Edad=“42” Fecha de Nacimiento=“03/07/1997”

21 Integración de Datos Obtiene los datos de diferentes fuentes de información Resuelve problemas de representación y codificación Integra los datos desde diferentes tablas para crear

22 Transformación de Datos
Los datos son transformados o consolidados de forma apropiada para la extracción de información. Diferentes vías: Sumarización de datos Operaciones de agregación, etc. Aplicación de funciones

23 Ejemplos de Transformación de Datos
Normalización min-max Normalización z-score Normalización por escala decimal donde j es el entero más pequeño tal que max(| v’|) < 1

24 Reducción de Datos Selecciona/extrae datos relevantes para la tarea de la minería de datos/extracción de información. Datos originales Datos Reducidos

25 Reducción de Datos Diferentes vías para la Reducción de Datos:
Selección de Características Selección de Instancias Agrupamiento / Compactación Discretización

26 REDUCCION DE DATOS

27 Reducción de Datos

28 Selección de Características
La SC pretende elegir atributos que sean relevantes para una aplicación y lograr el máximo rendimiento con el mínimo esfuerzo. El resultado de la SC sería: Menos datos  los algoritmos pueden aprender más rápidamente Mayor exactitud  el clasificador generaliza mejor Resultados más simples  más fácil de entender SC y Transformación (extracción y construcción)

29 Selección de Características
Var 1 Var 5 Var 13

30 Selección de Características
La SC se puede considerar como en problema de búsqueda Los Algoritmos Evolutivos y las diferentes meta-heurísticas se han utilizado para este problema.

31 Proceso

32 Selección de Instancias
La SI pretende elegir los ejemplos que sean relevantes para una aplicación y lograr el máximo rendimiento. El resultado de la SC sería: Menos datos  los algoritmos pueden aprender más rápidamente Mayor exactitud  el clasificador generaliza mejor Resultados más simples  más fácil de entender SI y Transformación (compactación/agrupamiento)

33 Ejemplos de diferentes tamaños
8000 puntos puntos puntos

34 Agrupamiento Compactación mediante el análisis de clusters

35 Discretización Divide el rango de atributos continuos (numéricos) en intervalos Almacena solo las etiquetas de los intervalos Importante para reglas de asociación y clasificación Ejemplo:

36 SELECCIÓN DE INSTANCIAS

37 Selección de Instancias

38 Muestreo

39 Muestreo

40 SELECCIÓN DE CARACTERÍSTICAS

41 El Problema Se desea clasificar ejemplos de determinados objetos en una de varias categorías o clases preestablecidas. La tarea de clasificación de patrones consiste en construir un mapa de relaciones entre el espacio de características y el conjunto de las clases, de modo de poder reconocer a qué clase corresponde cualquier patrón de entrada representado por un vector de características. En muchos otros problemas de clasificación no se conoce a priori, por falta de una teoría sólida establecida, cuáles son las características relevantes que permiten discriminar entre diversas categorías.

42 El problema El problema de la selección de características consiste en seleccionar un subconjunto de m características de entre un conjunto original de n características candidatos , bajo algún criterio de desempeño. Hay un total de de tales subconjuntos. El número de posibilidades crece exponencialmente, haciendo impráctica la búsqueda exhaustiva, aun para valores moderados de n.

43 Maldición de la dimensionalidad
error del clasificador número de características número de ejemplos

44 Objetivos reducir la complejidad del clasificador y su implementación en hardware/software. compresión de información (eliminar características redundantes e irrelevantes). reducir el costo de medición al disminuir el número de características. proveer una mejor clasificación debido a efectos por tamaño finito de la muestra.

45 Ejemplos de datasets Aplicaciones donde se fusionan datos provenientes de múltiples sensores. Integración de múltiples modelos, donde se juntan los parámetros de diferentes modelos matemáticos para propósitos de clasificación. Por ejemplo, combinación de características de diferentes modelos de textura en imágenes. Aplicaciones de data mining, donde el objetivo es recuperar las relaciones escondidas entre un gran número de características.

46 Métodos Un método de selección de características típicamente requiere de los siguientes ingredientes: Generación de subconjuntos, que corresponde a un procedimiento de búsqueda. Un criterio de evaluación J para comparar subconjuntos de características. Un criterio de parada, típicamente un umbral de significancia o la dimensión del espacio final de características.

47 Proceso

48 Comparación de cuatro técnicas de selección de características envolventes para procesos de clasificación.

49 PLANTEAMIENTO DEL PROBLEMA

50 Selección de Características
La selección de características se encuentra dentro de la etapa de preparación de datos dentro de un proceso de minería de datos.

51 Selección de Características
Encontrar un subconjunto de características Sm’ del conjunto inicial de características Sm tal que logren minimizar el error de un clasificador. Se trata de reducir la dimensionalidad de los patrones de entrada Sm. Sm’ se construye eliminando las variables redundantes o las que no aportan suficiente información al clasificador.

52 Selección de Características
Si se evalua todo el espacio de posibles combi-naciones, el costo computacional es muy alto Si n es la cantidad de características identificadas y m es la cantidad de características deseadas, el número total de posibles subconjuntos a evaluar es: Si n = m; 2n

53 PROCEDIMIENTO DE SOLUCION

54 Proceso de Selección de Características
Filtro Envolvente Híbrido B. Optima B. Sub-optima B. Aleatoria B. Heurística e: error del clasificador Clasificador

55 Generación del Sub-Conjunto
Búsqueda exhaustiva Búsqueda secuencial hacia delante. Búsqueda secuencial hacia atrás. Búsqueda Aleatoria (BA). Búsqueda Aleatoria Optimizada (BAO) Búsqueda Mejor Primero (BMP) Búsqueda Genética (BG) Optima Sub-optima Aleatoria Heurística

56 Evaluación del Sub-Conjunto
Filtro. Independientes del algoritmo de aprendizaje. Componente principal, entropía. Envolvente. Usan el mismo algoritmo para escoger el sub-conjunto como para el aprendizaje. Búsqueda Aleatoria, Búsqueda Aleatoria Optimizada, Búsqueda Mejor Primero, Búsqueda Genética. Híbridos. Filtro + Envolvente.

57 error del clasificador
Criterio de Paro ¿Cuándo detener la búsqueda? : error del clasificador

58 ALGORITMOS

59 Algoritmos de Búsqueda
BUSQUEDA ALEATORIA (BA) Realiza una búsqueda sobre un porcentaje de todo el espacio de sub-conjuntos posibles, seleccionados aleatoriamente. Es una búsqueda de tipo exhaustivo. BUSQUEDA ALEATORIA OPTIMIZADA (BAO) Dado un subconjunto de características, si al quitar una característica. error sube  relevante <fracaso> error baja  irrelevente <exito> Se pretende eliminar las irrelevantes.

60 Algoritmos de Búsqueda
BUSQUEDA MEJOR PRIMERO (BMP) Usa un árbol de búsqueda, de tal forma que la característica de mejor evaluación inicial sea la primera en ser considerada como parte del subconjunto óptimo de características. BUSQUEDA GENÉTICA (BG) Hace uso de un algoritmo genético. El objetivo consiste en encontrar el sub-conjunto de características (individuos) óptimas mediante la minimización de una función objetivo (tasa de error del clasificador).

61 Criterio de Paro Búsqueda Aleatoria (BA)  gradiente error < umbral
Búsqueda Aleatoria Optimizada (BAO)  fracasos consecutivos < umbral Búsqueda Mejor Primero (BMP)  error (l) < error (l + k) k = [1, 2, 3, 4, 5] Búsqueda Genética (BG)  minimizar el error del clasificador.

62 Algoritmos de Clasificación
Árbol de Decisión C4.5 Naive Bayesian Aprendizaje probabilístico: Incremental: Cada ejemplo puede incrementar / decrementar la probabilidad de que una hipótesis sea correcta. La predicción probabilística predice múltiples hipótesis ponderadas Desarrollado por Quinlan. Es un árbol de regresión. Es recursivo, y se basa en la estrategia "divide y vencerás“ Mejora del ID3.

63 Algoritmos de Clasificación
Maquinas de Vector Soporte Red de Retropropagación Presentadas en Vapnik y Chervonenkis. Crea nuevas características linealmente separables. Busca un hiperplano que puede separar el espacio en dos partes Trabaja con datos continuos o discretos La salida puede ser vector de valores reales o discretos. Aprende por modificación de los pesos. Largo tiempo de entrenamiento Es difícil entender el significado de los pesos.

64 FUENTES DE DATOS

65 Datos UCI Repository of Machine Learning Database
University of California

66 DISEÑO DE EXPERIMENTO

67 Diseño de Experimentos
DATOS ADULT, BANDS, MUSHROOM Árbol de Decisión C4.5 Naive Bayesian Maquinas de Vector Soporte Red de Retropropagación Búsqueda Aleatoria Búsqueda Aleatoria Optimizada Búsqueda Mejor Primero Búsqueda Genética 48 experimentos ALGORITMO DE BUSQUEDA CLASIFICADORES ANOVA Voting K-fold Validación cruzada K = 10

68 RESULTADOS EXPERIMENTALES

69 Resultados Experimentales

70 Tablas de Votación (error)
Puntajes en función a la tasa de error promedio del clasificador

71 Tablas de Votación (reducción)
Puntajes en función al porcentaje de reducción promedio de las características de las bases de datos

72 Conclusión Voting Reducción del error
No se puede concluir quién es el peor (2BA y 1BG) No se puede concluir quién es el mejor (2 BAO y 1BG) Reducción de la dimensionalidad. El peor es BAO para la data usada (3 BAO) No se puede concluir quién es el mejor (2 BG, 1 BA)

73 ANOVA: Error t(5%,6)=1.9432 BANDS ADULT MUSHROOM

74 ANOVA: Reducción t(5%,6)=1.9432 BANDS ADULT MUSHROOM

75 Conclusión ANOVA Reducción del error
El peor es el BG para la data usada Los mejores son BAO y BA para la data usada, pero entre los no se de puede concluir una diferencia. Reducción de la dimensionalidad. El peor es el BAO para la data usada Los mejores son BA y BG para la data usada, pero entre los no se de puede concluir una diferencia.

76 PREGUNTAS


Descargar ppt "Selección de Características"

Presentaciones similares


Anuncios Google