Escalabilidad en los Algoritmos de Aprendizaje de Redes Bayesianas ISL – Dpto de Informática – UCLM - Albacete.

Slides:



Advertisements
Presentaciones similares
Data Mining Minería de Datos Universidad Tecnológica Metropolitana
Advertisements

MÉTODOS Y DISEÑOS DE INVESTIGACIÓN METODOLOGÍAS DE INVESTIGACIÓN
Planificación de Monoprocesadores
DATA MINING MINERIA DE DATOS Gersom Costas.
Master en Recursos Humanos
Optimización de Consultas Distribuidas
Logística (Manejo de la cadena de abastecimiento)
Grupo 4 Matías Melgar Pablo Carbonell
Razonamiento Explícito y Experimentación en la Algoritmia
Tema 2: Números aleatorios. Generación de números
K-Means Integrantes Natalia Merino (85828) Gastón Sabatelli (85523)
Tema 3 Revisión de diversos métodos robustos aplicados en algunos problemas fotogramétricos.
Tema 6: Compresión de imagen
Intelligent Databases and Information Systems research group Department of Computer Science and Artificial Intelligence E.T.S Ingeniería Informática –
Clustering (Agrupamiento)
CURSO DE ESTADÍSTICA BÁSICA
Búsqueda de Aproximaciones: Algoritmos
9 Regresión Lineal Simple
Tema 2: Métodos de ajuste
Codificación Distribuida
MEDIDAS DE CORRELACIÓN
DPTO. MATEMÁTICAS - I.E.S. PABLO SERRANO
REDES BAYESIANAS Y DECISIÓN ESTADÍSTICA
Programación de Computadores
La Derivada. Ya vimos: los conceptos, métodos ó instrumentos necesarios para establecer el “comportamiento” de una función.  en un entorno de x o [ 
PROGRAMACIÓN PARALELA Tema 4: Metodología de la programación
Población y Muestra.
Eduardo Brioso Moniz Álvaro Castilla Nieto Mario Colchero Pérez
ANÁLISIS DE CONGLOMERADOS

Diseño y análisis de algoritmos
Consulta Típica en OLAP
Sesión 6: Campos de Markov
Diseño y análisis de algoritmos
(Organización y Manejo de Archivos)
Parte II. Algorítmica. 3. Algoritmos voraces.
Caso: Situación de las Comunidades Autónomas españolasen cuanto a indicadores de bienestar En el periódico “El País” del día 17 de enero de 2002 se publicó.
Material de apoyo Unidad 4 Estructura de datos
Flujo óptico Omar Ocegueda 24 de Noviembre de 2003.
Combinación de Clasificadores
Algoritmos de Búsqueda “Backtracking y Branch and Bound”
Redes Competitivas.
Capítulo 7 Gestión de memoria.
Estimación Sea una característica, un parámetro poblacional cuyo valor se desea conocer a partir de una muestra. Sea un estadístico ( función.
Parte II. Algorítmica. 5. Backtracking. 1. Análisis de algoritmos.
Medidas de Posición y Centralización Estadística E.S.O.
Una introducción a la computación evolutiva
Introducción al Biclustering
Capítulo 1. Conceptos básicos de la Estadística
Parte I. Estructuras de Datos.
DISTRIBUCIONES MUESTRALES
Oscar F. Bedoya L. Fundamentos de análisis y diseño de algoritmos.
coeficientes de correlación de
Combinación de Programas Lógicos y Redes Bayesianas y su Aplicación a Música Eduardo Morales Enrique Sucar Roberto Morales.
Algoritmo de Retropropagación. Conclusiones de Retropropagación n 1. Si la neurona j es un nodo de salida es igual al producto de la derivada y la señal.
Investigación de mercados “Muestreo”
P Y E 2004 Clase 19Gonzalo Perera1 Propiedades generales del p-valor Repaso de la clase anterior. Tests de aleatoriedad Estadística de datos dependientes.
Unidad TemáticaI. Conceptos Básicos Horas Prácticas10 Horas Teóricas8 Horas Totales18 Objetivo El alumno determinará las entradas, procesos y salidas.
MUESTREO : Generalidades
Distribución Binomial
Muestreo Probabilístico
La naturaleza del control
INFERENCIA ESTADÍSTICA
Marco de Trabajo para Indexación, Clasificación y Recopilación Automática de Documentos Digitales Javier Caicedo Espinoza Gonzalo Parra Chico.
Mini-video 2 de 5 Materia: Límites de funciones Continuidad de funciones Prácticas con Introducción a Funciones de una variable.

Aprendiendo a pensar Espacialmente: La naturaleza y funciones del pensamiento espacial National Academy of Sciences The Nature of Spatial Thinking.
Clustering Pablo Palacios 1.  Introducción  Clasificación de Clustering  Clusters de particionamiento ◦ N-means  Clusters difusos ◦ GFN-means ◦ Gath-Geva.
LE, EI, Profesor Ramón Castro Liceaga UNIVERSIDAD LATINA (UNILA) IV. IMPLANTACION DE ALGORITMOS.
TEMA 7 ANÁLISIS DE LOS RESULTADOS TEMA 7 ANÁLISIS DE LOS RESULTADOS.
Transcripción de la presentación:

Escalabilidad en los Algoritmos de Aprendizaje de Redes Bayesianas ISL – Dpto de Informática – UCLM - Albacete

2 Motivación La mayoría de los algoritmos de aprendizaje no pueden tratar con conjuntos grandes de datos y/o con un gran número de variables en el dominio Las bases de datos actuales permiten almacenar del orden de TeraBytes. Como el costo es “bajo” se suele almacenar un gran número de variables Incluso preseleccionando variables, existen problemas con un gran número de ellas Llegan los “data streams”

3 Introducción En cuanto a las bases de datos: – Estáticas – Dinámicas En cuanto al modelo: – Modelo estático: el modelo se genera introduciendo conocimiento – Modelo dinámico: el modelo se modifica en función de la “tendencia” de los datos

4 Introducción ¿por qué diseñar nuevas técnicas? – A mayor tamaño, mayor precisión – Con tamaño pequeño  overfitting – Con muchas variables  Espacio poco poblado ¿cuándo una base de datos es muy grande? – Desde el punto de vista de la “Minería de datos” significa a partir de 100Mb / 1Gb, dependiendo de número de variables Def: Un algoritmo es escalable cuando es capaz de aprender un modelo a partir de bases de datos de cualquier tamaño (al menos tan rápido como su equivalente no escalable y con la misma eficacia)

5 Algoritmos de aprendizaje de RB Escalabilidad: Trabajos previos Utilización de algoritmos con técnicas de “divide y vencerás” – N. Friedman et al. Learning of Bayesian Network Structure from Massive Datasets: The "Sparse Candidate" Algorithm (1999). – R. Castelo and A. Siebes. Scaling Bayesian network discovery through incremental recovery. Technical Report INS-R9901, CWI, Amsterdam, (1999). Utilización de técnicas de sub-muestreo – G. Hulten and P. Domingos. Mining complex models from arbitrarily large databases in constant time. ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. (2002). – N. Friedman and Z. Yakhini. On the complexity of learning Bayesian networks. UAI (1996). Híbrido – G. Hulten, D. Chickering and D. Heckerman. Learning Bayesian networks from dependence networks: A preliminary study. W. On AI & Statistics (2003)

6 Objetivo Diseñar algoritmos escalables para el aprendizaje de Redes Bayesianas: – Diseñar algoritmos escalables en anchura: Muchas variables, tamaño de los casos fijo – Diseñar algoritmos escalables en profundidad: Número de variables “manejable”, tamaño de los casos incluso infinito – Diseñar algoritmos escalables en anchura / profundidad: Combinación de los dos anteriores

7 Algoritmo ELBN en anchura Tanto el trabajo de Friedman et al. Y el de Castelo et al. Necesitan un orden de cálculos de estadísticos de orden 2 Igualmente los dos trabajos se basan en métodos de búsqueda local (HC) Friedman et al. Utiliza medidas “estándares” en el aprendizaje. Castelo et al. Utilizan una media de correlación para realizar la división

8 Algoritmo ELBN en anchura El método desarrollado está muy relacionado con el de Castelo et al. La idea de ambos es realizar agrupamiento de variables “lo más independientes” posible unos de otros y “lo más dependientes” posibles dentro de cada grupo, para dividir el espacio de búsqueda. Ambos utilizan técnicas de Clustering Una vez realizado el agrupamiento  búsquedas independientes en cada grupo Una vez que tenemos una RB por cada grupo, se realiza una composición de los resultados

9 Algoritmo ELBN en anchura Diferencias: – Castelo et al. Utilizan una técnica de clustering jerárquico  no hace especificar el nº de grupos – Nosotros utilizamos un algoritmo basado en PAM (centroides)  necesita “a priori” especificar un nº de grupos – Castelo et al. Utiliza una medida de correlación, nosotros utilizamos medidas “estándares” en LBN En principio ambos utilizan la misma técnica de composición de resultados

10 Algoritmo ELBN en anchura

11 Algoritmo de agrupamiento En principio se fija un número de grupos k Se eligen k variables aleatorias como centroides Para el resto de variables se mira el grupo donde “cae más cerca”, con la medida Una vez formados los k grupos, entonces se reeligen los nuevos centroides de cada grupo Como nuevo centroide se elige aquel de su grupo que esté más cercano al resto de variables del grupo y se reitera el proceso un nº de iteraciones

12 Inicialización Podemos fijar un nº k de grupos o podemos plantearnos que un algoritmo previo nos lo fije Podemos diseñar un algoritmo que además de fijar un nº de grupos nos de una inicialización de estos grupos Algoritmo de inicialización: – Elegimos un nodo al azar como centroide del primer grupo. – Para el resto de variables hasta que todas este procesadas: Si d(c_i,x_j) > 0, para algún c_i, entonces x_j entra en el grupo de c_i de mayor medida (mayor d(c_i,x_j) Si d(c_i,x_j) < 0, para todo c_i, entonces se fija x_j como nuevo centroide para otro grupo. Una vez inicializado los grupos procedemos igual que antes

13 Ejemplo: ALARM k=2 N: 620 i: 10

14 Ejemplo: ALARM k sin fijar N: 500 i: 12

15 Conclusiones Es fundamental considerar tamaños muy grandes de bases de datos Los algoritmos de aprendizaje de RB deterioran rápidamente con este tipo de bases de datos Por consiguiente, es necesario diseñar algoritmos que trabajen de forma adecuada con este tipo de bases de datos Hemos utilizado una técnica de “divide y vencerás para diseñar un algoritmo de aprendizaje de RB cuando tenemos un número muy elevado de variables en el dominio

16 Trabajos futuros Realizar un método de composición más eficiente más que considerar un búsqueda completa Diseñar métodos de aprendizaje cuando tenemos “data stream”: – Suponer misma distribución subyacente en los datos – Suponer que puede cambiar esta distribución subyacente  Aprendizaje secuencial