Optimización basada en cúmulo (enjambre) de partículas

Slides:



Advertisements
Presentaciones similares
Alumno: Henry Segundo Agapito Almeyda
Advertisements

Inteligencia Artificial
Grupo 4 Matías Melgar Pablo Carbonell
Inteligencia Artificial Búsqueda informada y exploración
COMPONENTIZACIÓN DE ALGORITMOS GENETICOS Y SU IMPLEMENTACIÓN EN UNA PLATAFORMA ABIERTA PARA APRENDIZAJE COMPUTACIONAL.
Telekom Solutions.
Investigación Algorítmica
Definición Machine learning traducido al español significa el aprendizaje automático o también aprendizaje de las maquinas. A partir de esto podemos darle.
KRIGING.
Lección 3: Conceptos básicos
Tema 3 Revisión de diversos métodos robustos aplicados en algunos problemas fotogramétricos.
Representación en espacio de estado
Using Localised “Gossip” to Structure Distributed Learning Bruce Edmonds Centre for Policy Modelling Manchester Metropolitan University.
Introducción a las Metaheurísticas
Métodos basados en poblaciones 1 En cada iteración se trabaja con un conjunto o población de soluciones Computación evolutiva: algoritmos que se inspiran.
Sistemas Inteligentes Algoritmos Geneticos
Optimización matemática Algoritmos Genéticos – Parte 2 Por: Antonio H
Algoritmos Genéticos (AG) Integrantes: Rubén Levineri Miguel Rozas Juan Yañez Faltan autores y bibliografía.
Optimización Multiobjetivo Por: Antonio H
EL PODER DE SOLVER.
Scatter Search y Path Relinking Grupo 7 Giovanna Garula Rodrigo Guridi Referencias Fundamentals of Scatter Search and Path Relinking. Fred Glover Manuel.
Ant Colony Optimization (Parte II) Dr. Guillermo Leguizamón CINVESTAV, Julio 2010 Familia de algoritmos derivados del enfoque ACO.
Optimización, Búsqueda Heurística
Diseño y análisis de algoritmos
Bibliografía “Metaheuristics in Combinatorial Optimization: Overview and conceptual Comparison” C. Blum and A. Roli- TR/IRIDIA/ “An introduction.
Complejidad de los problemas de decisión
Sesión 6: Campos de Markov
Diseño y análisis de algoritmos
(Organización y Manejo de Archivos)
COMPUTACION EVOLUTIVA Introducción. Computación Evolutiva: Computación Evolutiva: Enfoque alternativo para abordar problemas complejos de: Enfoque alternativo.
Scheduling Problem ¿Cuándo y dónde debo hacer cada trabajo ?
Algoritmos de Búsqueda Simulated Annealing Es un algoritmo de Hill­Climmbing estocástico. Inspirado en el proceso físico (Termodinámica) de enfriamiento.
Optimización matemática Algoritmo de Búsqueda Tabú Por: Antonio H
Redes Competitivas.
“A hybrid VNS/Tabu search Algorithm for apportioning the European Parliament” Villa, Lozano, Racero, Canca, LNCS 3906, Problema: Como distribuir.
Parte II. Algorítmica. 5. Backtracking. 1. Análisis de algoritmos.
1 Introducción a la Computación para Biólogos, Bioquímicos, Médicos, etc.
Programación Lineal Entera Antonio H. Escobar Z Universidad Tecnológica de Pereira – Colombia Posgrado en Ingeniería Maestría en Ingeniería Eléctrica.
Algoritmos genéticos Introducción Esquema básico Codificación
Cúmulo de Partículas (Particle Swarm Optimization: PSO) Por: Antonio H. Escobar Zuluaga Universidad Tecnológica de Pereira - Colombia 2014 Optimización.
Escalamiento Multidimensional No-Métrico Capítulo 16 de McCune y Grace 2002.
Clase 12 Computación Evolutiva
Una introducción a la computación evolutiva
Escalabilidad en los Algoritmos de Aprendizaje de Redes Bayesianas ISL – Dpto de Informática – UCLM - Albacete.
Propuesta del algoritmo
Parte I. Estructuras de Datos.
Incorporando Búsqueda Local a un Algoritmo ACO para el Problema de Scheduling de Tardanza Ponderada Lasso M., de San Pedro M Laboratorio de Tecnologías.
Identificación de Sistemas El problema de la Identificación de Sistemas.
Investigación Algorítmica ChasquiSoft. Integrantes Contreras Ames, Roy Carlos Gaspar Calle, Ronald Urlich Ames, Rafael Paredes.
Modelación Matemática en la Distritación Miguel Ángel Gutiérrez Andrade Universidad Autónoma Metropolitana.
ALEXANDER PEREZ FREDERICK MEJIA. Son una serie de esquemas de representación del conocimiento, que mediante diversos algoritmos permite resolver ciertos.
Optimización Combinatoria y Grafos Búsqueda Tabú
Investigación Algorítmica ChasquiSoft. Integrantes Contreras Ames, Roy Carlos Gaspar Calle, Ronald Urlich Ames, Rafael Paredes.
D. Pandolfi., A. Villagra, E. de San Pedro, M. Lasso LabTEm: Laboratorio de Tecnologías Emergentes Universidad Nacional de la Patagonia Austral Unidad.
Identificacion con redes neuronales
ALGORITMOS GENETICOS.
Escalamiento Multidimensional No-Métrico. Rasgos generales Busca las mejores posiciones de n objetos en un espacio de k dimensiones que se asemejen más.
UNIVERSIDAD SIMÓN BOLIVAR – GRUPO GID-045 MODELAJE MATEMATICO Y SIMULACION /06/2012 Grupo de Modelaje Matemático y Simulación Profesores integrantes:
Taller: Inteligencia Computacional
Heurística. Los procesos que se llevan a cabo en el cerebro pueden ser analizados, a un nivel de abstacción dado, como procesos computacionales de algún.
Ciclo de Vida del Software
Análisis de un Servidor HTTP Carlos Miguel Tavares Calafate Arquitectura y Prestaciones de la Web 2002.
Investigación Algorítmica ChasquiSoft. Integrantes Contreras Ames, Roy Carlos Gaspar Calle, Ronald Urlich Ames, Rafael Paredes.
Marco de Trabajo para Indexación, Clasificación y Recopilación Automática de Documentos Digitales Javier Caicedo Espinoza Gonzalo Parra Chico.
Non-guillotine 2D bin packing problem Eduardo Pérez Mederos Miguel Monterrey Varela Jaime González Valdés Óscar Mateos López.
Tópicos en Inteligencia Artificial I Universidad Católica San Pablo.
Mecanismos de respuesta ante amenazas de seguridad en redes Department of Signal Theory, Telematics and Communications. University of Granada Granada,
Algoritmo Genético para la solución del problema SAT René Clemente Juárez Angel Felipe Lara Valladares Junio 2012.
Conclusiones: En este trabajo se ha demostrado que se pueden aplicar los algoritmos OCH al ajuste de los parámetros de un modelo borroso mediante la discretización.
Transcripción de la presentación:

Optimización basada en cúmulo (enjambre) de partículas Hugo Jair Escalante Seminario de optimización multi-objetivo Tonantzintla, Puebla Noviembre 23, 2012

Contenido Introducción Heurísticas inspiradas en metáforas Comentario al margen PSO: Optimización basada en cúmulo de partículas Relevancia/presencia de PSO Algoritmo base Parámetros de PSO PSO Multi-objetivo Comentarios finales

Heuristics. , Patient rules of thumb, so often scorned: Sloppy. Dumb Heuristics!, Patient rules of thumb, so often scorned: Sloppy! Dumb! Yet, slowly, common sense become. [Judea Pearl 1984]

Optimización heurística Métodos exactos: Proporcionan el óptimo pero suelen ser muy costosos Métodos heurísticos: Son rápidos pero no garantizan encontrar el óptimo Métodos heurísticos son adecuados para abordar problemas: Complejos, que son difíciles de resolver con métodos tradicionales/exactos Donde la función objetivo no es derivable Donde la función objetivo es no convexa, presenta muchos mínimos locales o esta dominada por valles En lo posible, siempre es preferible usar métodos exactos

Heurísticas inspiradas en metáforas

Heurísticas inspiradas en metáforas Métodos de optimización heurística inspirados en metáforas son muy comunes hoy en día (e.g., GA, SA, ACO, PSO, TS, GRASP, SS) Cada día se publican artículos con mejoras a heurísticas establecidas, o bien, nuevas heurísticas para optimización Este tipo de métodos ha contribuido de manera importante al área de optimización

Heurísticas inspiradas en metáforas Métodos de optimización heurística inspirados en metáforas son muy comunes hoy en día (e.g., GA, SA, ACO, PSO, TS, GRASP, SS) Cada día se publican artículos con mejoras a heurísticas establecidas, o bien, nuevas heurísticas para optimización Este tipo de métodos ha contribuido de manera importante al área de optimización

Heurísticas “novedosas” Desde hace algún tiempo, nuevas heurísticas se proponen con base en procesos que a primera vista tienen muy poco que ver con optimización No se toma en cuenta en tipo de problema que se aborda, su estructura o la forma en que un humano inteligente resolvería el problema Aunque de algunas estás técnicas han obtenido resultados aceptables y han avanzado el estado del arte en optimización, existen muchas otras heurísticas “novedosas” que podrían representar un retroceso para el área de optimización heurística (SIN GENERALIZAR) K. Sorensen. Metaheuristics – The Methapor Exposed. 2012 (Draft, tutorial - Euro2012)

Heurísticas inspiradas en metáforas Nuevos métodos toman a otros procesos como analogía: A new fruit fly optimization algorithm Shuffled frog leaping algorithm The reincarnation algorithm Intelligent water drop Fly algorithm Bat algorithm Bees & honey-bee mating algorithms Harmony search ….. Este es el problema

The imperialist competitive algorithm http://en.wikipedia.org/wiki/Metaheuristics Atashpaz-Gargari, E.; Lucas, C (2007). "Imperialist Competitive Algorithm: An algorithm for optimization inspired by imperialistic competition". IEEE Congress on Evolutionary Computation. 7. pp. 4661–4666

The reincarnation algorithm A. Sharma, A new optimizing algorithm using reincarnation concept. 11th International Symposium on Computational Intelligence and Informatics (CINTI), pp. 281--288, IEEE, 2010

The reincarnation algorithm A. Sharma, A new optimizing algorithm using reincarnation concept. 11th International Symposium on Computational Intelligence and Informatics (CINTI), pp. 281--288, IEEE, 2010

Heurísticas inspiradas en metáforas Algunas heurísticas “novedosas”: son refritos de otros métodos; se basan en metáforas “raras”; no se siguen los principios de la metáfora adoptada; no se realiza una experimentación seria. Lo raro es que siempre presentan mejores resultados que otras alternativas y eventualmente se publican K. Sorensen. Metaheuristics – The Methapor Exposed. Submitted, 2012 (Keynote Euro2012)

Heurísticas “novedosas” (mejoradas) Las mejoras a heurísticas usualmente son del tipo: HC + CA para X Se reportan resultados en algunas instancias (sin análisis de significancia) y se mejoran resultados obtenidos por otros métodos (muy básicos o ad-hoc) SIN GENERALIZAR Donde: HC: heurística conocida CA: Mecanismo exitoso en otras heurísticas X: problema específico K. Sorensen. Metaheuristics – The Methapor Exposed. 2012 (Draft, tutorial - Euro2012)

Consejos para un buen diseño de heurísticas K. Sorensen. Metaheuristics – The Methapor Exposed. 2012 (Draft, tutorial - Euro2012)

Consejos para un buen diseño de heurísticas K. Sorensen. Metaheuristics – The Methapor Exposed. 2012 (Draft, tutorial - Euro2012)

Consejos para un buen diseño de heurísticas K. Sorensen. Metaheuristics – The Methapor Exposed. 2012 (Draft, tutorial - Euro2012)

Particle Swarm Optimization

Presencia de PSO Algunos números: PSO fue introducido en 1995 por J. Kennedy (sociología) & R. Eberhart (cómputo) ~3000 citas en 2012 J. Kennedy, R. Eberhart. Particle swarm optimization. Proceedings., IEEE International Conference on Neural Networks, pp. 1942--1948, IEEE, 1995.

Presencia de PSO Algunos números: Distribución de publicaciones (ISI web of knowledge) en cuanto a diversas meta-heurísticas Número de publicaciones sobre PSO ente 2001-2011 M. Eslami. A survey of the state of the art in particle swarm optimization. Research Journal of Applied Sciences Engineering and Technology, 4(9):1181—1197, 2012

PSO: Optimización basada en cúmulos de partículas A. Rosales. Optimización Multi-Objetivo. Seminario de Optimización Multi-objetivo, 2012.

PSO: Optimización basada en cúmulos de partículas Método de optimización heurística inspirado en el comportamiento de sociedades biológicas, donde los individuos comparten objetivos y presentan tanto comportamientos individuales como sociales Parvadas de aves Bancos de peces Enjambres de abejas

PSO: Optimización basada en cúmulos de partículas Método de optimización heurística inspirado en el comportamiento de sociedades biológicas, donde los individuos comparten objetivos y presentan tanto comportamientos individuales como sociales Parvadas de aves Bancos de peces Enjambres de abejas

PSO: Optimización basada en cúmulos de partículas Las partículas son atraídas hacia la comida Cada partícula recuerda su posición más cercana con respecto a la comida Las partículas comparten información con partículas vecinas sobre cuál ha sido su posición más cercana a la comida

* Asumiendo que existe un óptimo y que es único. PSO: la analogía Idea: Las soluciones tienen una posición en el espacio de búsqueda (el óptimo tiene una posición también). El objetivo es que las soluciones exploren el espacio de búsqueda para llegar al óptimo del problema. No se sabe donde está el óptimo pero se sabe que tan lejos esta cada solución del óptimo. * Asumiendo que existe un óptimo y que es único. Las partículas están asociadas a las soluciones del problema a abordar La distancia entre la comida y cada partícula se representa por la función que se desea optimizar El cúmulo de partículas es la población de soluciones que explorará el espacio de búsqueda Las soluciones se representan por las posiciones de las partículas en el espacio de búsqueda

PSO: la analogía No*: la población inicial se mantiene durante todo el proceso de optimización ¿Es PSO un método de cómputo evolutivo?

Discrete PSO, binary PSO, Geometric PSO PSO: el algoritmo En cada instante de tiempo t, cada individuo i tiene una posición (xit) en el espacio de búsqueda así como una velocidad asociada (vit) El tamaño de xit = vit = d, las dimensiones del problema a abordar Al inicio PSO solo trabajaba en espacios continuos, hay extensiones que permiten trabajar en problemas de combinatoria o incluso mixtos Discrete PSO, binary PSO, Geometric PSO

PSO: el algoritmo El algoritmo es un proceso iterativo en cada instante de tiempo cada partícula: Sabe cuál ha sido su mejor posición con respecto al objetivo (personal-best) Sabe cuál ha sido la mejor posición de sus vecinos (global-best)

PSO: el algoritmo Las partículas actualizan su posición en el espacio de búsqueda de acuerdo a: Inercia Info. local Info. global

PSO: el algoritmo Inicializar aleatoriamente la población de individuos (swarm) Repetir el siguiente proceso iterativo hasta que un criterio de parada se cumpla: Evaluar la aptitud de cada partícula Determinar las soluciones personal-best (pi), para cada partícula, y global-best (pg) Actualizar la posición y la velocidad de las partículas Regresa la partícula mejor evaluada Fitness value ... ... Init t=1 t=2 t=max_it

PSO en acción Función: Rosenbrock Brian Birge’s PSO demo for matlab

PSO en acción Función: Rastrigin Brian Birge’s PSO demo for matlab

PSO en acción Función: Ackley Brian Birge’s PSO demo for matlab

Parámetros de PSO Los principales parámetros de PSO son: φ0, φ1, φ2 el tipo de vecindario, número de soluciones, criterio de parada Inercia Info. local Info. global

Parámetros de PSO Los principales parámetros de PSO son: φ0, φ1, φ2 el tipo de vecindario, número de soluciones, criterio de parada

PSMS sin influencia local c1=0; c2=2 Hugo Jair Escalante, Manuel montes, Enrique Sucar. Particle Swarm Model Selection. JMLR, Vol. 10, pp. 405—440, 2009

PSMS sin influencia global c1=2; c2=0 Hugo Jair Escalante, Manuel montes, Enrique Sucar. Particle Swarm Model Selection. JMLR, Vol. 10, pp. 405—440, 2009

PSMS igual influencia local y global c1=2; c2=2 Hugo Jair Escalante, Manuel montes, Enrique Sucar. Particle Swarm Model Selection. JMLR, Vol. 10, pp. 405—440, 2009

Parámetros de PSO Si hacemos con Valores de garantizan la convergencia* de PSO * Note that in PSO we say that the swarm converges iff limt→inf pgt = p, where p is an arbitrary position in the search space and t indexes iterations of PSO. Since p refers to an arbitrary position, this definition does not mean either convergence to local or global optimum, but convergence to the global best position in the swarm (van den Bergh, 2001; Reyes and Coello, 2006; Engelbrecht, 2006). F. van den Bergh. An Analysis of Particle Swarm Optimizers. PhD thesis, University of Pretoria, Sudafrica, November 2001.

Parámetros de PSO Sobre la inercia: Uno de los métodos más usados es un peso de inercia adaptativo Se fija al inicio φ0 = wstart, y este valor es disminuido linealmente durante k-iteraciones hasta un valor φ0 = wend Valores grandes de φ0 permiten moverse en pasos más grandes mientras que valores pequeños de φ0 permiten explorar intensivamente ciertas zonas

Parámetros de PSO Vecindario: El esquema más usado es el esquema totalmente conectado, aunque hay diversas variantes

Más allá de PSO Extensiones: Aplicaciones: Existe un gran número de variantes de PSO (muchas del tipo Frankenstein) Desde hace algún tiempo se han propuesto métodos híbridos Aplicaciones: La primera aplicación de PSO fue en el entrenamiento de redes neuronales (optimización de los pesos) Hoy en día PSO se ha aplicado en infinidad de problemas

PSO: Optimización basada en cúmulos de partículas A. Rosales. Optimización Multi-Objetivo. Seminario de Optimización Multi-objetivo, 2012.

MOPSO: Versión multi-objetivo A. Rosales. Optimización Multi-Objetivo. Seminario de Optimización Multi-objetivo, 2012.

MOPSO: Versión multi-objetivo Frente de Pareto:

MOPSO: Versión multi-objetivo Cuando se intenta resolver un problema de MOOP se tienen, en general, tres objetivos: Maximizar el número de elementos en el FP Minimizar la distancia del FP producido por el método de MOOP con respecto al FP real Maximizar la dispersión de soluciones encontradas

MOPSO: Versión multi-objetivo De acuerdo a lo anterior, PSO debe ser modificado tomando en cuenta lo siguiente: Cómo seleccionar partículas lideres dando preferencia a soluciones no-dominadas Cómo retener soluciones no-dominadas encontradas durante el proceso de búsqueda de manera que se reporten soluciones no-dominadas con respecto a todas las soluciones anteriores, es deseable que dichas soluciones se posicionen dispersamente en el FP Cómo mantener diversidad en la población a fin de evitar convergencia hacia una única solución

MOPSO: el algoritmo En cada instante de tiempo t, cada individuo i tiene una posición (xit) en el espacio de búsqueda así como una velocidad asociada (vit) El tamaño de xit = vit = d, las dimensiones del problema a abordar

MOPSO: el algoritmo Entonces, ¿qué cambia? Las partículas actualizan su posición en el espacio de búsqueda de acuerdo a: Entonces, ¿qué cambia? Inercia Info. local Info. global

MOPSO: Versión multi-objetivo Margarita Reyes-sierra , Carlos A. Coello Coello . Multi-Objective particle swarm optimizers: A survey of the state-of-the-art, INTERNATIONAL JOURNAL OF COMPUTATIONAL INTELLIGENCE RESEARCH, 2006 MOPSO

MOPSO: Versión multi-objetivo Existen muchas variantes para dar solución a cada sub-problema dentro de PSO, la mayoría son heurísticas Margarita Reyes-sierra , Carlos A. Coello Coello . Multi-Objective particle swarm optimizers: A survey of the state-of-the-art, INTERNATIONAL JOURNAL OF COMPUTATIONAL INTELLIGENCE RESEARCH, 2006

Pros y contras de PSO Método simple y extremadamente fácil de implementar No requiere de operadores especializados para la generación de nuevas soluciones Permite controlar “fácilmente” la forma en que se explora el espacio de búsqueda Se puede adaptar de acuerdo a las características del problema

Pros y contras de PSO No hay un análisis de convergencia general, solo hay resultados para simplificaciones No se garantiza encontrar el mínimo Tiene problemas con problemas de no-continuos

Gracias por su atención ¿Preguntas? hugojair@inaoep.mx http://hugojair.org/