1 Sesión Especial basada en la funciones de la Special Session on Real-Parameter Optimization at CEC-05, Edinburgh, UK, 2-5 Sept. 2005 M. Lozano, D. Molina,

Slides:



Advertisements
Presentaciones similares
COSTOS por re consulta EN un SERVICIO DE URGENCIAS nivel 1
Advertisements

COMPETENCIAS Y METODOLOGÍA
Las fuentes de información al servicio de la Inteligencia Económica Mercè Alba Thomson Dialog Vitoria, 6 de Octubre de 2003.
Complejidad Algorítmica: Análisis de algoritmos
Problemas de Planificación para Máquina Única en Entornos Dinámicos Implementados con Metaheurística ACO y AEs de San Pedro M. Laboratorio de Tecnologías.
Avances en Investigación Clínica 1. El concepto de significación clínica Jose Mª Prados Atienza UNED-Baza (Granada)
Por: RICARDO BARRERA GABRIELA MOLINA JULIO 2013
“ANÁLISIS DE EFICIENCIA EN ALGORITMOS DE RECONOCIMIENTO DE IMÁGENES DIGITALES APLICABLES A DISPOSITIVOS MÓVILES BAJO LA PLATAFORMA ANDROID” Miguel Ñauñay.
José Enrique Gonzalez Roberto Clavell
COMPONENTIZACIÓN DE ALGORITMOS GENETICOS Y SU IMPLEMENTACIÓN EN UNA PLATAFORMA ABIERTA PARA APRENDIZAJE COMPUTACIONAL.
UNIVERSITAT DE BARCELONA EDUCATIONAL PSYCHOLOGY AND CLASSROOM RESEARCH: QUALITATIVE APPROACHES TERESA MAURI, JAVIER ONRUBIA UNIVERSIDAD DE BARCELONA DEPARTAMENTO.
Using Localised “Gossip” to Structure Distributed Learning Bruce Edmonds Centre for Policy Modelling Manchester Metropolitan University.
Metaheurística ACO Aplicada a Problemas de Planificación en Entornos Dinámicos de San Pedro M., Pandolfi D., Lasso M., Villagra A. Laboratorio de Tecnologías.
Maximiliano Tabacman Junio ¿Por qué se llaman así? ¿Quién los inventó? ¿Cómo reconocer uno cuando lo vemos? ¿Cómo se implementan? ¿Qué variantes.
COOPERACION EN SISTEMAS MULTI-AGENTE : UN CASO DE ESTUDIO ROBOCUP ADITH BISMARCK PEREZ OROZCO DAMIAN GUSTAVO FARIAS TERRENS PONTIFICIA UNIVERSIDAD JAVERIANA.
M. Lozano, D. Molina, A.M. Sánchez, F. Herrera Sesión Especial basada en la Special Session on Real-Parameter Optimization at CEC-05, Edinburgh, UK, 2-5.
Evaluación de la Psicoterapia López Salas, I
Optimización matemática Algoritmos Genéticos – Parte 2 Por: Antonio H
Algoritmos Genéticos (AG) Integrantes: Rubén Levineri Miguel Rozas Juan Yañez Faltan autores y bibliografía.
Optimización de pruebas de mutación con el uso de algoritmos genéticos
ALGORITMO GENÉTICO John Henry Holland (n. 02 de febrero 1929, Fort Wayne, Indiana, EE.UU.) ostenta los títulos de Profesor de Psicología y Profesor de.
TECNICAS DE EVALUACIÓN DE ALGORITMOS DE APRENDIZAJE
REPERCUSIÓN EMOCIONAL DE LA CIRUGÍA PROFILÁCTICA EN PORTADORAS DE MUTACIÓN EN BRCA INTRODUCCIÓN Y OBJETIVOS La mastectomía y salpingooforectomía son medidas.
Visualizador de imágenes remotas Alumno: Juan Pablo García Ortíz Director: Vicente Gonzalez Ruiz.
1 Detección de Movimiento en Imágenes Digitales “tracking” Por: Héctor Duque MISC - Universidad de Los Andes.
Bibliografía “Metaheuristics in Combinatorial Optimization: Overview and conceptual Comparison” C. Blum and A. Roli- TR/IRIDIA/ “An introduction.
12/14/06 Administración Federal de Ingresos Públicos Herramientas Informáticas Utilizadas- Reportes Estadísticos. Noviembre de 2006.
Optimización basada en cúmulo (enjambre) de partículas
Presentación TRACER – Grupo de Arquitectura de Computadores y Diseño Lógico. Desarrollos y resultados TRACER = Primera anualidad =
Identificación de Personas Mediante Imagen del Iris Fernando Llaca Romero Alberto Morales Calvo Alejandro Rojas López.
OPTIMIZACIÓN Y SIMULACIÓN
TIC APLICADES A L’EDUCACIÓ PRIMÀRIA Curs Cóm citar?
Algoritmos genéticos paralelos
El Análisis del Ciclo de Vida (ACV)
Optimización para Ingenieros
Cúmulo de Partículas (Particle Swarm Optimization: PSO) Por: Antonio H. Escobar Zuluaga Universidad Tecnológica de Pereira - Colombia 2014 Optimización.
PROGRAMACIÓN PARALELA Modelos de programación paralela Modelos computacionales Paradigmas de programación paralela Programación en memoria compartida:
Una introducción a la computación evolutiva
Curso de Lógica Difusa Prof. José Edinson Aedo Cobo, Msc. Dr. Ing.
Algoritmos genéticos: los beneficios en su implementación para la generación de patrones automáticos de pruebas en Microprocesadores Protocolo de tesis.
1 Cálculo de fallas en sistemas de distribución de energía eléctrica utilizando aritmética difusa Julio Romero Agüero Alberto Vargas.
Escalabilidad en los Algoritmos de Aprendizaje de Redes Bayesianas ISL – Dpto de Informática – UCLM - Albacete.
Competitividad de Chile José Joaquín Brunner Agosto 2005 SESIÓN II.
Introducción a la Simulación de Eventos Discretos José Daniel García Sánchez Grupo de Arquitectura Comunicaciones y Sistemas Universidad Carlos III de.
MODELO DE INTEGRACIÓN ENTRE COMPUTACIÓN EN GRILLA Y SISTEMAS MULTIAGENTES David De La Peña Javier M. Morales Enrique González Director Mayo de 2005 Reporte.
Propuesta del algoritmo
INNOVATIVE APPROACHES IN INTEGRATED ASSESSMENT MODELLING OF EUROPEAN AIR POLLUTION STRATEGIES – IMPLICATIONS OF DEALING WITH MULTI-POLLUTANT MULTI- EFFECT.
Introducción al Biclustering
ALGORITMOS Y ESTRUCTURAS DE DATOS Ingeniería Técnica en Informática de Sistemas curso Teoría: Domingo Giménez, tutorías: L 9:30-10:30; M 10:00-12:30,
Mary C. Jarur M. ww.udec.cl/~mjarur
Movilidad de los recursos humanos y flujos de conocimiento: propuestas para el análisis y la gestión de un fenómeno multidimensional Carolina Cañibano.
La situación en el mundo
Incorporando Búsqueda Local a un Algoritmo ACO para el Problema de Scheduling de Tardanza Ponderada Lasso M., de San Pedro M Laboratorio de Tecnologías.
8.4 Toolbox de Matlab.
Taller Europeo de la Red Eureka Investigación en Minería de Datos José C. Riquelme Universidad de Sevilla Granada, 7 y 8 de Julio.
D. Pandolfi., A. Villagra, E. de San Pedro, M. Lasso LabTEm: Laboratorio de Tecnologías Emergentes Universidad Nacional de la Patagonia Austral Unidad.
Introducción En nuestro país que siempre ha estado inmerso en las grandes colas que toca hacer para cualquier tramite es muy interesante ver como se pueden.
ALGORITMOS GENETICOS.
UNIVERSIDAD SIMÓN BOLIVAR – GRUPO GID-045 MODELAJE MATEMATICO Y SIMULACION /06/2012 Grupo de Modelaje Matemático y Simulación Profesores integrantes:
IIC 2632 – Computación Evolutiva Presentación del Curso 1 er sem 2012 IIC 2632 – Computación Evolutiva © Rodrigo Sandoval.
Ivan Babitsch Soler Dirigido: Jordi Gonzàlez Sabaté Co-Dirigido: Mario Huerta.
FUNDACIÓN UNIVERSITARIA REMINGTON CENTRO DE EDUCACIÓN A DISTANCIA CONAAES CARMENZA VELÁSQUEZ OSORIO JUAN GUILLERMO BUILES GÓMEZ SERGIO GILBERT TORRES CUADERNO.
Facultad de Ingeniería, Universidad de la República
José M. Lanza-Gutiérrez 04/09/2015 Valparaiso (Chile) Amsterdam, The Netherlands July 06-10, 2013 OPTIMIZANDO MEDIANTE METAHEURÍSTICAS MULTIOBJECTIVO:
Por: Esteban Sepúlveda Orozco Estudiante MSc
Autora: Angelines Turón Turón Tutora: Mª Gloria Sánchez Torrubia SISTEMA DE AYUDA A LA ENSEÑANZA PARA RESOLUCIÓN DE MAPAS DE KARNAUGH.
Tópicos en Inteligencia Artificial I Universidad Católica San Pablo.
ALGORITMOS DE OPTIMIZACIÓN Análisis Óptimo de Estructuras mediante Algoritmos Genéticos Miguel Á. Parrón.
Conclusiones: En este trabajo se ha demostrado que se pueden aplicar los algoritmos OCH al ajuste de los parámetros de un modelo borroso mediante la discretización.
Transcripción de la presentación:

1 Sesión Especial basada en la funciones de la Special Session on Real-Parameter Optimization at CEC-05, Edinburgh, UK, 2-5 Sept M. Lozano, D. Molina, A.M. Sánchez, F. Herrera

2 Sesion 1. MAEB para Problemas de Optimización Continua. I. Algoritmos Genéticos y Algoritmos Distribuidos (Miércoles , 10:00 – 11:30) T1. Aprendizaje por reforzamiento aplicado al operador de cruce en algoritmos genéticos con codificación real (BLXRL, CIXL2RL, CIXL1RL, SBCRL) Domingo Ortiz, A. de Haro-García, R. del Castillo-Gomariz T2. Algoritmos Genéticos para Codificación Real con Operador de Cruce Híbrido con Múltiples Descendientes: 2BLX0.5-2FR0.5-2PNX3-2SBX0.01 (BFPS) A.M. Sánchez, M. Lozano, F. Herrera T3. Implementación de un algoritmo genético distribuido para optimización de problemas reales (Herrera2000) I.Robles, J.M. Benitez, M. Lozano, F. Herrera T4. Algoritmos Distribuidos Heterogéneos para problemas de Optimización Continua (GADEDIST) S. Muelas, J.M. Peña, A. La Torre y V. Robles

3 Sesion 2. MAEB para Problemas de Optimización Continua. II. Algoritmos Evolutivos (PSO, DE, DMO, AEF) (Miércoles , 12:00 – 13:30) T5. Algoritmo Basado en Cúmulos de Partículas y Evolución Diferencial para la Resolución de Problemas de Optimización Continua (DEPSO) José García-Nieto, Javier Apolloni y Enrique Alba T6. Optimización basada en Mallas Dinámicas Su aplicación en la solución de problemas de optimización continuos (DMO) Amilkar Yudier Puri, Rafael Bello, T7. Comportamiento de un Algoritmo Evolutivo Flexible Para Problemas de Optimización continua (AEF) Silvia Alonso, Juan I. Jiménez, Himar Carmona, Blas Galván, Gabriel Winter, Begoña González T8. MOS como Herramienta para la Hibridación de Algoritmos Evolutivos (MOS1,2,3,4) La Torre, J. M. Peña, J. Fernández, y S. Muelas

4 Sesion 3. MAEB para Problemas de Optimización Continua. III. Modelos Híbridos (Miércoles , 15:00 – 16:30) T9. ACO R híbrido con múltiples colonias para problemas de optimización continua (ACOR, ACOR+SW, ACOR+SIMPLEX) C. Blum, P. Cardoso, F. Herrera T10. Adaptive Memory Programming for Global Optimization (STS) Abraham Duarte, Rafael Marti, Fred Glover T11. Algoritmo Memético Basado en Encadenamiento de Búsquedas Locales para Problemas de Optimización Continua (MALSChainCMAES) D. Molina, M. Lozano, F. Herrera Presentación de un análisis global de resultados: F. Herrera (5 Minutos) Debate: Nuevos retos en el desarrollo de modelos MAEB para optimización continua: (20 minutos)

5 Análisis de Resultados – MAEB 2009 Debate: Nuevos retos en el desarrollo de modelos MAEB para optimización continua

6 Análisis de Resultados D10- f6-f25D10- f15-f25 Mean Ranking STS3,325 GCMAES4,9 GADEDIST7,125 DEPSO7,725 DE8,7 MOS39,025 MOS19,25 MOS49,5 MOS29,8 DMO10,25 KPCX10,85 ACOR+SW11,55 BFPS11,55 MALSChainCMAES11,6 ACOR12,625 ACOR+SIMPLEX13,3 Herrera200013,95 AEF16 BLXRL16,025 CIXL2RL16,925 CIXL1RL18,725 SBXRL20,3 Mean Rankingp-0,005 STS2, GCMAES5, GADEDIST6, DEPSO7, DE7, MOS38, ACOR+SW8, MOS19, MOS29,5 MOS49, MALSChainCMAES10, DMO11, ACOR+SIMPLEX12, KPCX12, ACOR13, BFPS13, BLXRL15,5 CIXL2RL15, Herrera200015, AEF_nuevo17, CIXL1RL18, SBXRL20, D30- f6-f25D30- f15-f25 Mean Rankingp-0,005 MALSChainCM AES4,675 STS5,575 GADEDIST7,225 GCMAES8,2 MOS28,65 MOS19,475 MOS39,65 MOS49,725 ACOR10,125 DEPSO10,8 KPCX11,2 DMO11,225 BFPS11,475 ACOR+SIMPLE X12,05 DE12,225 ACOR+SW12,35 AEF14,95 BLXRL15,075 CIXL2RL16,425 Herrera200016,75 CIXL1RL17,45 SBXRL17,725 Algoritmo STS5, MALSChainCM AES5, MOS26, GADEDIST6, MOS17, MOS38, MOS48, GCMAES8, DMO9, ACOR10, DEPSO10, ACOR+SW10, ACOR+SIMPL EX10, DE11, KPCX12, BFPS13, BLXRL15, CIXL2RL15, AEF18, SBXRL18, CIXL1RL18, Herrera200019, Ranking medio asociado al test de No-paramétrico Friedman

7 Análisis de Resultados D10- f6-f25 D10- f15-f25

8 Análisis de Resultados D10- f6-f25D10- f15-f25 Mean Ranking STS3,325 GCMAES4,9 GADEDIST7,125 DEPSO7,725 DE8,7 MOS39,025 MOS19,25 MOS49,5 MOS29,8 DMO10,25 KPCX10,85 ACOR+SW11,55 BFPS11,55 MALSChainCMAES11,6 ACOR12,625 ACOR+SIMPLEX13,3 Herrera200013,95 AEF16 BLXRL16,025 CIXL2RL16,925 CIXL1RL18,725 SBXRL20,3 Mean Rankingp-0,005 STS2, GCMAES5, GADEDIST6, DEPSO7, DE7, MOS38, ACOR+SW8, MOS19, MOS29,5 MOS49, MALSChainCMAES10, DMO11, ACOR+SIMPLEX12, KPCX12, ACOR13, BFPS13, BLXRL15,5 CIXL2RL15, Herrera200015, AEF_nuevo17, CIXL1RL18, SBXRL20, D30- f6-f25D30- f15-f25 Mean Rankingp-0,005 MALSChainCM AES4,675 STS5,575 GADEDIST7,225 GCMAES8,2 MOS28,65 MOS19,475 MOS39,65 MOS49,725 ACOR10,125 DEPSO10,8 KPCX11,2 DMO11,225 BFPS11,475 ACOR+SIMPLE X12,05 DE12,225 ACOR+SW12,35 AEF14,95 BLXRL15,075 CIXL2RL16,425 Herrera200016,75 CIXL1RL17,45 SBXRL17,725 Algoritmo STS5, MALSChainCM AES5, MOS26, GADEDIST6, MOS17, MOS38, MOS48, GCMAES8, DMO9, ACOR10, DEPSO10, ACOR+SW10, ACOR+SIMPL EX10, DE11, KPCX12, BFPS13, BLXRL15, CIXL2RL15, AEF18, SBXRL18, CIXL1RL18, Herrera200019, Ranking medio asociado al test de No-paramétrico Friedman

9 Análisis de Resultados D30- f6-f25 D30- f15-f25

10 Análisis de Resultados Algoritmozpalpha/i¿Dif. Significativa? SBXRL8,271,38E-162,38E-03Si CIXL1RL7,506,40E-142,50E-03Si CIXL2RL6,623,52E-112,63E-03Si BLXRL6,186,22E-102,78E-03Si AEF6,176,72E-102,94E-03Si Herrera20005,172,29E-073,13E-03Si ACOR+SIMPLEX4,861,19E-063,33E-03Si ACOR4,535,93E-063,57E-03Si MALSChainCMAES4,035,58E-053,85E-03Si ACOR+SW4,016,19E-054,17E-03Si BFPS4,016,19E-054,55E-03Si KPCX3,662,48E-045,00E-03Si DMO3,377,45E-045,56E-03Si MOS23,151,61E-036,25E-03Si MOS43,012,64E-037,14E-03Si MOS12,893,91E-038,33E-03Si MOS32,785,51E-031,00E-02Si DE2,628,86E-031,25E-02Si DEPSO2,143,21E-021,67E-02No GADEDIST1,856,42E-022,50E-02No GCMAES0,774,43E-015,00E-02No Tabla 3: Resultados, usando el test de Holm, de los algoritmos presentados respecto al mejor (STS), D10, f 6-25

11 Análisis de Resultados Identificación de los algoritmos con mejores resultados AlgoritmoR+R-Valor CríticoDiferencia Significativa DEPSO Sí GADE-DIST Sí G-CMA-ES Sí Dimensión 10 Para dimensión 10, el mejor algoritmo identificado es el STS, y los únicos algoritmos no catalogados como estadísticamente peores son el DEPSO, GADE- DIST y G-CMA-ES. Para determinar si el STS es la opción con mejor fitness aplicamos el test de Wilcoxon, que nos permite comparar dos algoritmos entre sí, con p=0.05. Tabla 7: Resultados, usando el test de Wilcoxon, de los algoritmos presentados respecto al mejor (STS), D10, f 6-25

12 Análisis de Resultados Algoritmozpalpha/i¿Dif. Significativa? SBXRL6,362,08E-102,38E-03Sí CIXL1RL6,224,93E-102,50E-03Sí Herrera20005,884,09E-092,63E-03Sí CIXL2RL5,721,05E-082,78E-03Sí BLXRL5,064,09E-072,94E-03Sí AEF5,005,62E-073,13E-03Sí ACOR+SW3,741,86E-043,33E-03Sí DE3,682,36E-043,57E-03Sí ACOR+SIMPLEX3,593,29E-043,85E-03Sí BFPS3,319,28E-044,17E-03Sí DMO3,191,42E-034,55E-03Sí KPCX3,181,49E-035,00E-03Sí DEPSO2,982,86E-035,56E-03Sí ACOR2,657,95E-036,25E-03No MOS42,461,39E-027,14E-03No MOS32,421,54E-028,33E-03No MOS12,341,94E-021,00E-02No MOS21,945,29E-021,25E-02No GCMAES1,728,60E-021,67E-02No GADEDIST1,242,14E-012,50E-02No STS0,446,61E-015,00E-02No Tabla 5: Resultados, usando el test de Holm, de los algoritmos presentados respecto al mejor (MA-LS-Chain-CMAES), D30, f 6-25

13 Análisis de Resultados Identificación de los algoritmos con mejores resultados AlgoritmoR+R-Valor CríticoDiferencia Significativa ACOR Sí GADEDIST No G-CMA-ES No MOS Sí MOS Sí MOS Sí MOS Sí STS No Tabla: Resultados, usando el test de Wilcoxon, de los algoritmos presentados respecto al mejor (MA-LS-Chain-CMAES), D30, f 6-25

14 Análisis de Resultados Identificación de los algoritmos con mejores resultados FuncionesR+ (STS)R- (MA-LS- Chain-CMAES) Valor Crítico¿Diferencia Significativa? F ,5110,552No f ,537,510No Tabla 9: Resultados, usando el test de Wilcoxon, de comparar STS y MA-LS-Chain-CMAES, D30

15 Análisis de Resultados AlgoritmoF6F6 F7F7 F8F8 F9F9 F 10 F 11 F 12 F 13 F 14 F 15 STS 4,78E+019,78E-012,04E+019,37E-026,95E+011,69E+011,29E+001,37E+001,04E+015,73E-02 MA-LS- Chain- CMAES 1,19E+018,87E-042,03E+017,83E-091,84E+014,35E+007,69E+022,34E+001,27E+013,08E+02 Algoritmo F 16 F 17 F 18 F 19 F 20 F 21 F 22 F 23 F 24 F 25 STS 6,91E+016,62E+018,00E+028,84E+028,00E+025,00E+028,42E+025,34E+022,00E+023,40E+02 MA-LS- Chain- CMAES 1,36E+021,35E+028,16E+02 5,12E+025,26E+025,34E+022,00E+022,11E+02 Tabla 10: Resultados de STS y MA-LS-Chain-CMAES para dimensión 30

16 Análisis de Resultados Análisis de Resultados – Bibliografía Demsar, J., Statistical comparisons of classifiers over multiple data sets. Journal of Machine Learning Research. Vol. 7. pp. 1– S. García, F. Herrera, An Extension on "Statistical Comparisons of Classifiers over Multiple Data Sets" for all Pairwise Comparisons.S. GarcíaF. Herrera Journal of Machine Learning Research 9 (2008) S. GarcíaS. García, D. Molina, M. Lozano, F. Herrera, A Study on the Use of Non-Parametric Tests for Analyzing the Evolutionary Algorithms' Behaviour: A Case Study on the CEC'2005 Special Session on Real Parameter Optimization.D. MolinaM. LozanoF. Herrera Journal of Heuristics, doi: /s in press (2009).doi: /s

17 Debate Nuevos retos en el desarrollo de modelos MAEB para optimización continua Tenemos muchos algoritmos. ¿Cuál es el siguiente paso? 1.Estudios sobre eficiencia versus eficacia – Convergencia en funciones F1-F15 con un mínimo de evaluaciones. 2.Estudios sobre funciones complejas: F14-F25. 3.Escalabilidad de los algoritmos: Large Scale Optimization (100, 500, 1000 variables o más) 4.Búsqueda Local versus Búsqueda Global: Hibridación

18 Sesión Reciente Large Scale Global Optimization CEC2008 Special Session on Large Scale Global Optimization 2008 IEEE World Congress on Computational Intelligence June 1 - 6, 2008, Hong Kong Reference: K. Tang, X. Yao, P. N. Suganthan, C. MacNish, Y. P. Chen, C. M. Chen, and Z. Yang, "Benchmark Functions for the CEC'2008 Special Session and Competition on Large Scale Global Optimizatio," Technical Report, Nature Inspired Computation and Applications Laboratory, USTC, China

19

20