Descargar la presentación
La descarga está en progreso. Por favor, espere
1
Algoritmos Evolutivos Multiobjetivos
Carlos Domingo Almeida Delgado
2
Motivación Mayoría de los problemas en la naturaleza tiene varios objetivos (posiblemente contradictorios) que deben ser satisfechos. Muchos de estos problemas son tratados con frecuencia como problemas de optimización mono-objetivo transformando todos, menos un objetivo, en restricciones.
3
Optimización Multiobjetivo
4
Optimización Multiobjetivo
El problema de optimización multiobjetivo (MOP) puede ser formalmente definido como: Encontrar el vector: El cual satisfará las siguientes restricciones de desigualdades: Las p restricciones de igualdad Y optimizará el vector función
5
Dominancia Pareto Un vector objetivo y domina a otro y’ sí y solo sí:
yi yi’ i y además yj < yj’ para por lo menos un j. Una solución x* X es Pareto óptima si no existe otra x X tal que y = f(x) domine a y* = f(x*). El conjunto de todas las soluciones Pareto óptimas es denominado conjunto Pareto óptimo P* (P* X) y su imagen Frente Pareto PF* (PF* Y).
6
Cuál es la solución óptima?
Se refiere al concepto de dominación x(1) domina x(2), si x(1) no es peor que x(2) en todos los objetivos x(1) es estrictamente mejor que x(2) en al menos un objetivo Ejemplos: 3 domina 2 3 no domina 5
7
Conjunto Pareto óptimo
Para un dado MOP , el conjunto pareto óptimo (P*), es definido como:
8
Frente Pareto Para un dado MOP , y un conjunto Pareto óptimo (P*), el frente Pareto (PF*) es definido como:
9
Frentes Pareto óptimas
Depende del tipo de objetivos Definición de dominancia establece las posibilidades Siempre en las fronteras de las regiones posibles
10
Dos objetivos de optimización ideal multiobjetivo
Converge al frente Pareto óptimo Mantiene la diversidad de la distribución como es posible
11
Porqué algoritmos evolutivos?
Algoritmos evolutivos parecen particularmente adecuados para resolver problemas de Optimización multiobjetivo, porque tratan simultáneamente con una serie de posibles soluciones (la llamada población). Esto nos permite encontrar varios miembros del Pareto óptimo establecido en una única prueba del algoritmo, en lugar de tener que realizar una serie de búsquedas separadas como en el caso de las tradicionales técnicas de programación matemáticas. Además, los algoritmos evolutivos son menos susceptibles a la forma o la continuidad del frente Pareto (por ejemplo, puede fácilmente tratar con frentes de Pareto discontinuos o cóncavos), mientras que estas dos cuestiones son una preocupación real para las técnicas de programación matemáticas.
12
Espacio de decisiones y espacio objetivo
13
Optimización y toma de decisiones
La toma de decisiones se realiza normalmente después de la búsqueda (encontrar/aproximar conjunto Pareto primero).
14
Vista de un simple algoritmo evolutivo
15
Realizaciones en un MOP
16
Estrategias de asignación de fitness
17
Pseudocódigo Algoritmo SPEA2
Paso 1: Generar población inicial Po y archivo vacío externo Ao. Hacer t = 0. Paso 2: Calcular valor de fitness de los individuos de Pt y At. Paso 3: At+1 = Individuos no dominados de Pt y At. Si tamaño de At+1 > reducir At+1, caso contrario si tamaño de At+1 < llenar At+1 con individuos dominados de Pt y At. Paso 4: Si t > T salvar individuos no dominados de At+1. Parar. Paso 5: Llenar el conjunto de emparejamientos mediante torneo binario utilizando individuos de At+1. Paso 6: Aplicar operadores de cruzamiento y mutación al conjunto de emparejamientos y completar Pt+1 con la población resultante. Hacer t = t +1 e ir al Paso 2.
18
Asignación de fitness Pareto
19
Elitist Non-dominated Sorting Genetic Algorithm (NSGA II)
NSGA-II puede extraer la frontera Pareto óptima Encuentra el conjunto de soluciones bien distribuidas
20
Descomposición funcional
Convergencia: énfasis en soluciones no dominadas Diversidad: Preferencia a soluciones menos aglomeradas Preservación de elitismo: Asegurar propiedades de convergencia
21
Una iteración de NSGA-II
Convergencia Mantenimiento de la diversidad Preservación de Elite
22
Terminología Nicho – paramétrico Distancia crowding (aglomeración)
c = a + b Las finalizaciones tienen infinitas distancias crowding
23
NSGA-II: distancia de aglomeración
Complejidad total O(N log M-1 N) Mejora la diversidad mediante: Agrupamiento k-medio (clustering) Medida de distancia Euclidiana Otras técnicas
24
Simulación de ZDT1
25
Simulación de ZDT3
26
Resultados de la simulación Restricción NSGA-II
27
Computación distribuida: problema de tres objetivos
Computación espacial, no temporal Teoría Simulaciones NSGA-II
28
Estudio comparativo de problemas tri-objetivos DTLZ
29
Problemas de prueba DTLZ2
30
Conclusiones Porqué usar un algoritmo evolutivo?
Flexibilidad: la formulación del problema puede ser fácilmente modificado/extendido (requerimientos minimos). Múltiples objetivos: el espacio de soluciones puede ser explorado en una simple corrida de optimización. Factibilidad: Eas son aplicables a complejos y grandes espacios de búsquedas. Porqué optimización multiobjetivo? Robustez: agregación de varios objetivos en uno simple requiere ajustes de parámetros. Confidencia: es fácil seleccionar una solución si las alternativas son conocidas.
31
Conclusiones #2 Descomposición funcional de NSGA-II
No – dominancia para convergencia Nichos para diversidad de conjunto de soluciones Preservación de élite para convergencia confiable Para la solución de un nuevo problema, encontrar el lugar apropiado para modificarlo Muchas diferentes soluciones de problemas realizados con NSGA-II
32
MOEA – Líneas de investigación futuras
Incorporar preferencias Muchas de las actuales técnicas usadas en en la Toma de Decisiones Multicriterio que se desarrolla en el área de Investigación Operativa, aún no son bien aplicadas en Optimización Evolutiva Multiobjetivo. Esta incorporación es muy importante para aplicaciones reales ya que el usuario en realidad sólo necesitará una sola solución Óptima-Pareto en vez del conjunto entero como se asume en Algoritmos Evolutivos Multiobjetivo. Optimización de funciones dinámicas Es el siguiente paso, luego de atacar funciones estáticas con varios objetivos. En este caso, las fronteras de Pareto se mueven en el tiempo debido a la existencia de variables aleatorias o dinámicas.
33
MOEA – Líneas de investigación futuras #2
Espacios de búsqueda restringidos En la literatura, se encuentran algunas investigaciones tratando la solución de problemas multiobjetivo con espacios de búsqueda altamente restringidos. Estos problemas son bastante comunes y hacen necesario desarrollar técnicas nuevas para manejo de restricciones que puedan lidiar con este tipo de problemas. Paralelismo Se espera más investigación en MOEA. Es necesario tener más algoritmos y también modelos formales que comprueben la convergencia y claro, más aplicaciones reales que usen paralelismo.
34
Bibliografía Almeida, C., Amarilla, N., & Barán, B. (2003). Optimización Multiobjetivo en la Planificación de Centrales Telefónicas. Coello, C. A. (1999). A comprehensive survey of evolutionary-based multiobjective optimizations techniques. Knowledge and Information Systems. An International Journal, 1(3):269–308. Goldberg, D. E. (1989). Genetic Algorithms in Search, Optimization and Machine Learning. Addison-Wesley Publishing Co., Reading, Massachusetts. Pareto, V. F. (1896). Cours d’Économie Politique, volume 1. F. Rouge, Lausanne, Paris, France.
35
Bibliografía #2 Schaffer, J. D. (1984). Multiple Objective Optimization with Vector Evaluated Genetic Algorithms. PhD thesis, Vanderbilt University, Nashville, TN. Srinivas, N. and Deb, K. (1994). Multiobjective optimization using nondominated sorting in genetic algorithms. Evolutionary Computation, 2(3):221–248. Zitzler E., Laumanns M., and Thiele L. (2001): SPEA2: Improving The Strength Pareto Evolutionary Algorithms, Technical Report 103, Computer Engineering and Networks Laboratory, Swiss Federal Institute of Technology. Zurich, Switzerland.
Presentaciones similares
© 2025 SlidePlayer.es Inc.
All rights reserved.