11. PROGRAMACION NO-LINEAL

Slides:



Advertisements
Presentaciones similares
Decisiones de Cartera Villar. Capítulo Nº 12.
Advertisements

Funciones y sus Propiedades Básicas
PUNTOS CRÍTICOS COMO CANDIDATOS A LUGAR DE MÁXIMO O MÍNIMO ABSOLUTOS.
EC. DIFERENCIAL Def: Se llama ecuación diferencial a una relación que contiene una o varias derivadas de una función no especificada “y” con respecto.
UNIDAD No. 1 El proceso de integración
Tema 4 Introducción a la Programación Lineal
DERIVADA DE UNA FUNCION REAL
Bivariadas y Multivariadas
EL TEOREMA DE TAYLOR   INTRODUCCION:
INTEGRACIÓN.
Tema 3: Introducción a la programación lineal
INSTITUTO TECNOLOGICO DE MINATITLAN ISC IV SEMESTRE
Expresión de un problema de programación lineal Aplicaciones de la programación lineal Soluciones de un problema lineal Resolución gráfica de un problema.
KRIGING.
MODELO DE REGRESIÓN MÚLTIPLE
Instituto tecnológico de Minatitlán
Investigación Operativa
Econometria 2. Modelo de Regresión Lineal Simple
DERIVADAS PARCIALES Gráficas.
Aplicaciones de la derivada Resuelve problemas de optimización aplicando las ideas básicas relacionadas con extremos de funciones de una variable Bloque.
Tomado de UNIMET Prof. Antonio Syers
2- SIMPLEX.
Tema 2: Métodos de ajuste
Tema 2: LA ELECCIÓN RACIONAL DEL COSUMIDOR
Estadística 2010 Maestría en Finanzas Universidad del CEMA Profesor: Alberto Landro Asistente: Julián R. Siri.
DISEÑOS DE COMPOSICION CENTRAL
Universidad de los Andes-CODENSA
Matemáticas III Tema I FUNCIONES
Resolución de Problemas Método Simplex
Resolución gráfica de problemas de Optimización
INTEGRANTES: BAUER KAREN FRANCIA EDGAR VICTOR
Universidad de los Andes-CODENSA
Introducción a Funciones de una variable
Representación de Señales y Ruido por medio de Series Ortogonales
Optimización de Procesos
Optimización para Ingenieros
PROGRAMACIÓN LINEAL.
DEFINICIONES Sea (P) el siguiente problema de programación lineal:
Tema 4 PROGRAMACIÓN LINEAL.
Guías Modulares de Estudio Matemáticas IV – Parte B
Unidad V: Estimación de
Guías Modulares de Estudio Cálculo diferencial – Parte B
Programación Lineal Entera Antonio H. Escobar Z Universidad Tecnológica de Pereira – Colombia Posgrado en Ingeniería Maestría en Ingeniería Eléctrica.
3- PROGRAMACION LINEAL PARAMETRICA
Programación lineal La programación lineal es una técnica matemática relativamente reciente, del siglo XX, que consiste en una serie de métodos y procedimientos.
Programación Lineal Método Grafico
5. El Método Simplex En lo que sigue consideremos un problema de programación lineal en su forma estándar ³ =
Modelos Cuantitativos
Unidad II: Variables Aleatorias Concepto Discreta y Continua Fun. de densidad Fun. de probabilidad F. de distribución Esperanza y Varianza Propiedades.
Unidad V: Estimación de
Sabemos reconocerlas, y calcularlas como soluciones de sistemas de ecuaciones, o de desigualdades Buscamos métodos de cálculo generales y eficientes Problemas.
Introducción Programación Matemática Objetivos:
1 Condiciones de extremo Proceso para derivar las condiciones De problema más simple a más complejo Progresión de problemas: Problema sin restricciones.
Distribuciones de probabilidad bidimensionales o conjuntas
Ecuaciones Algebraicas
Estadística Aplicada a la Gestión Empresarial
Ing. Antonio Crivillero
Conceptos Básicos.  Alumno: Javier Sánchez Sánchez  Registro:  Grupo: B207  Fecha: 12/02/10.
Prof. Juan José Bravo B., M.Sc. ©
EII405 Investigación de operaciones
RIESGO, RENDIMIENTO Y VALOR
MATEMÁTICAS FINANCIERAS
 E Expresión de un problema de programación lineal  A Aplicaciones de la programación lineal  S Soluciones de un problema de programación lineal.
BIENVENIDOS A ESTE VIDEO TUTORIAL DE LA MATERIA DE INVESTIGACION DE OPERACIONES… … ACONTINUACION EL TEMA QUE TRATAREMOS EN ESTE VIDEO TUTORIAL ES EL DE.
Matemáticas preuniversitarias
REGRESIÓN LINEAL SIMPLE
Ing. Haydeli del Rosario Roa Lopez
Ecuaciones Diferenciales Ordinarias de Primer Orden. Tema # 1.
GRÁFICAS Y FUNCIONES MATEMÁTICAS Bernardo Nieto Castellanos.
Viviana Acosta Estadística II. Que es Es una distribución de probabilidad que surge del problema de estimar la media de una población normalmente distribuida.
Transcripción de la presentación:

11. PROGRAMACION NO-LINEAL 11.1 Introducción y ejemplos 11.2 Propiedades básicas de los problemas de programación no-lineal 11.3 Problemas de optimización no restringida 11.4 Problemas de optimización con restricciones de igualdad 11.5 Problemas con restricciones de igualdad y desigualdad. 11.6 Métodos de optimización restringida GIO

GIO 11.1 Introducción y ejemplos A esta clase de problemas de optimización pertenecen todos aquellos problemas en los cuales la función objetivo y/o las restricciones son funciones no-lineales de las variables de decisión. En particular, la programación no-lineal provee una manera de abordar el no cumplimiento del supuesto de proporcionalidad de la programación lineal, permitiendo la programación de economías o deseconomías a escala y/o retornos crecientes o decrecientes a escala. GIO

GIO a) Rendimientos decrecientes a escala. Una compañía vende cuatro productos diferentes, el retorno que provee cada producto es una función de la cantidad de recursos asignados a la promoción y venta de cada producto, según la siguiente tabla: PRODUCTO RETORNO (M$, miles de pesos) Producto 1 10.000 50 . x1 Producto 2 7.500 75 x2 Producto 3 9.000 60 x3 Producto 4 15.000 30 x4 GIO

En este ejemplo: xi es la cantidad de recursos asignados al producto i, con i=1,2,3,4. El siguiente modelo provee una asignación de estos recursos, de modo de maximizar las utilidades, considerando una inversión anual no superior a los de M$ 75.000 Máx 10.000x10.5 + 7.500x20.75 + 9.000x30.6 + 15.000x40.3 s.a. x1+x2+x3+x4  75.000 xi 0; i=1,2,3,4,5. GIO

GIO b) Aproximación y ajuste de curvas. Supongamos que se tiene un conjunto de datos correspondientes a una determinada función y=g(x) (desconocida), digamos (x1,y1), (x2,y2),..., (xm,ym) y se desea aproximar g(x) por una función h(x) 1 2 y m x GIO

GIO Algunas elecciones posibles: h (x) = x a + x a + x + e e + ) ln( x 1 + 2 1 x a o + 2 1 a x o + x a e o 1 x a e o 3 2 1 + ) ln( 1 x a o + GIO

¿Cómo elegir los coeficientes ai en la función h(x) que aproxima o ajusta los datos observados? Se define una función de error: e (x) = g(x)–h(x) Una elección posible de los coeficientes ai resulta de minimizar la suma ponderada de los errores al cuadrado en cada uno de los datos , es decir: Min F (ao,a1,...,an) = m ( ) å = - i x h y w 1 2 GIO

que da origen a un problema de programación no-lineal sin restricciones. Si escogemos w1=...=wm=1 y h(x)= , la solución del problema corresponde a la recta de la regresión lineal. x a o 1 + h(x)= x a o 1 + 1 2 Y m X å = ÷ ø ö ç è æ m i x y a 1 2 * å = ÷ ø ö ç è æ m i y o a 1 GIO

GIO c) Localización de instalaciones Una compañía petrolera desea construir una refinería que recibirá suministros desde tres instalaciones portuarias, cuyas coordenadas se muestran en la siguiente figura: 30 40 80 Puerto B Puerto C Puerto A GIO

Si denotamos por x e y las respectivas coordenadas de la refinería que se debe instalar, una posible elección es aquella que resulta de minimizar la cantidad total de tubería necesaria para conectar la refinería con los puertos, dada por: Min f ( x,y ) = La solución óptima calculada por el solver de Excel es: x*=30,8052225 y*= 37,8900128 2 ) 30 ( 80 40 - + y x GIO

30 40 80 Puerto B Puerto C Puerto A Refinería 30 GIO

GIO d) Optimización de carteras de inversión Se desea obtener una cartera de inversiones en base a distintos instrumentos (acciones, pagarés, bonos, etc.). La cartera elegida deberá reflejar un compromiso entre los retornos de los instrumentos elegidos y el riesgo asociado a cada uno de ellos, de hecho es natural esperar que a mayor retorno haya un mayor riesgo y también que exista cierta correlación entre los retornos de los distintos instrumentos de la cartera. GIO

A continuación se formula un modelo para obtener una cartera de inversión de un tomador de decisiones averso al riesgo, con un vector de retornos que tiene una distribución normal con media: matriz de covarianza: donde denota la desviación estándar del retorno del instrumento i y donde es la covarianza de los retornos del instrumento i con el j. T ) , ,......... 3 2 1 ( n r = . ,...., 2 , 1 .; ) ( n j i ij Q = s ii s ij s j) (i ¹ GIO

Sea xi el porcentaje de inversión del instrumento i en la cartera, con i=1,2,...n, las variables de decisión del modelo y sea K una constante de aversión al riesgo. El siguiente modelo (propuesto por Markowitz, Premio Nobel de Economía 1991), combina ambos elementos presentes en una decisión de esta naturaleza: Máx n . ,..... 2 , 1 i x a s j ij K r = ³ å - GIO

Usando el ejemplo del servidor Neos para una cartera con tres acciones y un bono tenemos: Selected value of K is 10.00 Risk less rate of return (monthly) is 0.00407 GIO

21.0% Coca -Cola Exxon Corp. 48.6% Texaco Inc. 16.6% Bond 13.7% GIO

11.2 Propiedades básicas de los problemas de programación no-lineal De manera general, un problema de optimización considera la resolución de un problema como el que sigue: P) Min ƒ(x) s.a. x  D  IRn Donde ƒ: IRn IR es una función comúnmente continua y diferenciable, y D es el dominio de factibilidad del problema, generalmente dado por: D= {x  IRn / gi(x) = bi i=1,...,m; hj(x)  dj j=1,...,l } GIO

ƒ(x*)  ƒ(x) para todo x  D Decimos que x*  D es un mínimo global o solución óptima del problema P) ssi: ƒ(x*)  ƒ(x) para todo x  D Por otra parte, decimos que x^  D es un mínimo local del problema P) ssi: ƒ(x^)  ƒ(x) para todo x en una vecindad de x^ (x  D  B(x^, )) GIO

Min ƒ(x)= (x-1)(x-2)(x-3)(x-4)(x-5) s.a 1x5 Mínimos locales: x=1, x^ y x* Solución óptima y minimo global x* GIO

Existen resultados que garantizan la existencia y unicidad de la solución de un problema de programación no lineal. Teorema (Weiertrass). Si ƒ es una función continua y D es un conjunto no vacío cerrado y acotado de IRn, entonces P) tiene solución óptima. Teorema. Si ƒ es una función continua y D es un conjunto cerrado no vacío y además ƒ cumple que: lim|x|+ ƒ(x) = +, entonces P) tiene solución óptima. GIO

Por su parte, la unicidad de la solución óptima se puede garantizar sólo bajo ciertas condiciones muy especiales. De igual modo es posible garantizar si un mínimo local es un mínimo global del problema. Para esto se requiere saber si el problema P) es un problema convexo, esto es si la función objetivo es convexa y el conjunto D de puntos factibles es un conjunto convexo. GIO

x + (1-)y )  (x) + (1-)(y) Definición. Decimos que ƒ: IRnIR es una función convexa ssi: x + (1-)y )  (x) + (1-)(y) para todo x,y  D (xy) con   [0,1] Si la desigualdad anterior se cumple de manera estricta, decimos que ƒ es estrictamente convexa. Lineal a trozos x y ƒ(x) ƒ(y) GIO

GIO Adicionalmente, se tiene el siguiente resultado Teorema. Si ƒ es una función dos veces continuamente diferenciables, las siguientes afirmaciones son equivalentes: ƒ es una función convexa ƒ(x)  ƒ(y) +  ƒT(y)(x-y) para dos puntos cualesquiera x e y. La matriz hessiana de las segundas derivadas parciales de ƒ, denotada en lo que sigue por D2 ƒ(x), es semi positiva definida para todo x. GIO

Por otra parte, también podemos caracterizar si un conjunto cualquiera es convexo o no, de acuerdo a la siguiente: Definición. D  IRn, un conjunto no vacío, es convexo ssi x + (1-) y  D, para todo x  D, y  D con   [0,1]. x y x y Es convexo No es convexo GIO

Así por ejemplo, si h(x) es una función convexa el conjunto D = { x  IRn  h(x)  d } es convexo para cualquier escalar real d. También es posible demostrar que la intersección de conjuntos convexos es un conjunto convexo. De aquí que por ejemplo el problema P) Min ƒ(x) s.a hj(x)  dj j=1,2,...,l Con ƒ(x) y hj(x), para j=1,2,..,l, funciones convexas definen un problema convexo, pues el dominio de factibilidad es la intersección de los conjuntos convexos Dj = { x  IRn  hj(x)  dj }, para j=1,2,..,l. GIO

Teorema. Si P) es un problema convexo y x Teorema. Si P) es un problema convexo y x* es un mínimo local de P) entonces x* es un mínimo global o solución óptima de P), si además, ƒ es una función estrictamente convexa x* es la única solución óptima. La principal dificultad en los problemas de programación no lineal es que incluyen restriciones no lineales de igualdad como g(x)=b y el conjunto de puntos { xIRn : g(x)=b} generalmente no es convexo cuando g(x) es una función no lineal cualquiera. Por lo tanto no todos los problemas de programación no lineal son convexos y esto hace más difícil garantizar que la solución encontrada por un solver sea una solución óptima del problema. GIO

Como puede verse en el siguiente ejemplo, que resolveremos gráficamente, la geometría de los problemas también cambia respecto de lo observado en programación lineal. Consideremos el siguiente problema: Min (x1 - 3)2 + (x2 - 4)2 s.a. x1 + x2  5 x1 - x2  5/2 x1  0, x2  0 GIO

GIO

La solución óptima x. de este problema se alcanza el punto x1. = 2, x2 La solución óptima x* de este problema se alcanza el punto x1* = 2, x2* = 3 correspondiente al único punto de la curva de nivel que tiene el menor valor y que intersecta la región de puntos factibles. Notar que la solución ya no corresponde a un vértice del dominio de factibilidad del problema, aún cuando todavía esta solución se alcanza en la frontera de dicho conjunto. GIO

Sin embargo, esto último, a diferencia de lo que ocurre en programación lineal, no siempre se produce. Si por ejemplo el problema es ahora: Min (x1 - 2)2 + (x2 - 2)2 s.a x1 + x2  5 x1 - x2  5/2 x1  0, x2  0 La solución cambia a lo representado en la siguiente figura, donde la solución óptima se alcanza en x1* = 2, x2* = 2, ahora perteneciente al interior del dominio de factibilidad del problema. GIO

GIO

Gráficamente, también podemos observar la presencia de divesos mínimos locales en un problema no lineal. GIO

GIO 11.3 Problemas de optimización no restringida En esta sección consideraremos un problema P) Min ƒ(x) con x  IRn A esta clase de problemas pertenece por ejemplo el problema de aproximación y ajuste de curvas. Sin embargo, la principal razón para su estudio radica en la extensión de las ideas y métodos para esta clase de problemas a los problemas de optimización restringida. GIO

A continuación se resumen algunos resultados teóricos para esta clase de problemas: Teorema (condiciones necesarias de primer orden). Si ƒ es una función continuamente diferenciable y x^  IRn es un mínimo local de P), entonces: (x^) = 0. Teorema (condiciones necesarias de segundo orden). Si ƒ es una función dos veces continuamente diferenciable y x^  IRn es un mínimo local de P), entonces: (x^) = 0 y D2 (x^) es semi positiva definida. GIO

Dado lo anterior, no todos los puntos x  IRn que satisfacen las propiedades mencionadas son mínimos locales de la función, sin embargo existen resultados que proveen condiciones necesarias y suficientes para que un punto sea un mínimo local. Teorema (condiciones suficientes de segundo orden). Sea  una función dos veces continuamente diferenciable en x^. Si (x^)=0 y D2 (x^) es positiva definida, entonces x^ es un mínimo local estricto. Teorema. Sea  una función convexa continuamente diferenciable, entonces x^ es un mínimo global ssi (x^)=0. GIO

GIO Ejemplo. Considere la función: (x1,x2) = 3 x12 + x23 - 3/2 x22 su gradiente y matriz Hessiana corresponden a: (x) = 6 x1 3x22 - 3 x2 D2 (x) = 6 0 0 6x2 - 3 GIO

GIO De modo que hay dos posibles candidatos, x^ =(0,0)T y x* = (0,1)T, que satisfacen las condiciones necesarias de primer orden, sin embargo D2 (x) = 6 0 0 6x2 - 3 sólo es positiva definida en x* = (0,1), de modo que x* es un mínimo local del problema. GIO

La mayor parte de los algoritmos de optimización para abordar esta clase de problemas pertenecen a la clase de algoritmos generales de descenso que reducen el cálculo de un mínimo local a una secuencia de problemas de búsqueda lineal (o búsqueda unidimensional). GIO

Decimos que un vector d  IRn es una dirección de descenso de la función  en el punto x^ ssi la derivada direccional de  en x^ en la dirección d, es negativa: x1 x2 Z=10 Z=20 x^ (x) - (x) d GIO

g() = (x^ + ^d) < (x^) = g(0) Consideremos además la función unidimensional (en una variable) g() = (x^ +  d) donde  es un escalar real llamado el tamaño del paso. Esta función da el valor f cuando uno se mueve a partir del punto x^ en la dirección d un cierto paso . Claramente, si g’(0)=  T(x^)d<0, es posible escoger un paso ^ tal que: g() = (x^ + ^d) < (x^) = g(0) esto es, que reduzca el valor de la función respecto del valor actual en x^. GIO

Algoritmo general de descenso 1 Considere un punto inicial x=x°. Hacer k=0. 2 Escoger una dirección de descenso dk. 3 Realizar una búsqueda lineal que seleccione un paso k tal que: g(k) = ƒ(xk + kdk) < ƒ(xk) = g(0) 4 Hacer xk+1 = xk + kdk. 5 Hacer un test de convergencia. Si converge stop. En caso contrario, hacer k=k+1 y volver a 2. GIO

GIO En paso 5, los criterios más usuales de convergencia son que:  (xk)    (xk+1) - (xk)/ (1+ (xk))   para un cierto número L de valores consecutivos de k, y donde  es una tolerancia dada de error, por ejemplo =10-4. Existen varios métodos para escoger una dirección de descenso, uno de ellos es: GIO

Método del descenso más pronunciado En este método, también conocido como método del gradiente o método de Cauchy, dado la actual aproximación xk, la dirección de descenso se escoge como: dk = -(xk) GIO

GIO ) ( - + Min Ejemplo.Considerar el problema: . IR Î ÷ ø ö ç è æ x a 2 1 4 ) ( - + . IR Î ÷ ø ö ç è æ x a s Min que resolvemos usando el método del descenso más pronunciado a partir del punto x10 = 0, x20 = 3. GIO

GIO k ƒ(xk) ƒ(xk) Iteración k 0.062 (-44.00,24.00) (0.00,3.00) 52.00 1 0.24 (0.73,1.28) (2.70,1.51) 0.34 2 0.11 (0.80,-0.48) (2.52,1.20) 0.09 3 0.31 (0.18,0.28) (2.43,1.25) 0.04 4 (0.05,0.08) (2.28,1.15) 0.007 8 0.13 (0.15,-0.08) (2.30,1.14) 0.009 7 0.36 (0.08,0.12) (2.33,1.18) 0.01 6 0.12 (0.30,-0.20) (2.37,1.16) 0.02 5 GIO

Otra elección posible para la dirección de descenso es la que usa el: Método de Newton Aquí el vector dk se calcula como la solución del siguiente sistema de ecuaciones: D2ƒ(x)dk=-  ƒ(x) Sin embargo, a pesar de ser un método más eficiente que el anterior respecto de su rápidez de convergencia, requiere en cada iteración el cálculo de las segundas derivadas parciales y la resolución de un sistema de ecuaciones. Además, dk está garantizada que es una dirección de descenso sólo si D2ƒ(xk) es positiva definida. GIO

GIO Al aplicar el método al ejemplo anterior se tiene: ƒ(xk) ƒ(xk) Iteración k (-44.00,24.00) (0.00,3.00) 52.00 1 (-9.39,-0.04) (0.67,0.33) 3.13 2 (-2.84,-0.04) (1.11,0.56) 0.63 3 (-0.80,-0.04) (1.41,0.70) 0.12 4 (0.0003,-0.04) (1.83,0.91) 0.0009 7 (-0.07,0.00) (1.74,0.87) 0.005 6 (-0.22,-0.04) (1.61,0.80) 0.02 5 GIO

11.4 Problemas de optimización con restricciones de igualdad El problema que se desea abordar consiste en: P) Min. f(x) s.a. g1(x) = b1 g2(x) = b2 g m(x)= bn mn Definición. Decimos que x  IRn un punto regular de las restricciones del problema P) ssi: son vectores l.i. ) ˆ ( ),....., 2 ), 1 ,..., i x m g i = b Ñ = GIO

Para presentar algunos resultados teóricos, que permiten el cálculo de mínimos locales, se introdujo la definición anterior que se relaciona con el cumplimiento de ciertas condiciones de regularidad del problema. A continuación, introducimos la función lagrangeana del problema P): m i b x g f ) 1 ( , l - å = + L GIO

GIO Donde representa el vector de los multiplicadores de lagrange. Los siguientes resultados teóricos establecen ciertas propiedades que satisface un mínimo local, las cuales muestran, en particular, que dicho punto es un punto estacionario de la función lagrangeana. t m ) ,...., 2 , 1 ( l = GIO

GIO Teorema (Condiciones necesarias de primer orden): Sean f(x) y g1(x),..., gm(x), funciones continuamente diferenciales y sea x^ un mínimo local que además es un punto regular de las restricciones de P), entonces existe un vector λ^  IRm, de multiplicadores de Lagrange tales que: 1 ) ˆ ( = å Ñ + m i x g f , l L GIO

Teorema(Condiciones necesarias y suficientes de segundo orden) Teorema(Condiciones necesarias y suficientes de segundo orden). Sean f,g1,g2,...,gm funciones dos veces continuamente diferenciables y sea x^  IRn un punto regular de las restricciones de P) que junto con λ^  IRm, satisfacen: es una matriz positiva definida entonces x^ es un mínimo local de P). = å Ñ + m i x g f 1 ) ˆ ( , l L å = + m i X g D x f L 1 ) ˆ ( 2 , l GIO

GIO 2 4 IR x Î = + Ejemplo: Min. s.a. 1 4 IR x Î = + ÷ ø ö ç è æ Ejemplo: Min. s.a. Buscamos x* usando las condiciones de Optimalidad: ; m=1 así: + = ) ( 2 x f 4 h û ë ú ù ê é = 2 ) ( x f D 1 Ñ , T h GIO

GIO Luego las condiciones de primer orden son: ( Factibilidad) Resolviendo el sistema : x1=x2=2; λ1=-4, luego por existencia de la solución óptima de P) se tiene: x1=2 x2=2 es la solución óptima. 4 2 1 = - + x l GIO

GIO De todos modos las condiciones de segundo orden se cumplen : Notar que en x* se tiene: 2 , ) * ( IR x L Î " ³ = + ú û ù ê ë é l T m i x h f ) ( - = å Ñ 1 (1 4 * l GIO

11.5 Problemas con restricciones de igualdad y desigualdad. Por último consideramos un problema general de optimización: P) Min. f(x) s.a. En este caso decimos que es un punto regular de las restricciones del problema ssi: vectores l.i . ,.., 2 , 1 ) ( ,...., l j d x h m i b g = x ˆ = m i b x g . ,..., 1 , ) ˆ ( Ñ + x j h m g ), ˆ ( ),.., 2 ) 1 = £ l j d x h . ,..., 1 , ) ˆ ( ï þ ý ü î í ì = Î j d x h J ) ˆ ( / GIO

Teorema(condiciones necesarias de primer orden de Karush-Kuhn-Tucker (KKT)). Suponga que las funciones f, g1,g2 ,...,gm,h1,...,hl son continuamente diferenciables. Sea un punto regular de P) y mínimo local del problema, entonces existen multiplicadores de lagrange: y x ˆ : ,..., 2 , 1 ,...., ³ l u m 1 ) ˆ ( = Ñ + å l J x j h u i g m f l j d x h u ,...., 2 , 1 ) ( = - GIO

GIO 11.6 Métodos de Optimización Restringida a) Método de activación de restricciones Este método se aplica en esta descripción a problemas que sólo poseen restricciones de desigualdad. La idea es que si el problema no restringido tiene una solución óptima que no satisface una parte de las restricciones, se considera k restricciones como de igualdad y se resuelve este problema restringido hasta llegar a un conjunto de restricciones activas cuya solución también satisface las restricciones omitidas. GIO

1 Resuelva el problema no restringido 1 Resuelva el problema no restringido. Si el óptimo satisface todas las restricciones STOP, en caso contrario, hacer k=1 e ir al paso 2. 2 Activar cualquiera k restricciones y hallar una solución que satisfaga las condiciones de optimalidad KKT. Si la solución resulta factible para las restantes restricciones STOP. Sino, active otro conjunto de k restricciones y repita el paso. Si se han tomado todos los conjuntos de k restricciones sin hallar solución factible ir al paso 3. 3 Si k=L (# total de restricciones) no existe solución factible. En caso contrario, hacer K= K+1 e ir a paso 2. GIO

GIO ~ Ejemplo. Consideremos el problema: Min (2x1 – 5)2 + (2x2 – 1)2 s.a. x1 + 2x2  2 x1, x2  0 El problema no restringido tiene como solución a ~ 2 / 1 ~ 5 = x Obtenida al resolver (x) = 0 GIO

Claramente, este punto no satisface la restricción h1(x1,x2) = x1 + 2x2  2. Consideramos entonces activa la restricción, esto es resolvemos: 2 ) , ( 1 = Ñ + x h f m Cuya solución es 5 / 12 ˆ 10 1 11 22 2 - = m x que no satisface x2  0 GIO

Continuando con el método, si sólo se activa x1= 0 se llega al mínimo local: x1 = 0 x2 = ½ 2=0 1=0 3=0 Notar que otro mínimo local se tiene con x1 + 2x2  2 y x2 = 0 activas, obteniéndose x1 = 2, x2 = 0. GIO

GIO b) Método de Frank - Wolfe Este método permite la resolución de un problema cuya función objetivo es una función convexa no-lineal y cuyas restricciones son todas lineales. Este método reemplaza la función objetivo por una secuencia de funciones lineales que la aproximan, dando así origen a una secuencia de problemas de programación lineal. GIO

GIO Si xk es la actual aproximación a la solución óptima del problema P) Min ƒ(x) s.a. Ax = b x  0 Entonces la expansión en serie de Taylor en torno a x=xk, a saber (x) = (xk) + (xk)(x – xk), permite aproximar el problema P) por el problema lineal PLk) Min ƒ(xk) + (xk)(x – xk) s.a. Ax = b x  0 GIO

o equivalentemente, eliminando los términos constantes, considerar el problema: PLk) Min (xk)x s.a. Ax = b x  0 Si xLPk denota la solución óptima de PLk), este punto no necesariamente es cercano a xk de modo que es necesario proponer un punto que resulte de hacer una minimización unidimensional en el segmento que une xk con xLPk. Todo lo anterior se resume en el siguiente algoritmo: GIO

GIO 0 Escoger un punto inicial factible x0. Hacer k = 1. 1 Evaluar C= (xk-1) 2 Hallar la solución óptima xLPk del siguiente problema lineal Min CT x s.a. Ax = b x  0 3 Para la variable   [0,1], se define g() = (xk-1 +  [xLPk – xk-1]) Usar algún procedimiento de minimización unidimensional para hallar un k que aproxime la solución de Min { g() /   [0,1]} GIO

GIO 4 Hacer xk = xk-1 + k (xLPK – xk-1) 5 Si se satisface el criterio de parada del método, STOP. En caso contrario, hacer k = k + 1 y volver al paso 1. GIO

GIO Ejemplo. , 6 2 3 . 8 5 1 ³ £ + - x a s Min xk xLPk k Xk-1 , 6 2 3 . 8 5 1 ³ £ + - x a s Min (5/6,7/6) (0,2) xk (2,0) (0,3) xLPk k ƒ(xk-1) Xk-1 Iteración k 2/3 (-5,-8) (0,0) 1 5/12 (-5,0) 2 GIO

Direcciones electrónicas en Programación no Lineal Preguntas de consulta frecuente en Programación No Lineal: Servidor NEOS, guía de software de Programación No Lineal: Servidor Neos, ejemplo de carteras de inversión: Guía de software de Programación No Lineal en revista OR&MS Today (INFORMS Magazine) http://www-unix.mcs.anl.gov/otc/Guide/faq/nonlinear-programming-faq.html http://www-fp.mcs.anl.gov/otc/Guide/SoftwareGuide/Categories/unconstropt.html http://www-fp.mcs.anl.gov/otc/Guide/SoftwareGuide/Categories/constropt .html http://www-fp.mcs.anl.gov/otc/Guide/CaseStudies/port/index.html http://lionhrtpub.com/software-surveys.shtml GIO