Artículos

4: Extrema sujeto a dos restricciones


Aquí está el teorema [teorema: 1] con (m = 2 ).

Teorema ( PageIndex1 )

Suponga que (n> 2. ) Si ({ bf X} _ {0} ) es un punto extremo local de (f ) sujeto a (g_1 ({ bf X}) = g_2 ( { bf X}) = 0 ) y

[ label {eq: 19} left | begin {array} {ccccccc} displaystyle { frac { parcial g_1 ({ bf X} _ {0})} { parcial x_ {r}}} & estilo de visualización { frac { g_1 parcial ({ bf X} _ {0})} { x parcial_ {s}}} estilo de visualización { frac { parcial g_2 ({ bf X} _ {0})} { parcial x_ {r}}} & displaystyle { frac { parcial g_2 ({ bf X} _ {0})} { parcial x_ {s}}} end {matriz} right | ne0 ]

para algunos (r ) y (s ) en ( {1,2, dots, n }, ) entonces hay constantes ( lambda ) y ( mu ) tales que

[ label {eq: 20} frac { partial f ({ bf X} _ {0})} { partial x_ {i}} - lambda frac { partial g_1 ({ bf X} _ {0})} { parcial x_ {i}} - mu frac { parcial g_2 ({ bf X} _ {0})} { parcial x_ {i}} = 0, ]

(1 le i le n ).

Por conveniencia de notación, sean (r = 1 ) y (s = 2 ). Denotar

[{ bf U} = (x_ {3}, x_ {4}, dots x_ {n}) text {y} { bf U} _ {0} = (x_ {30}, x_ {30 }, dots x_ {n0}). ]

Desde

[ label {eq: 21} left | begin {array} {ccccccc} displaystyle { frac { partial g_1 ({ bf X} _ {0})} { partial x_1}} & displaystyle { frac { parcial g_1 ({ bf X} _ {0})} { parcial x_2}} Displaystyle { frac { parcial g_2 ({ bf X} _ {0})} { parcial x_1}} y Displaystyle { frac { parcial g_2 ({ bf X} _ {0})} { parcial x_2}} end {matriz} right | ne0, ]

el Teorema de la función implícita (Teorema 6.4.1) implica que hay funciones únicas continuamente diferenciables

[h_1 = h_1 (x_ {3}, x_ {4}, dots, x_ {n}) text {y} h_2 = h_1 (x_ {3}, x_ {4}, dots, x_ {n} ), ]

definido en un vecindario (N subconjunto { mathbb R} ^ {n-2} ) de ({ bf U} _ {0}, ) tal que ((h_1 ({ bf U}) , h_2 ({ bf U}), { bf U}) in D ) para todos ({ bf U} in N ), (h_1 ({ bf U} _ {0}) = x_ {10} ), (h_2 ({ bf U} _ {0}) = x_ {20} ), y

[ label {eq: 22} g_1 (h_1 ({ bf U}), h_2 ({ bf U}), { bf U}) = g_2 (h_1 ({ bf U}), h_2 ({ bf U}), { bf U}) = 0, quad { bf U} in N. ]

De ref {eq: 21}, el sistema

[ label {eq: 23} left [ begin {array} {ccccccc} displaystyle { frac { partial g_1 ({ bf X} _ {0})} { partial x_1}} & displaystyle { frac { parcial g_1 ({ bf X} _ {0})} { parcial x_2}} Displaystyle { frac { parcial g_2 ({ bf X} _ {0})} { parcial x_1}} & Displaystyle { frac { parcial g_2 ({ bf X} _ {0})} { parcial x_2}} end {matriz} derecha] izquierda [ begin { matriz} {ccccccc} lambda mu end {matriz} derecha] = izquierda [ begin {matriz} {ccccccc} f_ {x_1} ({ bf X} _ {0}) f_ { x_2} ({ bf X} _ {0}) end {matriz} derecha] ]

tiene una solución única (Teorema 6.1.13). Esto implica la ecuación ref {eq: 20} con (i = 1 ) y (i = 2 ). Si (3 le i le n ), entonces diferenciando la Ecuación ref {eq: 22} con respecto a (x_ {i} ) y recordando que ((h_1 ({ bf U} _ {0 }), h_2 ({ bf U} _ {0}), { bf U} _ {0}) = { bf X} _ {0} ) rendimientos

[ frac { parciales g_1 ({ bf X} _ {0})} { parciales x_ {i}} + frac { parciales g_1 ({ bf X} _ {0})} { parciales x_1} frac { parcial h_1 ({ bf U} _ {0})} { parcial x_ {i}} + frac { parcial g_1 ({ bf X} _ {0})} { parcial x_2} frac { parcial h_2 ({ bf U} _ {0})} { parcial x_ {i}} = 0 ]

y

[ frac { parcial g_2 ({ bf X} _ {0})} { parcial x_ {i}} + frac { parcial g_2 ({ bf X} _ {0})} { parcial x_1} frac { parcial h_1 ({ bf U} _ {0})} { parcial x_ {i}} + frac { parcial g_2 ({ bf X} _ {0})} { parcial x_2} frac { parcial h_2 ({ bf U} _ {0})} { parcial x_ {i}} = 0. ]

Si ({ bf X} _ {0} ) es un punto extremo local de (f ) sujeto a (g_1 ({ bf X}) = g_2 ({ bf X}) = 0 ) , entonces ({ bf U} _ {0} ) es un punto extremo local sin restricciones de (f (h_1 ({ bf U}), h_2 ({ bf U}), { bf U}) ); por lo tanto,

[ frac { parcial f ({ bf X} _ {0})} { parcial x_ {i}} + frac { parcial f ({ bf X} _ {0})} { parcial x_1} frac { parcial h_1 ({ bf U} _ {0})} { parcial x_ {i}} + frac { parcial f ({ bf X} _ {0})} { parcial x_2} frac { parcial h_2 ({ bf U} _ {0})} { parcial x_ {i}} = 0. ]

Las últimas tres ecuaciones implican que

[ left | begin {array} {ccccccc} displaystyle { frac { partial f ({ bf X} _ {0})} { partial x_ {i}}} & displaystyle { frac { parcial f ({ bf X} _ {0})} { parcial x_1}} y estilo de visualización { frac { parcial f ({ bf X} _ {0})} { parcial x_2}} estilo de visualización { frac { g_1 parcial ({ bf X} _ {0})} { x parcial_ {i}}} y estilo de visualización { frac { g_1 parcial ({ bf X} _ {0})} { parcial x_1}} y displaystyle { frac { parcial g_1 ({ bf X} _ {0})} { parcial x_2}} displaystyle { frac { parcial g_2 ({ bf X} _ {0})} { parcial x_ {i}}} y estilo de visualización { frac { parcial g_2 ({ bf X} _ {0})} { parcial x_1} } & estilo de visualización { frac { parcial g_2 ({ bf X} _ {0})} { parcial x_2}} end {matriz} derecha | = 0, ]

[ left | begin {array} {ccccccc} displaystyle { frac { partial f ({ bf X} _ {0})} { partial x_ {i}}} & displaystyle { frac { parcial g_1 ({ bf X} _ {0})} { parcial x_ {i}}} y estilo de visualización { frac { parcial g_2 ({ bf X} _ {0})} { parcial x_ {i}}} estilo de visualización { frac { f parcial ({ bf X} _ {0})} { x_1}} parcial y estilo de visualización { frac { g_1 parcial ({ bf X} _ {0})} { parcial x_1}} y displaystyle { frac { parcial g_2 ({ bf X} _ {0})} { parcial x_1}} displaystyle { frac { parcial f ({ bf X} _ {0})} { parcial x_2}} y estilo de visualización { frac { parcial g_1 ({ bf X} _ {0})} { parcial x_2} } & displaystyle { frac { parcial g_2 ({ bf X} _ {0})} { parcial x_2}} end {matriz} right | = 0. ]

Por lo tanto, hay constantes (c_1 ), (c_2 ), (c_ {3} ), no todas cero, tales que

[ label {eq: 24} left [ begin {array} {ccccccc} displaystyle { frac { partial f ({ bf X} _ {0})} { partial x_ {i}}} & estilo de pantalla { frac { g_1 parcial ({ bf X} _ {0})} { x parcial_ {i}}} y estilo de pantalla { frac { g_2 parcial ({ bf X} _ {0 })} { x parcial_ {i}}} estilo de visualización { frac { f parcial ({ bf X} _ {0})} { x_1}} parcial y estilo de visualización { frac { parcial g_1 ({ bf X} _ {0})} { parcial x_1}} y estilo de visualización { frac { parcial g_2 ({ bf X} _ {0})} { parcial x_1}} estilo de visualización { frac { parcial f ({ bf X} _ {0})} { parcial x_2}} y estilo de visualización { frac { parcial g_1 ({ bf X} _ {0} )} { parcial x_2}} & displaystyle { frac { parcial g_2 ({ bf X} _ {0})} { parcial x_2}} end {array} right] left [ begin {array} {ccccccc} c_1 c_2 c_ {3} end {array} right] = left [ begin {array} {ccccccc} 0 0 0 end {matriz }derecho].]

Si (c_1 = 0 ), entonces

[ left [ begin {array} {ccccccc} displaystyle { frac { parcial g_1 ({ bf X} _ {0})} { parcial x_1}} y displaystyle { frac { parcial g_1 ({ bf X} _ {0})} { parcial x_2}} displaystyle { frac { parcial g_2 ({ bf X} _ {0})} { parcial x_1}} & Displaystyle { frac { parcial g_2 ({ bf X} _ {0})} { parcial x_2}} end {matriz} derecha] izquierda [ begin {matriz} {ccccccc} c_2 c_ {3} end {array} right] = left [ begin {array} {ccccccc} 0 0 end {array} right], ]

entonces la Ecuación ref {eq: 19} implica que (c_2 = c_ {3} = 0 ); por tanto, podemos suponer que (c_1 = 1 ) en una solución no trivial de la Ecuación ref {eq: 24}. Por lo tanto,

[ label {eq: 25} left [ begin {array} {ccccccc} displaystyle { frac { partial f ({ bf X} _ {0})} { partial x_ {i}}} & estilo de pantalla { frac { g_1 parcial ({ bf X} _ {0})} { x parcial_ {i}}} y estilo de pantalla { frac { g_2 parcial ({ bf X} _ {0 })} { x parcial_ {i}}} estilo de visualización { frac { f parcial ({ bf X} _ {0})} { x_1}} parcial y estilo de visualización { frac { parcial g_1 ({ bf X} _ {0})} { parcial x_1}} y estilo de visualización { frac { parcial g_2 ({ bf X} _ {0})} { parcial x_1}} estilo de visualización { frac { parcial f ({ bf X} _ {0})} { parcial x_2}} y estilo de visualización { frac { parcial g_1 ({ bf X} _ {0} )} { parcial x_2}} & displaystyle { frac { parcial g_2 ({ bf X} _ {0})} { parcial x_2}} end {array} right] left [ begin {array} {ccccccc} 1 c_2 c_ {3} end {array} right] = left [ begin {array} {ccccccc} 0 0 0 end {matriz }derecho],]

lo que implica que

[ left [ begin {array} {ccccccc} displaystyle { frac { parcial g_1 ({ bf X} _ {0})} { parcial x_1}} y displaystyle { frac { parcial g_1 ({ bf X} _ {0})} { parcial x_2}} displaystyle { frac { parcial g_2 ({ bf X} _ {0})} { parcial x_1}} & displaystyle { frac { parcial g_2 ({ bf X} _ {0})} { parcial x_2}} end {matriz} derecha] izquierda [ begin {matriz} {ccccccc} -c_2 - c_ {3} end {matriz} right] = left [ begin {array} {ccccccc} f_ {x_1} ({ bf X} _ {0}) f_ {x_2} ({ bf X} _ {0}) end {matriz} derecha]. ]

Dado que la ecuación ref {eq: 23} tiene solo una solución, esto implica que (c_2 = - lambda ) y (c_2 = - mu ), por lo que la ecuación ref {eq: 25} se convierte en

[ left [ begin {array} {ccccccc} displaystyle { frac { partial f ({ bf X} _ {0})} { partial x_ {i}}} y displaystyle { frac { parcial g_1 ({ bf X} _ {0})} { parcial x_ {i}}} y estilo de visualización { frac { parcial g_2 ({ bf X} _ {0})} { parcial x_ {i}}} estilo de visualización { frac { f parcial ({ bf X} _ {0})} { x_1}} parcial y estilo de visualización { frac { g_1 parcial ({ bf X} _ {0})} { parcial x_1}} y displaystyle { frac { parcial g_2 ({ bf X} _ {0})} { parcial x_1}} displaystyle { frac { parcial f ({ bf X} _ {0})} { parcial x_2}} y estilo de visualización { frac { parcial g_1 ({ bf X} _ {0})} { parcial x_2} } & displaystyle { frac { parcial g_2 ({ bf X} _ {0})} { parcial x_2}} end {matriz} derecha] izquierda [ begin {matriz} { rcccccc} 1 - lambda - mu end {matriz} derecha] = izquierda [ begin {matriz} {ccccccc} 0 0 0 end {matriz} derecha]. ]

Al calcular la entrada más alta del vector de la izquierda se obtiene la Ecuación ref {eq: 20}.

Ejemplo ( PageIndex1 )

Minimizar

[f (x, y, z, w) = x ^ 2 + y ^ 2 + z ^ 2 + w ^ 2 nonumber ]

sujeto a

[ label {eq: 26} x + y + z + w = ​​10 text {y} x-y + z + 3w = 6. ]

Solución

Dejar

[L = frac {x ^ 2 + y ^ 2 + z ^ 2 + w ^ 2} 2- lambda (x + y + z + w) - mu (x-y + z + 3w); sin número]

luego

[ begin {align *} L_x & = x- lambda- mu L_y & = y- lambda + mu L_z & = & z- lambda- mu L_w & = w- lambda-3 mu, end {align *} ]

entonces

[ label {eq: 27} x_ {0} = lambda + mu, quad y_ {0} = lambda- mu, quad z_ {0} = lambda + mu, quad w_ {0} = lambda + 3 mu. ]

Esto y la Ecuación ref {eq: 26} implican que

[ begin {alineado} ( lambda + mu) + ( lambda- mu) + ( lambda + mu) + ( lambda + 3 mu) & = & 10 ( lambda + mu) - ( lambda- mu) + ( lambda + mu) + (3 lambda + 9 mu) & = & phantom16. end {alineado} ]

Por lo tanto,

[ begin {alineado} 4 lambda + phantom14 mu & = & 10 4 lambda + 12 mu & = & phantom16, end {alineado} ]

entonces ( lambda = 3 ) y ( mu = -1/2 ). Ahora la ecuación ref {eq: 27} implica que

[(x_ {0}, y_ {0}, z_ {0}, w_ {0}) = left ( frac {5} 2, frac {7} 2, frac {5} 2 frac { 3} 2 derecha). ]

Dado que (f (x, y, z, w) ) es el cuadrado de la distancia desde ((x, y, z, w) ) al origen, alcanza un valor mínimo (pero no un valor máximo ) sujeto a las limitaciones; por lo tanto, el valor mínimo restringido es

[f left ( frac {5} 2, frac {7} 2, frac {5} 2, frac {3} 2 right) = 27. ]

Ejemplo ( PageIndex1 )

La distancia entre dos curvas en ( mathbb {R} ^ 2 ) es el valor mínimo de

[ sqrt {(x_1-x_2) ^ 2 + (y_1-y_2) ^ 2}, nonumber ]

donde ((x_1, y_1) ) está en una curva y ((x_2, y_2) ) está en la otra. Encuentra la distancia entre la elipse

[x ^ 2 + 2y ^ 2 = 1 nonumber ]

y la linea

[ label {eq: 28} x + y = 4. ]

Solución

Debemos minimizar

[d ^ 2 = (x_1-x_2) ^ 2 + (y_1-y_2) ^ 2 nonumber ]

sujeto a

[x_1 ^ 2 + 2y_1 ^ 2 = 1 text {y} x_2 + y_2 = 4. ]

Dejar

[L = frac {(x_1-x_2) ^ 2 + (y_1-y_2) ^ 2 - lambda (x_1 ^ 2 + 2y_1 ^ 2)} 2 - mu (x_2 + y_2); ]

luego

[ begin {align} L_ {x_1} & = & x_1-x_2- lambda x_1 L_ {y_1} & = & y_1-y_2-2 lambda y_1 L_ {x_2} & = & x_2-x_1- mu L_ {y_2} & = & y_2-y_1- mu, end {alineado} ]

entonces

[ begin {alineado} x_ {10} -x_ {20} & = & lambda x_ {10} text {; quad (i)} y_ {10} -y_ {20} & = & 2 lambda y_ {10} text { quad (ii)} x_ {20} -x_ {10} & = & mu text { quad quad ; ; (iii)} y_ {20} -y_ {10} & = & mu. text { quad quad ; ; (iv)} end {alineado}]

De (i) y (iii), ( mu = - lambda x_ {10} ); de (ii) y (iv), ( mu = -2 lambda y_ {10} ). Dado que las curvas no se cruzan, ( lambda ne0 ), entonces (x_ {10} = 2y_ {10} ). Dado que (x_ {10} ^ 2 + 2y_ {10} ^ 2 = 1 ) y ((x_ {0}, y_ {0}) ) está en el primer cuadrante,

[ label {eq: 29} (x_ {10}, y_ {10}) = left ( frac2 { sqrt {6}}, frac1 { sqrt {6}} right). ]

Ahora (iii), (iv) y la ecuación ref {eq: 28} producen el sistema simultáneo

[x_ {20} -y_ {20} = x_ {10} -y_ {10} = frac1 { sqrt {6}}, quad x_ {20} + y_ {20} = 4, ]

entonces

[(x_ {20}, y_ {20}) = left (2+ frac1 {2 sqrt {6}}, 2- frac1 {2 sqrt {6}} right). ]

De esto y de la Ecuación ref {eq: 29}, la distancia entre las curvas es

[ left [ left (2+ frac1 {2 sqrt {6}} - frac2 { sqrt {6}} right) ^ 2 + left (2- frac1 {2 sqrt {6}) } - frac1 { sqrt {6}} right) ^ 2 right] ^ {1/2} = sqrt2 left (2- frac {3} {2 sqrt {6}} right). ]


Cálculo activo - Multivariable + Vector

Preguntas Motivadoras

¿Qué condición geométrica nos permite optimizar una función (f = f (x, y) ) sujeta a una restricción dada por (g (x, y) = k text <,> ) donde (k ) es una constante?

¿Cómo podemos aprovechar esta condición geométrica para encontrar los valores extremos de una función sujeta a una restricción?

Anteriormente consideramos cómo encontrar los valores extremos de funciones tanto en dominios no restringidos como en dominios cerrados y delimitados. Otros tipos de problemas de optimización implican maximizar o minimizar una cantidad sujeta a una restricción externa. En estos casos, los valores extremos no ocurrirán frecuentemente en los puntos donde el gradiente es cero, sino en otros puntos que satisfacen una condición geométrica importante. Estos problemas a menudo se denominan optimización con restricciones problemas y se pueden resolver con el método de los multiplicadores de Lagrange, que estudiamos en esta sección.

Actividad de vista previa 10.8.1.

De acuerdo con las regulaciones postales de EE. UU., La circunferencia más la longitud de un paquete enviado por correo no puede exceder las 108 pulgadas, donde por "circunferencia" nos referimos al perímetro del extremo más pequeño. Nuestro objetivo es encontrar el mayor volumen posible de un paquete rectangular con un extremo cuadrado que se pueda enviar por correo. (Resolvimos este problema de optimización aplicada en una sola variable Cálculo activo, por lo que puede parecer familiar. Adoptamos un enfoque diferente en esta sección, y este enfoque nos permite ver la mayoría de los problemas de optimización aplicados del cálculo de una sola variable como problemas de optimización restringidos, y también nos proporciona herramientas para resolver una mayor variedad de problemas de optimización). x ) sea la longitud del lado de un extremo cuadrado del paquete y (y ) la longitud del paquete, entonces queremos maximizar el volumen (f (x, y) = x ^ 2y ) de la caja sujeta a la restricción de que la circunferencia ( (4x )) más la longitud ( (y )) sea lo más grande posible, o (4x + y = 108 text <.> ) La ecuación (4x + y = 108 ) es, por tanto, una restricción externa sobre las variables.

La ecuación de restricción involucra la función (g ) que viene dada por

Explique por qué la restricción es un contorno de (g text <,> ) y, por lo tanto, es una curva bidimensional.

La figura 10.8.1 muestra la gráfica de la ecuación de restricción (g (x, y) = 108 ) junto con algunos contornos de la función de volumen (f text <.> ) Dado que nuestro objetivo es encontrar el máximo valor de (f ) sujeto a la restricción (g (x, y) = 108 text <,> ) queremos encontrar el punto en nuestra curva de restricción que interseca los contornos de (f ) en el que (f ) tiene su valor más grande.

Los puntos (A ) y (B ) en la figura 10.8.1 se encuentran en un contorno de (f ) y en la ecuación de restricción (g (x, y) = 108 text <.> ) Explique por qué ni (A ) ni (B ) proporcionan un valor máximo de (f ) que satisfaga la restricción.

Los puntos (C ) y (D ) en la figura 10.8.1 se encuentran en un contorno de (f ) y en la ecuación de restricción (g (x, y) = 108 text <.> ) Explique por qué ni (C ) ni (D ) proporcionan un valor máximo de (f ) que satisfaga la restricción.

Basado en sus respuestas a las partes i. y ii., dibuja el contorno de (f ) en el que crees que (f ) alcanzará un valor máximo sujeto a la restricción (g (x, y) = 108 text <.> ) Explica por qué dibujaste el contorno que hiciste.

Recuerda que (g (x, y) = 108 ) es un contorno de la función (g text <,> ) y que el gradiente de una función es siempre ortogonal a sus contornos. Con esto en mente, ¿cómo deberían estar relacionadas ( nabla f ) y ( nabla g ) en el punto óptimo? Explicar.

Subsección 10.8.1 Optimización restringida y multiplicadores de Lagrange

En la Actividad de vista previa 10.8.1, consideramos un problema de optimización donde existe una restricción externa en las variables, es decir, que la circunferencia más la longitud del paquete no puede exceder las 108 pulgadas. Vimos que podemos crear una función (g ) a partir de la restricción, específicamente (g (x, y) = 4x + y text <.> ) La ecuación de restricción es entonces solo un contorno de (g text <,> ) (g (x, y) = c text <,> ) donde (c ) es una constante (en nuestro caso 108). La figura 10.8.2 ilustra que la función de volumen (f ) está maximizada, sujeta a la restricción (g (x, y) = c text <,> ) cuando la gráfica de (g (x, y) = c ) es tangente a un contorno de (f text <.> ) Además, el valor de (f ) en este contorno es el valor máximo buscado.

Para encontrar este punto donde la gráfica de la restricción es tangente a un contorno de (f text <,> ) recuerde que ( nabla f ) es perpendicular a los contornos de (f ) y ( nabla g ) es perpendicular al contorno de (g text <.> ) En tal punto, los vectores ( nabla g ) y ( nabla f ) son paralelos, por lo que necesitamos determinar los puntos donde esto ocurre. Recuerde que dos vectores son paralelos si uno es un múltiplo escalar distinto de cero del otro, por lo que buscamos valores de un parámetro ( lambda ) que hacen

La constante ( lambda ) se llama Multiplicador de Lagrange.

Para encontrar los valores de ( lambda ) que satisfacen (10.8.1) para la función de volumen en la Actividad de vista previa 10.8.1, calculamos tanto ( nabla f ) como ( nabla g text <.> ) Observa eso

y por tanto necesitamos un valor de ( lambda ) para que

Igualando componentes en la ecuación más reciente e incorporando la restricción original, tenemos tres ecuaciones

en las tres incógnitas (x text <,> ) (y text <,> ) y ( lambda text <.> ) Primero, tenga en cuenta que si ( lambda = 0 text < ,> ) entonces la ecuación (10.8.3) muestra que (x = 0 text <.> ) De esto, la ecuación (10.8.4) nos dice que (y = 108 text <.> ) Entonces el punto ((0,108) ) es un punto que debemos considerar. A continuación, siempre que ( lambda neq 0 ) (de donde se sigue que (x neq 0 ) por la Ecuación (10.8.3)), podemos dividir ambos lados de la Ecuación (10.8.2) por lados correspondientes de (10.8.3) para eliminar ( lambda text <,> ) y así encontrar que

Sustituir en la ecuación (10.8.4) nos da

Por lo tanto, tenemos (y = 2x = 36 ) y ( lambda = x ^ 2 = 324 ) como otro punto a considerar. Entonces, los puntos en los que los gradientes de (f ) y (g ) son paralelos y, por lo tanto, en los que (f ) puede tener un máximo o mínimo sujeto a la restricción, son ((0,108) ) y ((18,36) text <.> ) Al evaluar la función (f ) en estos puntos, vemos que maximizamos el volumen cuando la longitud del extremo cuadrado de la caja es de 18 pulgadas y la la longitud es de 36 pulgadas, para un volumen máximo de (f (18,36) = 11664 ) pulgadas cúbicas. Como (f (0,108) = 0 text <,> ) obtenemos un valor mínimo en este punto.

Resumimos el proceso de los multiplicadores de Lagrange de la siguiente manera.

El método de los multiplicadores de Lagrange.

La técnica general para optimizar una función (f = f (x, y) ) sujeta a una restricción (g (x, y) = c ) es resolver el sistema ( nabla f = lambda nabla g ) y (g (x, y) = c ) para (x text <,> ) (y text <,> ) y ( lambda text <.> ) Nosotros luego evalúe la función (f ) en cada punto ((x, y) ) que resulte de una solución al sistema para encontrar los valores óptimos de (f ) sujetos a la restricción.

Actividad 10.8.2.

Una lata de refresco cilíndrica contiene aproximadamente 355 cc de líquido. En esta actividad, queremos encontrar las dimensiones de dicha lata que minimizarán el área de la superficie. En aras de la simplicidad, suponga que la lata es un cilindro perfecto.

¿Cuáles son las variables de este problema? Según el contexto, ¿qué restricciones, si las hay, existen sobre estas variables?

¿Qué cantidad queremos optimizar en este problema? ¿Qué ecuación describe la restricción? (Debe decidir cuál de estas funciones desempeña el papel de (f ) y cuál desempeña el papel de (g ) en nuestra discusión de los multiplicadores de Lagrange).

Encuentre ( lambda ) y los valores de sus variables que satisfacen la Ecuación (10.8.1) en el contexto de este problema.

Determine las dimensiones de la lata de refresco que dan la solución deseada a este problema de optimización restringido.

El método de los multiplicadores de Lagrange también funciona para funciones de más de dos variables.

Actividad 10.8.3.

Utilice el método de los multiplicadores de Lagrange para encontrar las dimensiones de la caja de embalaje menos costosa con un volumen de 240 pies cúbicos cuando el material de la parte superior cuesta $ 2 por pie cuadrado, la parte inferior es $ 3 por pie cuadrado y los lados son $ 1,50 por pie cuadrado. .

El método de los multiplicadores de Lagrange también funciona para funciones de tres variables. Es decir, si tenemos una función (f = f (x, y, z) ) que queremos optimizar sujeta a una restricción (g (x, y, z) = k text <,> ) el punto óptimo ((x, y, z) ) se encuentra en la superficie plana (S ) definida por la restricción (g (x, y, z) = k text <.> ) Como hicimos En la Actividad de vista previa 10.8.1, podemos argumentar que el valor óptimo ocurre en el nivel de la superficie (f (x, y, z) = c ) que es tangente a (S text <.> ) Por lo tanto, el los gradientes de (f ) y (g ) son paralelos en este punto óptimo. Entonces, al igual que en el caso de dos variables, podemos optimizar (f = f (x, y, z) ) sujeto a la restricción (g (x, y, z) = k ) encontrando todos los puntos ((x, y, z) ) que satisfacen ( nabla f = lambda nabla g ) y (g (x, y, z) = k text <.> )

Subsección 10.8.2 Resumen

Los extremos de una función (f = f (x, y) ) sujeta a una restricción (g (x, y) = c ) ocurren en puntos para los cuales el contorno de (f ) es tangente al curva que representa la ecuación de restricción. Esto ocurre cuando

Usamos la condición ( nabla f = lambda nabla g ) para generar un sistema de ecuaciones, junto con la restricción (g (x, y) = c text <,> ) que se puede resolver para (x text <,> ) (y text <,> ) y ( lambda text <.> ) Una vez que tenemos todas las soluciones, evaluamos (f ) en cada una de las ((x, y) ) apunta para determinar los extremos.


4: Extrema sujeto a dos restricciones

El método de los multiplicadores de Lagrange es un método para encontrar extremos de una función de varias variables restringidas a un subconjunto dado.

Comencemos con un ejemplo. Encuentre el máximo y el mínimo de la función z = f (x, y) = 6x + 8y sujeto a la restricción g (x, y) = x ^ 2 + y ^ 2-1 = 0. Podemos resolver este problema parametrizando el círculo y convirtiendo el problema en un problema de optimización con una variable independiente, que se puede abordar utilizando técnicas de cálculo de una sola variable. En esta sección aplicamos el método de los multiplicadores de Lagrange.

La clave para comprender esta técnica es la siguiente figura, que traza la función de restricción y las curvas de nivel de f (x, y).

La función de restricción es el círculo de radio 1 centrado en el origen. Recuerde que las curvas de nivel de f (x, y) = 6x + 8y son las curvas definidas por 6x + 8y = C, donde C es una constante. Estas curvas son las líneas rectas de la figura. En 6x + 8y = C, f (x, y) = C. El valor de C se muestra en cada curva de nivel en la figura. Como muestra la gráfica, la función de f (x, y) toma valores entre -10 y 10 para los puntos del círculo. Por tanto, el máximo es 10 y el mínimo es -10.

Tenga en cuenta que el máximo y el mínimo ocurren en puntos donde la curva de restricción es tangente a la curva de nivel. Hay otra forma de caracterizar los puntos extremos: el máximo y el mínimo ocurren en puntos donde la curva normal a la restricción y la curva normal a nivel apuntan en la misma dirección. Los vectores máximos y mínimos de la figura anterior son los vectores normales.

es normal a la curva de nivel de f a (x, y). Resulta que el vector normal a la curva de restricción es el gradiente de g:

¿Por qué es cierto este último hecho? Sea z = g (x, y). La curva de restricción g (x, y) = 0 es una curva de nivel correspondiente a 0. Por lo tanto, el vector de gradiente de g (x, y) en la curva de restricción es normal a la curva de restricción.

En los puntos máximo y mínimo, los vectores normales apuntan en la misma dirección. Eso significa que los vectores normales son múltiplos entre sí:

Aquí el multiplicador desconocido

se llama multiplicador de Lagrange. Para el caso de funciones de dos variables, esta última ecuación vectorial se puede escribir:

Por lo tanto, la ecuación vectorial anterior consta de las siguientes 2 ecuaciones

Estas 2 últimas ecuaciones tienen 3 incógnitas: x, y y lambda. Necesitamos una tercera ecuación para resolver las 3 variables. La tercera ecuación es la ecuación de restricción:

Ahora resolvemos estas últimas ecuaciones. Resolviendo para xey en las dos primeras ecuaciones, tenemos:

Sustituyendo estas expresiones por xey en la ecuación de restricción, tenemos:

Resolviendo esta última ecuación, obtenemos lambda = + 5 y lambda = -5. Si lambda = 5, entonces x = 3/5 e y = 4/5 y f (x, y) = 10. Este es el valor máximo de f (x, y). Si lambda = -5, entonces x = -3 / 5 e y = -4 / 5 y f (x, y) = - 10. Este es el valor mínimo de f (x, y).

En general, las ecuaciones que deben resolverse simultáneamente no son lineales y no existe una receta sencilla para resolverlas.

La técnica del multiplicador de Lagrange se puede aplicar a problemas de dimensiones superiores. Considere el problema: encuentre los valores extremos de w = f (x, y, z) sujetos a la restricción g (x, y, z) = 0. En este caso, obtenemos las siguientes 4 ecuaciones para las 4 incógnitas x, y, zy lambda.


Métodos analíticos aplicables a las restricciones

Hasta este punto, las variables independientes pueden tomar cualquier valor. En realidad, los valores de las variables independientes son limitados ya que generalmente representan cantidades físicas como caudales, temperaturas, presiones, capacidades de la unidad de proceso y recursos disponibles. En consecuencia, existen restricciones sobre las variables, aunque solo sea el hecho de que deben ser no negativas. En muchos casos, están delimitados dentro de los límites dictados por el equipo de proceso y relacionados por ecuaciones como los balances de materiales. Las restricciones sobre las variables pueden adoptar la forma de ecuaciones y desigualdades.

Se desarrollarán métodos para localizar los puntos estacionarios de funciones (modelos económicos) sujetos a restricciones de igualdad (por ejemplo, ecuaciones de balance de materiales y energía), y se darán ejemplos que ilustran las técnicas. Las restricciones de desigualdad se pueden convertir en restricciones de igualdad, y luego estos procedimientos para las restricciones de igualdad se pueden aplicar con algunas consideraciones adicionales.

Ilustremos la conversión de una restricción de desigualdad en una restricción de igualdad usando un ejemplo simple para ayudar a visualizar el concepto de variables de holgura. La Figura 2-3 es un ejemplo de una restricción de igualdad y desigualdad para una columna de destilación. El balance de material que dice que la tasa de alimentación a la columna debe ser igual a la suma de los productos de cabeza y fondo en estado estable es la restricción de calidad. El límite superior de la capacidad de la columna de destilación, que se estableció cuando se diseñó el equipo, es la restricción de desigualdad. Esta restricción de desigualdad se puede convertir en una restricción de igualdad agregando una variable de holgura S como S2 para garantizar que se haya agregado un número positivo a la ecuación.

El término holgura se utiliza para representar la diferencia entre el límite óptimo y superior de la capacidad. Representa la capacidad no utilizada, en exceso o floja de la unidad de proceso. Por ejemplo, si Fopt = 30.000 barriles por día, entonces S2 = 20.000 barriles por día, una holgura de 20.000 barriles por día y se dice que la restricción es floja, es decir, la desigualdad se mantiene. Si Fopt = 50.000 barriles por día, entonces no hay holgura y se dice que la restricción es estricta, es decir, la igualdad se mantiene. Esto se discutirá con más detalle más adelante en este capítulo. Además, si hubiera un límite inferior en F, por ejemplo, F & gt 10,000, se aplicaría el mismo procedimiento, excepto que S2 se restaría de F. La ecuación sería F - S2 = 10,000, y S se llama variable de excedente.

Ahora podemos plantear un problema de optimización general con n variables independientes y m restricciones de igualdad donde el objetivo es optimizar (maximizar o minimizar) el modelo económico y (x) sujeto a m ecuaciones de restricción fi (x).

optimizar: y (xi, x2. xn) (2-14)
sujeto a: fi (x1, x2. xn) = 0 (2-15)
para i - 1,2. metro

Debe haber menos restricciones de igualdad que las variables independientes para poder optimizar y (x), es decir, n & gt m. Si m = n, los valores de xj se determinan unívocamente y no hay problema de optimización. Además, si m & gt n, se dice que el problema está sobredeterminado, porque hay más ecuaciones que incógnitas. Tampoco hay problema de optimización para este caso.

Hay tres métodos para localizar los puntos óptimos de la función y (x1, x2. Xn) de n variables independientes sujetas a m ecuaciones de restricción fi (x1, x2. Xn) = 0. Éstos son: sustitución directa, solución ser variación restringida y método de multiplicadores de Lagrange. Encontraremos que no siempre se puede utilizar la sustitución directa, y el método de los multiplicadores de Lagrange será el que se emplee con más frecuencia.

Sustitución directa

Esto simplemente significa resolver las ecuaciones de restricción para las variables independientes y sustituir las ecuaciones de restricción directamente en la función a optimizar. Esto dará una ecuación (modelo económico) con (n-m) incógnitas, y son aplicables las técnicas anteriores para la optimización sin restricciones.

Desafortunadamente, no siempre es posible realizar las manipulaciones algebraicas necesarias para estas sustituciones cuando las ecuaciones de restricción son algo complicadas. En consecuencia, es necesario recurrir a los siguientes métodos.

Variación restringida

Este método (3,14) se utiliza con poca frecuencia, pero proporciona una base teórica para importantes métodos de búsqueda numérica multivariable, como el gradiente reducido generalizado. Se ilustra mejor para el caso de dos variables independientes considerando el ejemplo que se muestra en la Figura 2-4. Hay un mínimo local del sistema restringido en el punto ay un máximo local en el punto B. El máximo del sistema no restringido está en C.

En el punto A, la curva y (x1, x2) = 1 y la curva f (x1, x2) = 0 son tangentes y tienen la misma pendiente. Esto significa que los cambios diferenciales, dx1 y dx2, producen el mismo cambio en las variables dependientes y (x1, x2) yf (x1, x2). Esto se puede expresar como:

Necesitaremos que las derivadas totales de yyf se combinen con la ecuación (2-16) para obtener el resultado final. Usando los primeros términos en una expansión de la serie de Taylor para yyf da:

En el mínimo, el punto A, y el máximo, el punto B, dy es igual a cero y se satisface la restricción, es decir, f = 0 y df = 0.

La combinación de las ecuaciones (2-16) y (2-17) da el siguiente resultado.

Esta es una ecuación algebraica y debe resolverse en combinación con la ecuación de restricción para ubicar los puntos estacionarios. Debe recordarse en este caso que dy / dx1 y dy / dx2 no son necesariamente cero. Sin embargo, son cero en el caso sin restricciones en el punto C.

Esta técnica se ilustra con el siguiente ejemplo. Entonces se dará la extensión al caso general para n variables independientes.

Encuentre los puntos estacionarios de la siguiente función usando el método de variación restringida

optimizar: y (x) = x1 x2
subejcto a: f (x) = x21 + 22 - 1 = 0
Las primeras derivadas parciales son:

Sustituyendo en la ecuación (2-18) se obtiene

x2 · 2x2 - x1 · 2x1 = 0 o x22 - x12 = 0

que se resuelve simultáneamente con la ecuación de restricción

x1 = + (½) ½ y x2 = + (½) ½
para los valores de las variables independientes en los puntos estacionarios.

En general, estamos interesados ​​en encontrar los puntos estacionarios de una función y (x1, x2. Xn) sujeta a m ecuaciones de restricción fi (x1, x2,. Xn) = 0 donde i = 1,. m, y n & gt m. El mismo razonamiento aplicado en (n +1) espacio dimensional que se aplicó al espacio tridimensional anterior, y esto da como resultado las siguientes ecuaciones:

El conjunto de ecuaciones dadas en la ecuación (2-19) anterior se puede resolver para (n-m) ecuaciones para ir con las ecuaciones de restricción m para ubicar los puntos estacionarios. Las ecuaciones (n-m) correspondientes a la ecuación 2-18 del caso de dos variables independientes se pueden escribir en términos de determinantes jacobianos (n-m) que son:

El determinante jacobiano para la primera ecuación anterior es:

Se resuelve un total de n ecuaciones para los puntos estacionarios, es decir, la ecuación (n-m) generada por (2-20) anterior y las m ecuaciones de restricción. A derivation of these results is given by Beveridge and Schechter(6). This involves using Cramer's rule and eliminating the dxi's. Also similar results are given for this general case in the text by Wilde and Beightler (4). However, a different nomenclature is used, and the results are extended to include Lagrange Multipliers.

To illustrate the use of the Jacobian determinants, consider the following example, which obtains equation (2-18).

optimize: y(x1,x2)
subject to: f(x1, x2) = 0
For this problem there are 2 independent variables (n=2) and one constraint (m=1), so the evaluation of one Jacobian determinant is required.

Expanding gives the following equation, gives:

This is the same as equation (2-18) which was solved with the constraint equation for the stationary point values of x1 and x2 in Example 2-3.

Lagrange Multipliers

The most frequently used method for constraints is to employ Lagrange multipliers. The technique will be presented using two independent variables and one constraint equation to illustrate the concepts. Then the procedure will be extended to the general case of n independent variables and m constraint equation. For the case of two independent variables, we have:

Optimize: y(x1, x2) (2-22)
Subject to: f(x1, x2) = 0
We want to show how the Lagrange Multiplier arises and that the constrained problem can be converted into an unconstrained problem. The profit function and the constraint equation are expanded in a Taylor series. Then, using the first order terms gives:

This form of the constraint equation will be used to eliminate dx2 in the profit function. Solving for dx2gives:

This equation is substituted into the equation for dy to obtain:

Now we can define l as the value of [-dy / dx2 / df / dx2] at the stationary point of the constrained function. This ratio of partial derivatives l is a constant at the stationary point, and the above equation can be written as

At the stationary point dy = 0, and this leads to:

Now if L is defined as L = y + lf, the above gives:

This is one of the necessary conditions to locate the stationary points of an unconstrained function L which is constructed from the profit function y(x1,x2) and the constraint equation f(x1,x2) = 0. Now the same manipulations can be repeated to obtain the other necessary conditions:

Therefore, the constrained problem can be converted to an unconstrained problem by forming the Lagrangian, or augmented, function and solving this problem by the previously developed methods of setting the first partial derivatives equal to zero. This will give two equations to solve for the three unknowns x1, x2 and l at the stationary point. The third equation to be used is the constraint equation. In fact the Lagrange multiplier is sometimes treated as another variable since dL / dl = 0 gives the constraint equation. The example used for the method of constrained variation will be used to illustrate these ideas.

Find the stationary points for the following constrained problem using the method of Lagrange multipliers.

Optimize: y(x) = x1x2
Subject to: f(x) = x12 + x22 - 1 = 0

The Lagrangian, or augmented, function is formed as shown below.

L(x1, x2, l) = x1x2 + l (x12 + x22 - 1)

The following equations are obtained from setting the first partial derivatives equal to zero.

¶L/¶x1 = x2 + 2lx1 = 0
¶L/¶x2 = x1 + 2lx2 = 0
¶L/¶l = x12 + x22 - 1 = 0
Solving the previous equations simultaneously gives the following stationary points:

maxima : x1 = (½)½ , x2 = (½)½ , l = -½
x1 = -(½)½ , x2 = -(½)½ , l = - ½
minima : x1 = (½)½ , x2 = -(½)½ , l = ½
x1 = -(½)½, x2 = (½)½ , l = ½
The type of stationary points, i.e., maxima, minima or saddle points were determined by inspection for this problem. Sufficient conditions for constrained problems will be discussed subsequently in this chapter.

The development of the Lagrangian function of the case of n independent variables and m constraint equations is a direct extension from that of two independent variables and one constraint equation, and Avriel (10) gives a concise derivation of this result. (See problem 2-14) The Lagrangian, or augmented, function is formed as previously, and for every constraint equation there is a Lagrange multiplier. This is shown below:

optimize: y(x) x = (x1, x2 . xn)T (2-23)
subject to: fi(x) = 0 for i = 1,2. m
where n > m
The Lagrangian, or augmented, function is formed from the constrained problem as follows:

To locate the stationary points of the constrained problem, the first partial derivatives of the Lagrangian function with respect to the xj's and l i 's are set equal to zero (necessary conditions). There are (n + m) equations to be solved for the (n + m) unknowns: n - xj's and m - l i's.

It is sometimes said that the method of Lagrange multipliers requires more work than the method of constrained variation, since an additional m equations have to be solved for the values of the Lagrange multipliers. However, additonal and valuable information is obtained from knowing the values of the Lagrange multipliers, as will be seen. The following simple example gives a comparison among the three techniques.

For the process in Example 2-1 (2), it is necessary to maintain the product of the pressure and recycle ratio equal to 9000 psi. Determine the optimal values of the pressure and recycle ration and minimum cost within this constraint by direct substitution, constrained variation and Lagrange multipliers.

Again, the problem is to minimize C.

C = 1000P + 4 x 109/PR + 2.5 x 105R
However, C is subject to the following constraint equation.

PR = 9000
Direct Substitution: Solving the constraint above for P and substituting into the objective function gives:

C = 9 x 106/R + (4/9) x 106 + 2.5 x 105R
Setting dC/dR = 0 and solving gives:

R = 6 and P = 1500 psi.
The corresponding cost is:

C = 3.44 x 106
which is greater than the unconstrained system, as would be expected.

Constrained Variation: The equations to be solved for this case are:

The first equation simplifies to:

P = 250R
which, when solved simultaneously with the second equation gives the same results as direct substitution.

Lagrange Multipliers: The Lagrangian, or augmented, function is:

L = 1000P + 4 x 109/PR + 2.5 x 105R + l(PR - 9000)
Setting partial derivatives of L with respect to P, R, and l equal to zero gives:

2.5 x 105 - 4 x 109/PR2 + lP = 0

PR - 9000 = 0
Solving the above simultaneously gives the same results as the two previous methods and a value for the Lagrange Multiplier.

Method of Steepest Ascent

A further application of the method of Lagrange Multipliers is developing the method of steepest ascent (descent) for a function to be optimized. This result will be valuable when search methods are discussed.

To illustrate the direction of steepest ascent, a geometric representation is shown in Figure 2-5. To obtain the direction of steepest ascent, we wish to obtain the maximum value of dy, and y(x1,x2. xn) is a function of n variables. Also, there is a constraint equation relating dx1, dx2, . dxn and ds as shown in Figure 2-5for two independent variables.

To obtain the maximum value of dy, the Lagrangian function is formed as follows:

Differentiating L with respect to the independent variables dxj and equating to zero gives:

These n equation are solved simultaneously with the constraint equation for the values of dxj and . Solving for gives:

and solving for dxj gives:

The term in the brackets is not a function of j, and consequently dxj is proportional to ¶y/¶xj. The positive sign indicates the direction of steepest ascent and the negative sign indicates the direction of steepest descent.

If a constant k is used to represent the term in the brackets in equation (2-29), this equation can be written as:

If a finite difference approximation is used for dxj = (xj - xjo) and ¶y/¶xj is evaluated at xo, then the following equation gives the gradient line.

This equation can be written vector notation in terms of the gradient of y evaluated at xo,y (xo), as:

If the positive sign is used, then movement is along the line in the direction of steepest ascent, and if the negative sign is used then movement is along the line in the direction of steepest descent. The following example illustrates the use of the method of steepest descent on a simple function.

Find the minimum along the direction of steepest descent of the function given below starting at the point xo = (1,1).

y = x12 + x22
Gradient line (steepest descent):

x = xo - kÑy(xo)
or for two independent variables

Evaluating the partial derivatives at the starting point (1,1)

x1 = 1 - 2k
x2 = 1 - 2k
Substituting the gradient line into the function to be minimized gives:

y = (1 - 2k)2 + (1 - 2k)2 = 2(1 - 2k)2
Computing dy/dk will locate the minimum along the gradient line, i.e.,

The corresponding values of x1 and x2 are

It turns out that the minimum along the gradient line is also the minimum for the function in this problem, because it is the sum of squares.

The method of steepest ascent is the basis for several search techniques which are described in Chapter 6, e.g., Steep Ascent Partan. It should be noted that when dealing with physical systems, the direction of steepest ascent (descent) may be only a direction of steep ascent (descent) depending on the scales used to represent the independent variables. This is discussed and illustrated by Wilde (5), and Wilde and Beightler (4).

Economic Interpretation of the Lagrange Multipliers

The values of the Lagrange Multipliers at the optimum provide additional and important information. If the constraint equations are written with parameters bi on the right-hand side, the Lagrange multipliers give the change in the profit function with respect to these parameters, i.e., ¶y/¶bi. Many times, the right-hand sides of the constraint equations represent the availability of raw materials, demand for products, or capacities of process units. Consequently, it is frequently important to know how the optimal solution is affected by changes in availability, demand, and capacities. As we shall see, the Lagrange Multipliers are given the names "shadow prices" and "dual activity" in linear programming where these changes are analyzed by sensitivity analysis.

The following brief derivation obtains the result that ¶y/¶b = - l for the case of one constraint and two independent variables, and the extension to m constraint equations with n independent variables is comparable.

optimize: y(x1, x2) (2-33)
subject to: f(x1, x2) = b
First, we can obtain the following equation from the profit function by the chain rule.

Also, we can obtain the next equation from the constraint equation written as f - b = 0 by the chain rule.

Then the equation from the constraint is multiplied by the Lagrange Multiplier and added to the equation from the profit function to give:

The values of ¶L/¶x1 and ¶L/¶x2 are zero at the stationary point (necessary conditions), and consequently¶y/¶b = -l. Thus, the change in the profit function y with respect to the right-hand side of the constraint b is equal to the negative of the Lagrange Multiplier. Also, comparable results can be obtained for the case on n independent variables and m constraint equations to obtain the following result using a similar procedure and arguments(7).

In the next section, we will see that the Lagrange Multiplier is also a key factor in the analysis of problems with inequality constraints.

Inequality Constraints

An additional complication arises when seeking the optimum value of a profit or cost function if inequality constraints are included. Although the same procedures are used, it will be necessary to consider two cases for each inequality constraint equation. One case is when the Lagrange Multiplier is zero, and the other is when the Lagrange Multiplier is not zero. This is best illustrated by the following example with one inequality constraint equation as shown below.

Optimize: y(x) (2-38)
Subject to: f(x) £ 0
As described previously, the procedure is to add a slack variable xs as xs2 and form the Lagrangian function:

L(x, l) = y(x) + l [ f(x) + xs2 ] (2-39)

Then the first partial derivatives with respect to the xi's, xs, and l are set equal to zero to have a set of equations to be solved for the stationary points. To illustrate the complication, the equation obtained for the slack variable is:

The result is two cases, i.e., either l = 0 and xs ¹ 0, or l ¹ 0 and xs = 0. If l = 0 and xs ¹ 0 the inequality holds, and the constraint is said to be "loose", "passive" or "inactive". If l ¹ 0 and xs = 0 then the equality holds, and the constraint is said to be "tight" or "active". The following example illustrates this situation using a modification of the previous simple process.

For the process the cost function is:

C = 1000P + 4 x 109/PR + 2.5 x 105 R
However, C is subject to the inequality constraint equation.

PR < 9000
Adding the slack variable S, as S2, and forming the Lagrangian function gives:

L = 1000P + 4 x 109/PR + 2.5 x 105 R + l(PR + S2 - 9000)
Setting the first partial derivatives of L with respect to P, R, S, and l equal to zero gives the following four equations:

The two cases are l ¹ 0, S = 0 and l = 0, S ¹ 0. For the case of l ¹ 0, S = 0 the equality PR = 9000 holds, i.e., the constraint is active. This was the solution obtained in Example 2-6, and the results were:

C = $3.44 x 106 per year P = 1500 psi R = 6 l = -117.3
For the case of l = 0, S ¹ 0, the constraint is an inequality, i.e., inactive. This was the solution obtained in Example 2-2 and the results were:

C = $3.0 x 106 per year P = 1000psi R = 4 S = (5000)½

The example above had only one inequality constraint and two cases to consider. However, with several inequality constraints locating the stationary points can become time-consuming, for the possibilities must be searched exhaustively. A procedure for this evaluation has been given by Cooper (7) and Walsh (8) as follows:

Solve the problem of optimizing: y(x), ignoring the inequality constraints, i.e., having all positive slack variables. Designate this solution xo. If xo satisfies the constraints as inequalities, an optimum has been found.
If one or more constraints are not satisfied, select one of the constraints to be an equality, i.e., active (the slack variable for this constraint is zero), and solve the problem. Call this solution x1. If x1satisfies all of the constraints, an optimum has been found.

If one or more constraints are not satisfied, repeat step 2 until every inequality constraint has been treated as an equality constraint (slack variable being zero) in turn.

If step 3 did not yield an optimum, select combinations of two inequality constraints at a time to be equalities, and solve the problem. If one of these solutions satisfies all of the constraints, an optimum has been found.

If step 4 did not yield an optimum, select combinations of three inequality constraints at a time to be equalities, and solve the problem. If one of these solutions satisfies all of the constraints, an optimum has been found. If not try combinations of four inequality constraints at a time to be equalities, etc.

The above procedure applies, assuming that the stationary point located is a maximum or a minimum of the constrained problem. However, there is a possibility that several stationary points will be located some could be maxima, some minima, and others saddle points. In Problem 2.6, four stationary points were found two are maxima, one a minimum, and one a saddle point. Also, from equation (2-40) for each inequality constraint where the strict inequality holds, the slack variable is positive, and the Lagrange Multiplier is zero. For each inequality constraint where the equality holds, the slack variable is zero, and the Lagrange Multiplier is not zero.

In the next section necessary and sufficient conditions for constrained problems are described to determine the character of stationary points. This will be similar to and an extension of the previous discussion for unconstrained problems.


Find the extrema of f subject to the stated constraint. f(x, y) = x, subject to x2 + 2y2 = 1 maximum(x, y)= ( )minimum(x, y)= ( )

Q: We can use identities to help us solve trigonometric equations. Using a Double-Angle Formula we see .

A: The given trigonometric equation is,

Q: Evaluate the integral 1 x(110) dx Integral =

Q: defiaite iutegral the curue bctuoecn the cive4-ualuts FCac)4ac use a pind the area under from oc1 to.

A: Area under f(x) between x=1 to x=3 is given by integration f(x) dx from 1 to 3.

Q: Question Question 14 of 19 Calculate the limit for the function f(x) = 30 - 10x and interval [2, 6].

A: Given function is f (x) = 30 - 10x in the interval [2, 6].

Q: 4.4 Can you show me all the steps to solve 15?

R: Haga clic para ver la respuesta

Q: For the included problem, I keep getting that the series converges, but the correct answer is that i.

A: First simplify as shown below.

Q: 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17 and 18 Use Part 1 of the Fundamental Theorem of Calculus to .

A: The integral to be evaluated is,

Q: Previous Answers 0/0.7 points Evaluate the integral: (In z) dz = X ubmit Anowor

A: Start by applying u-substitution with:

Q: Calculate the limit for the function f(x) = x + 4 over the interval [0, 4]. Verify your answer by us.


Ejemplos de

Minimize Maximum of sin and cos

Create a plot of the sin and cos functions and their maximum over the interval [–pi,pi] .

The plot shows two local minima of the maximum, one near 1, and the other near 𔃀. Find the minimum near 1.

Solve Linearly Constrained Minimax Problem

The objective functions for this example are linear plus constants. For a description and plot of the objective functions, see Compare fminimax and fminunc.

Set the objective functions as three linear functions of the form d o t ( x , v ) + v 0 for three vectors v and three constants v 0 .

Find the minimax point subject to the inequality x(1) + 3*x(2) <= 𔃂 .

Solve Bound-Constrained Minimax Problem

The objective functions for this example are linear plus constants. For a description and plot of the objective functions, see Compare fminimax and fminunc.

Set the objective functions as three linear functions of the form d o t ( x , v ) + v 0 for three vectors v and three constants v 0 .

Set bounds that 𔃀 <= x(1) <= 2 and 𔂿 <= x(2) <= 1 and solve the minimax problem starting from [0,0] .

In this case, the solution is not unique. Many points satisfy the constraints and have the same minimax value. Plot the surface representing the maximum of the three objective functions, and plot a red line showing the points that have the same minimax value.

Find Minimax Subject to Nonlinear Constraints

The objective functions for this example are linear plus constants. For a description and plot of the objective functions, see Compare fminimax and fminunc.

Set the objective functions as three linear functions of the form d o t ( x , v ) + v 0 for three vectors v and three constants v 0 .

The unitdisk function represents the nonlinear inequality constraint ‖ x ‖ 2 ≤ 1 .

Solve the minimax problem subject to the unitdisk constraint, starting from x0 = [0,0] .

Solve Minimax Problem Using Absolute Value of One Objective

fminimax can minimize the maximum of either F i ( x ) or | F i ( x ) | for the first several values of i by using the AbsoluteMaxObjectiveCount option. To minimize the absolute values of k of the objectives, arrange the objective function values so that F 1 ( x ) through F k ( x ) are the objectives for absolute minimization, and set the AbsoluteMaxObjectiveCount option to k .

In this example, minimize the maximum of sin and cos , specify sin as the first objective, and set AbsoluteMaxObjectiveCount to 1.

To see the effect of the AbsoluteMaxObjectiveCount option, compare this plot to the plot in the example Minimize Maximum of sin and cos.

Obtain Minimax Value

Obtain both the location of the minimax point and the value of the objective functions. For a description and plot of the objective functions, see Compare fminimax and fminunc.

Set the objective functions as three linear functions of the form d o t ( x , v ) + v 0 for three vectors v and three constants v 0 .

Set the initial point to [0,0] and find the minimax point and value.

All three objective functions have the same value at the minimax point. Unconstrained problems typically have at least two objectives that are equal at the solution, because if a point is not a local minimum for any objective and only one objective has the maximum value, then the maximum objective can be lowered.

Obtain All Minimax Outputs

The objective functions for this example are linear plus constants. For a description and plot of the objective functions, see Compare fminimax and fminunc.

Set the objective functions as three linear functions of the form d o t ( x , v ) + v 0 for three vectors v and three constants v 0 .

Find the minimax point subject to the inequality x(1) + 3*x(2) <= 𔃂 .

Set options for iterative display, and obtain all solver outputs.

Examine the returned information:

Two objective function values are equal at the solution.

The solver converges in 4 iterations and 19 function evaluations.

The lambda.ineqlin value is nonzero, indicating that the linear constraint is active at the solution.


What are the local extrema an saddle points of #f(x,y) = x^2 + xy + y^2 + 3x -3y + 4#?

The group of points that include both extrema and saddle points are found when both #(delf)/(delx)(x,y)# and #(delf)/(dely)(x,y)# are equal to zero.

Assuming #x# and #y# are independent variables:
#(delf)/(delx)(x,y)=2x+y+3#
#(delf)/(dely)(x,y)=x+2y-3#

So we have two simultaneous equations, which happily happen to be linear:
#2x+y+3=0#
#x+2y-3=0#

From the first:
#y=-2x-3#
Substitute into the second:
#x+2(-2x-3)-3=0#
#x-4x-6-3=0#
#-3x-9=0#
#x=-3#
Substitute back into the first:
#2(-3)+y+3=0#
#-6+y+3=0#
#-3+y=0#
#y=3#

So there is one point where the first derivatives uniformly become zero, either an extremum or a saddle, at #(x,y)=(-3,3)# .

To deduce which, we must compute the matrix of second derivatives, the Hessian matrix (https://en.wikipedia.org/wiki/Hessian_matrix):
#(((del^2f)/(delx^2),(del^2f)/(delxdely)),((del^2f)/(delydelx),(del^2f)/(dely^2)))#

Por lo tanto
#(((del^2f)/(delx^2),(del^2f)/(delxdely)),((del^2f)/(delydelx),(del^2f)/(dely^2)))=((2,1),(1,2))#
All second order derivatives are uniformly constant whatever the values of #x# and #y# , so we do not need to specifically compute the values for the point of interest.

NB The order of differentiation does not matter for functions with continuous second derivatives (Clairault's Theorem, application here: https://en.wikipedia.org/wiki/Symmetry_of_second_derivatives), and so we expect that #(del^2f)/(delxdely)=(del^2f)/(delydelx)# , as we see in our specific result above.

In this two-variable case, we can deduce the type of point from the determinant of the Hessian, #(del^2f)/(delx^2)(del^2f)/(dely^2)-(del^2f)/(delxdely)(del^2f)/(delydelx)=4-1=3# .

We see that the determinant is #>0# , and so is #(del^2f)/(delx^2)# . So we conclude that #(-3,3)# , the sole point of zero first derivative, is a local minimum of the function.

As a sanity check for a one-dimensional function question, I usually post the graph of it, but Socratic does not have a surface or contour plotting facility suitable for two-dimensional functions, so far as I can see. So I will overplot the two functions #f(-3,y)# and #f(x,3)# , which do not characterise the whole function domain for us, but will show us the minimum between them, which appears as expected at #y=3# and #x=-3# , taking identical function value #f=-5# in each case.


4: Extrema subject to Two Constraints

The Lagrangian formulation of Section 13.4.1 can be extended to allow additional constraints placed on and . This is very powerful for developing state transition equations for robots that have closed kinematic chains or wheeled bodies. If there are closed chains, then the configurations may be restricted to lie in a subset of . If a parameterization of the solution set is possible, then can be redefined over the reduced C-space. This is usually not possible, however, because such a parametrization is difficult to obtain, as mentioned in Section 4.4. If there are wheels or other contact-based constraints, such as those in Section 13.1.3, then extra constraints on and exist. Dynamics can be incorporated into the models of Section 13.1 by extending the Euler-Lagrange equation.

The coming method will be based on Lagrange multipliers. Recall from standard calculus that to optimize a function defined over , subject to an implicit constraint , it is sufficient to consider only the extrema of

in which represents a Lagrange multiplier [508]. The extrema are found by solving

which expresses equations of the form

The same principle applies for handling velocity constraints on .

Suppose that there are velocity constraints on as considered in Section 13.1. Consider implicit constraints, in which there are equations of the form for from to . Parametric constraints can be handled as a special case of implicit constraints by writing

For any constraints that contain actions , no extra difficulties arise. Each is treated as a constant in the following analysis. Therefore, action variables will not be explicitly named in the expressions.

As before, assume time-invariant dynamics (see [789] for the time-varying case). Starting with defined using (13.130), let the new criterion be

A functional is defined by substituting for in (13.114).

The extremals of are given by equations,

The justification for this is the same as for (13.124), except now is included. The equations of (13.168) are equivalent to the constraints . The first term of each is zero because does not appear in the constraints, which reduces them to

This already follows from the constraints on extremals of and the constraints . In (13.167), there are equations in unknowns. The Lagrange multipliers can be eliminated by using the constraints . This corresponds to Lagrange multiplier elimination in standard constrained optimization [508].

The expressions in (13.167) and the constraints may be quite complicated, which makes the determination of a state transition equation challenging. General forms are given in Section 3.8 of [789]. An important special case will be considered here. Suppose that the constraints are Pfaffian,

as introduced in Section 13.1. This includes the nonholonomic velocity constraints due to wheeled vehicles, which were presented in Section 13.1.2. Furthermore, this includes the special case of constraints of the form , which models closed kinematic chains. Such constraints can be differentiated with respect to time to obtain

which is in the Pfaffian form. This enables the dynamics of closed chains, considered in Section 4.4, to be expressed without even having a parametrization of the subset of that satisfies the closure constraints. Starting in implicit form, differentiation is required to convert them into the Pfaffian form.

For the important case of Pfaffian constraints , (13.167) simplifies to

The Pfaffian constraints can be used to eliminate the Lagrange multipliers, if desired. Note that represents the th term of the th Pfaffian constraint. An action variable can be placed on the right side of each constraint, if desired.

Equation (13.172) often appears instead as

which is an alternative but equivalent expression of constraints because the Lagrange multipliers can be negated without affecting the existence of extremals. In this case, a nice interpretation due to D'Alembert can be given. Expressions that appear on the right of (13.173) can be considered as actions, as mentioned in Section 13.4.1. As stated previously, such actions are called generalized forces in mechanics. The principle of virtual work is obtained by integrating the reaction forces needed to maintain the constraints. These reaction forces are precisely given on the right side of (13.173). Due to the cancellation of forces, no true work is done by the constraints (if there is no friction).

in which is the particle mass. For simplicity, assume that .

The constraint that the particle must travel on a sphere yields

This can be put into Pfaffian form by time differentiation to obtain

Since , there is a single Lagrange multiplier . Applying (13.172) yields three equations,

for from to . The generic form of the solution is

in which the are real-valued constants that can be determined from the initial position of the particle. This represents the equation of a plane through the origin. The intersection of the plane with the sphere is a great circle. This implies that the particle moves between two points by traveling along the great circle. These are the shortest paths (geodesics) on the sphere.

The general forms in Section 13.4.2 can be extended to the constrained case. For example, (13.142) generalizes to

in which is a matrix that represents all of the Pfaffian coefficients . In this case, the Lagrange multipliers can be computed as [725]

assuming is time-invariant.

The phase transition equation can be determined in the usual way by performing the required differentiations, defining the phase variables, and solving for . The result generalizes (13.148).


4. Variational Calculus and Lagrangian Formalism¶

The calculus of variations involves problems where the quantity to be minimized or maximized is an integral.

The usual minimization problem one faces involves taking a function (cal(x)) , then finding the single value (x) for which (cal) is either a maximum or minimum. In multivariate calculus one also learns to solve problems where you minimize for multiple variables, (cal(x_1,x_2,cdots x_n)) , and finding the points ((x_1cdots y_n)) in an (n) -dimensional space that maximize or minimize the function. Here, we consider what seems to be a much more ambitious problem. Imagine you have a function (cal(x(t),dot(t),t)) , and you wish to find the extrema for an infinite number of values of (x) , i.e. (x) at each point (t) . The function (cal) will not only depend on (x) at each point (t) , but also on the slope at each point, plus an additional dependence on (t) . Note we are NOT finding an optimum value of (t) , we are finding the set of optimum values of (x) at each point (t) , or equivalently, finding the function (x(t)) .

One treats the function (x(t)) as being unknown while minimizing the action

Thus, we are minimizing (S) with respect to an infinite number of values of (x(t_i)) at points (t_i) . As an additional criteria, we will assume that (x(t_1)) and (x(t_2)) are fixed, and that that we will only consider variations of (x) between the boundaries. The dependence on the derivative, (dot=dx/dt) , is crucial because otherwise the solution would involve simply finding the one value of (x) that minimized (cal) , and (x(t)) would equal a constant if there were no explicit (t) dependence. Furthermore, (x) wouldn’t need to be continuous at the boundary.

In the general case we have an integral of the type

where (S) is the quantity which is sought minimized or maximized. The problem is that although (cal) is a function of the general variables (q(t),dot(t),t) (note our change of variables), the exact dependence of (q) on (t) is not known. This means again that even though the integral has fixed limits (t_1) and (t_2) , the path of integration is not known. In our case the unknown quantities are the positions and general velocities of a given number of objects and we wish to choose an integration path which makes the functional (S[q]) stationary. This means that we want to find minima, or maxima or saddle points. In physics we search normally for minima. Our task is therefore to find the minimum of (S[q]) so that its variation (delta S) is zero subject to specific constraints. The constraints can be treated via the technique of Lagrangian multipliers as we will see below.

We assume the existence of an optimum path, that is a path for which (S[q]) is stationary. There are infinitely many such paths. The difference between two paths (delta q) is called the variation of (q) .

We call the variation (eta(t)) and it is scaled by a factor (alpha) . The function (eta(t)) is arbitrary except for

and we assume that we can model the change in (q) as

We choose (q(t,alpha=0)) as the unkonwn path that will minimize (S) . The value (q(t,alpha e 0)) describes a neighbouring path.

The condition for an extreme of

The (alpha) dependence is contained in (q(t,alpha)) and (dot(t,alpha)) meaning that


4: Extrema subject to Two Constraints

Количество зарегистрированных учащихся: 26 тыс.

This course is an important part of the undergraduate stage in education for future economists. It's also useful for graduate students who would like to gain knowledge and skills in an important part of math. It gives students skills for implementation of the mathematical knowledge and expertise to the problems of economics. Its prerequisites are both the knowledge of the single variable calculus and the foundations of linear algebra including operations on matrices and the general theory of systems of simultaneous equations. Some knowledge of vector spaces would be beneficial for a student. The course covers several variable calculus, both constrained and unconstrained optimization. The course is aimed at teaching students to master comparative statics problems, optimization problems using the acquired mathematical tools. Home assignments will be provided on a weekly basis. The objective of the course is to acquire the students’ knowledge in the field of mathematics and to make them ready to analyze simulated as well as real economic situations. Students learn how to use and apply mathematics by working with concrete examples and exercises. Moreover this course is aimed at showing what constitutes a solid proof. The ability to present proofs can be trained and improved and in that respect the course is helpful. It will be shown that math is not reduced just to “cookbook recipes”. On the contrary the deep knowledge of math concepts helps to understand real life situations. ¿Tiene problemas técnicos? Escríbanos: [email protected]

Рецензии

Global extrema. Constrained optimization with inequality constraints.

Week 7 of the Course is devoted to identification of global extrema and constrained optimization with inequality constraints. This week students will grasp the concept of binding constraints and complementary slackness conditions.

Преподаватели

Kirill Bukin

Associate Professor, Candidate of sciences (phys.-math.)

Текст видео

We'll use the theorem stated above for solving this particular problem. We need to maximize the function X times Y, subject to many constraints. So let us count how many constraints do we have here. The number of constraints is the same as the number of the inequality signs one, two, three, four, five, altogether five. That will involve using five Lagrange multipliers. So let's think maybe we can save some Lagrange multipliers, so spare some at least one, we'll see. But first of all, let us draw the constraints set, in coordinate plane. As we see, X and Y are non-negative variables, here we see X and here we have Y. So, somewhere here we have eight and I'm starting writing down the inequality which is given by this linear function X plus two Y. This straight line will cross the x-axis at point eight, and it will cross y-axis at the point four, and it looks kind of realistic. Then, here we have two, here we have three, and also we have one on the y-axis. Y equals three, that's the horizontal line, so we get a trapezium here and what's left? Drawing the parabola which is given by the equation Y equals X squared over 16 plus one. So this curve starts at one and it will cross the slant line somewhere here in this region, so in order to find the point we need to solve equation. I'll put it solving equation. That's Y value, and Y value equals eight minus X over two and we're looking for the positive roots. A simple quadratic equation, which will give us X star equals four. So here we have K, this time it's not that's realistic but it will do. Okay, now I'll shade the constraints set. It's clear that the curve will cross the slant line here because we have found the square root and also when we substitute for X four we get Y equals two, so this is our constraint set. Now I'll start labeling the vertices. This one can be also found easily if we substitute here Y equals three and we get two. Entonces, los estaré punteando, los puntos, los vértices, en el sentido de las agujas del reloj. Aquí tenemos el vértice A que & # x27s B, que & # x27s C, que & # x27s D, está bien. Ahora, si recordamos el teorema establecido recientemente, necesitamos verificar NDCQ, cómo se hace. Se realiza calculando el rango de una matriz jacobiana específica. En esta matriz, completamos los gradientes de las restricciones y elegimos solo las vinculantes. Entonces, si miramos el límite del conjunto de restricciones, este límite consta de algunas partes y algunos vértices y ya hemos etiquetado los vértices, a, b, c, d. Entonces dejamos de verificar si NDCQ se mantiene entre los vértices, por ejemplo, aquí en el eje vertical X es igual a cero y el rango o esta matriz jacobiana está llena, es por supuesto uno. Porque el gradiente X es uno, cero. Ahora, el límite horizontal Y es igual a tres, lo mismo. Bien, ahora, línea inclinada, esta vez el gradiente es un vector constante uno, dos, el rango es uno. La curva que es una parábola, nunca se vuelve cero. Así que el rango también es uno, y hemos terminado con estas partes del límite y ahora procedemos con los vértices. Entonces, esta vez la matriz jacobiana será una matriz de dos por dos, porque tenemos dos variables y tenemos dos restricciones. Por ejemplo, en este punto A. En A, este punto es un punto de intersección del eje vertical y la parábola. Entonces J se verá así, entonces esa será la primera línea, uno, y aquí x es cero, entonces esto es eso. Para cualquier valor de X, el rango es dos, rango completo. En B, incluso más fácil porque B es un vértice basado en la intersección de dos líneas rectas. En B, el rango claramente es dos. Lo mismo ocurre con C, también en C y finalmente en D. En D tenemos J que está en la primera fila será el gradiente de esta función, y aquí tenemos un vector constante uno, dos. Pensemos si es posible que esta matriz tenga un rango más pequeño. El rango medio más pequeño será uno. Sabemos por el álgebra lineal que la forma más fácil de verificar cuáles son los valores de X para los cuales este rango es uno, es encontrar determinantes de esta matriz. El determinante está bien, claramente no es cero, porque x es positivo. Por lo tanto, hemos verificado completamente las condiciones de NDCQ en todos los puntos del límite.