Multiplicador de Lagrange - Lagrange multiplier

Na otimização matemática , o método dos multiplicadores de Lagrange é uma estratégia para encontrar os máximos e mínimos locais de uma função sujeita a restrições de igualdade (ou seja, sujeita à condição de que uma ou mais equações devem ser satisfeitas exatamente pelos valores escolhidos das variáveis ) Recebeu o nome do matemático Joseph-Louis Lagrange . A idéia básica é converter um problema restrito em uma forma tal que o teste derivativo de um problema irrestrito ainda possa ser aplicado. A relação entre o gradiente da função e os gradientes das restrições leva naturalmente a uma reformulação do problema original, conhecida como função Lagrangiana .

O método pode ser resumido da seguinte forma: para encontrar o máximo ou mínimo de uma função sujeita à restrição de igualdade , forme a função Lagrangiana

e encontre os pontos estacionários de considerados em função de e do multiplicador de Lagrange . A solução correspondente à otimização restrita original é sempre um ponto de sela da função Lagrangiana, que pode ser identificado entre os pontos estacionários a partir da definição da matriz Hessiana com borda .

A grande vantagem deste método é permitir que a otimização seja resolvida sem parametrização explícita em termos de restrições. Como resultado, o método dos multiplicadores de Lagrange é amplamente utilizado para resolver problemas desafiadores de otimização restrita. Além disso, o método dos multiplicadores de Lagrange é generalizado pelas condições de Karush-Kuhn-Tucker , que também podem levar em consideração as restrições de desigualdade da forma .

Demonstração

O seguinte é conhecido como teorema do multiplicador de Lagrange.

Seja a função objetivo, seja a função de restrição, ambas pertencentes a (isto é, tendo primeiras derivadas contínuas). Deixe ser uma solução ideal para o seguinte problema de otimização, de forma que classifique :

(Aqui denota a matriz de derivadas parciais .)

Então existem Lagrange multiplicadores únicas tais que .

O teorema do multiplicador de Lagrange afirma que em qualquer máximo local (ou mínimo) da função avaliada sob as restrições de igualdade, se a qualificação de restrição se aplica (explicada abaixo), então o gradiente da função (naquele ponto) pode ser expresso como uma combinação linear dos gradientes das restrições (naquele ponto), com os multiplicadores de Lagrange atuando como coeficientes . Isso é equivalente a dizer que qualquer direção perpendicular a todos os gradientes das restrições também é perpendicular ao gradiente da função. Ou ainda, dizendo que a derivada direcional da função é 0 em todas as direções possíveis.

Restrição única

Figura 1: A curva vermelha mostra a restrição g ( x , y ) = c . As curvas azuis são contornos de f ( x , y ) . O ponto onde a restrição vermelha tangencialmente toca um contorno azul é o máximo de f ( x , y ) ao longo da restrição, uma vez que d 1 > d 2 .

Para o caso de apenas uma restrição e apenas duas variáveis ​​de escolha (conforme exemplificado na Figura 1), considere o problema de otimização

(Às vezes, uma constante aditiva é mostrada separadamente em vez de ser incluída , caso em que a restrição é escrita , como na Figura 1.) Assumimos que ambos e têm primeiras derivadas parciais contínuas . Nós introduzimos uma nova variável ( ) chamado de multiplicador de Lagrange (ou Lagrange indeterminado multiplicador ) e estudar a função de Lagrange (ou de Lagrange ou expressão de Lagrange ) definido pela

onde o termo pode ser adicionado ou subtraído. Se é um máximo de para o problema restrito original e , então existe tal que ( ) é um ponto estacionário para a função de Lagrange (pontos estacionários são aqueles pontos onde as primeiras derivadas parciais de são zero). A suposição é chamada de qualificação de restrição. No entanto, nem todos os pontos estacionários fornecem uma solução para o problema original, pois o método dos multiplicadores de Lagrange fornece apenas uma condição necessária para a otimização em problemas restritos. Também existem condições suficientes para um mínimo ou máximo , mas se uma solução candidata particular satisfizer as condições suficientes, só é garantido que essa solução seja a melhor localmente - ou seja, é melhor do que quaisquer pontos próximos permitidos. O ótimo global pode ser encontrado comparando os valores da função objetivo original nos pontos que satisfazem as condições necessárias e localmente suficientes.

O método dos multiplicadores de Lagrange se baseia na intuição de que, no máximo, f ( x , y ) não pode estar aumentando na direção de qualquer ponto vizinho que também tenha g = 0 . Se fosse, poderíamos caminhar ao longo de g = 0 para subir, o que significa que o ponto de partida não era realmente o máximo. Visto dessa maneira, é um análogo exato de testar se a derivada de uma função irrestrita é 0, ou seja, estamos verificando se a derivada direcional é 0 em qualquer direção relevante (viável).

Podemos visualizar os contornos de f dados por f ( x , y ) = d para vários valores de d , e o contorno de g dado por g ( x , y ) = c .

Suponha que andemos ao longo da linha de contorno com g = c . Estamos interessados ​​em encontrar pontos onde f quase não muda à medida que caminhamos, uma vez que esses pontos podem ser máximos.

Isso pode acontecer de duas maneiras:

  1. Poderíamos tocar uma linha de contorno de f , uma vez que, por definição, f não muda à medida que caminhamos ao longo de suas linhas de contorno. Isto significaria que as tangentes às linhas de contorno de f e g são paralelos aqui.
  2. Alcançamos um "nível" parte de f , o que significa que f não muda em nenhuma direção.

Para verificar a primeira possibilidade (que tocar uma linha de contorno de f ), aviso de que uma vez que a inclinação de uma função é perpendicular às linhas de contorno, as tangentes às linhas de contorno de f e g são paralelos se e somente se os gradientes de f e g são paralelos. Assim, queremos pontos ( x , y ) onde g ( x , y ) = c e

para alguns

Onde

são os respectivos gradientes. A constante é necessária porque, embora os dois vetores de gradiente sejam paralelos, as magnitudes dos vetores de gradiente geralmente não são iguais. Essa constante é chamada de multiplicador de Lagrange. (Em algumas convenções é precedido por um sinal de menos).

Observe que este método também resolve a segunda possibilidade, que f é nível: se f é nível, então seu gradiente é zero, e a configuração é uma solução independentemente de .

Para incorporar essas condições em uma equação, introduzimos uma função auxiliar

e resolver

Observe que isso equivale a resolver três equações em três incógnitas. Este é o método dos multiplicadores de Lagrange.

Observe que implica , como a derivada parcial de em relação a é , que claramente é zero se e somente se .

Para resumir

O método generaliza prontamente para funções em variáveis

o que equivale a resolver n + 1 equações em n + 1 incógnitas.

Os extremos restritos de f são pontos críticos da Lagrangiana , mas não são necessariamente extremos locais de (consulte o Exemplo 2 abaixo).

Pode-se reformular o Lagrangiano como um Hamiltoniano , caso em que as soluções são mínimos locais para o Hamiltoniano. Isso é feito na teoria de controle ótimo , na forma do princípio mínimo de Pontryagin .

O fato de as soluções do Lagrangiano não serem necessariamente extremas também apresenta dificuldades para a otimização numérica. Isso pode ser resolvido calculando a magnitude do gradiente, já que os zeros da magnitude são necessariamente mínimos locais, conforme ilustrado no exemplo de otimização numérica .

Múltiplas restrições

Figura 2: Um parabolóide restringido ao longo de duas linhas que se cruzam.
Figura 3: Mapa de contorno da Figura 2.

O método dos multiplicadores de Lagrange pode ser estendido para resolver problemas com múltiplas restrições usando um argumento semelhante. Considere um parabolóide sujeito a duas restrições de linha que se cruzam em um único ponto. Como a única solução viável, esse ponto é obviamente um extremo restrito. No entanto, o conjunto de níveis de é claramente não paralelo a nenhuma das restrições no ponto de interseção (consulte a Figura 3); em vez disso, é uma combinação linear dos gradientes das duas restrições. No caso de restrições múltiplas, isso será o que buscamos em geral: o método de Lagrange busca pontos não nos quais o gradiente de seja múltiplo de qualquer gradiente de uma única restrição necessariamente, mas em que seja uma combinação linear de todas as restrições ' gradientes.

Concretamente, suponha que temos restrições e estamos caminhando ao longo do conjunto de pontos que nos satisfazem . Cada ponto no contorno de uma dada função de restrição tem um espaço de direções permitidas: o espaço de vetores perpendiculares a . O conjunto de direções permitidas por todas as restrições é, portanto, o espaço de direções perpendicular a todos os gradientes das restrições. Denote este espaço de movimentos permitidos por e denote a extensão dos gradientes das restrições por . Então , o espaço de vetores perpendicular a cada elemento de .

Ainda estamos interessados ​​em encontrar pontos que não mudem à medida que caminhamos, uma vez que esses pontos podem ser extremos (restritos). Portanto, buscamos de forma que qualquer direção permitida de movimento para longe de seja perpendicular a (caso contrário, poderíamos aumentar movendo ao longo dessa direção permitida). Em outras palavras ,. Assim, existem escalares tais que

Esses escalares são os multiplicadores de Lagrange. Agora temos deles, um para cada restrição.

Como antes, apresentamos uma função auxiliar

e resolver

o que equivale a resolver equações em incógnitas.

A suposição de qualificação de restrição quando há várias restrições é que os gradientes de restrição no ponto relevante são linearmente independentes.

Formulação moderna por meio de variedades diferenciáveis

O problema de encontrar máximos e mínimos locais sujeitos a restrições pode ser generalizado para encontrar máximos e mínimos locais em uma variedade diferenciável . A seguir, não é necessário que seja um espaço euclidiano, ou mesmo uma variedade Riemanniana. Todas as aparências do gradiente (que depende da escolha da métrica Riemanniana) podem ser substituídas pela derivada externa .

Restrição única

Deixe ser uma variedade suave de dimensão . Suponha que desejamos encontrar os pontos estacionários de uma função suave quando restrita à subvariedade definida por onde está uma função suave para a qual 0 é um valor regular .

Deixe e seja os derivados exteriores . Estacionaridade para a restrição em significa Equivalentemente, o kernel contém Em outras palavras, e são formas 1 proporcionais. Para isso, é necessário e suficiente que o seguinte sistema de equações seja válido:

onde denota o produto exterior . Os pontos estacionários são as soluções do sistema de equações acima mais a restrição. Observe que as equações não são independentes, pois o lado esquerdo da equação pertence à subvariedade de consistir em elementos decomponíveis .

Nesta formulação, não é necessário encontrar explicitamente o multiplicador de Lagrange, um número tal que

Múltiplas restrições

Let and be como na seção acima com relação ao caso de uma única restrição. Em vez da função descrita aqui, considere agora uma função suave com funções de componente para a qual é um valor regular . Let ser a subvariedade de definido por

é um ponto estacionário de se e somente se contém . Por conveniência, deixe e onde denota o mapa tangente ou Jacobiano O subespaço tem dimensão menor que a de , a saber e pertence a se e somente se pertence à imagem de Computacionalmente falando, a condição é que pertence ao espaço de linha da matriz de ou equivalentemente, o espaço da coluna da matriz de (a transposta). Se denota o produto exterior das colunas da matriz da condição estacionária para em torna - se

Mais uma vez, nesta formulação não é necessário encontrar explicitamente os multiplicadores de Lagrange, os números tais que

Interpretação dos multiplicadores de Lagrange

Freqüentemente, os multiplicadores de Lagrange têm uma interpretação como alguma quantidade de interesse. Por exemplo, ao parametrizar a linha de contorno da restrição, ou seja, se a expressão Lagrangiana é

então

Portanto, λ k é a taxa de variação da quantidade que está sendo otimizada em função do parâmetro de restrição. Como exemplos, na mecânica Lagrangiana as equações de movimento são derivadas encontrando pontos estacionários da ação , o tempo integral da diferença entre a energia cinética e potencial. Assim, a força sobre uma partícula devido a um potencial escalar, F = −∇ V , pode ser interpretada como um multiplicador de Lagrange determinando a mudança na ação (transferência de potencial para energia cinética) seguindo uma variação na trajetória restrita da partícula. Na teoria de controle, isso é formulado como equações de custo .

Além disso, pelo teorema do envelope, o valor ótimo de um multiplicador de Lagrange tem uma interpretação como o efeito marginal da constante de restrição correspondente sobre o valor atingível ideal da função objetivo original: se denotarmos valores no ótimo com um asterisco, então ele pode ser mostrado que

Por exemplo, em economia, o lucro ótimo para um jogador é calculado sujeito a um espaço restrito de ações, onde um multiplicador de Lagrange é a mudança no valor ótimo da função objetivo (lucro) devido ao relaxamento de uma determinada restrição (por exemplo, através uma mudança na receita); em tal contexto, λ k * é o custo marginal da restrição e é conhecido como preço sombra .

Condições suficientes

Condições suficientes para um máximo ou mínimo local restrito podem ser declaradas em termos de uma sequência de principais menores (determinantes de submatrizes justificadas no canto superior esquerdo) da matriz Hessiana limitada de segundas derivadas da expressão Lagrangiana.

Exemplos

Exemplo 1

Ilustração do problema de otimização restrita 1a

Exemplo 1a

Suponha que desejamos maximizar o sujeito à restrição . O conjunto viável é o círculo unitário, e os conjuntos de nível de f são linhas diagonais (com inclinação -1), de modo que podemos ver graficamente que o máximo ocorre em e o mínimo em .

Para o método dos multiplicadores de Lagrange, a restrição é

portanto

uma função que é equivalente a quando está definida como .

Agora podemos calcular o gradiente:

e portanto:

Observe que a última equação é a restrição original.

As duas primeiras equações geram

Ao substituir na última equação, temos:

tão

o que implica que os pontos estacionários de são

Avaliar a função objetivo f nesses pontos resulta

Assim, o máximo restrito é e o mínimo restrito é .

Exemplo 1b

Ilustração do problema de otimização restrita 1b

Agora modificamos a função objetivo do Exemplo 1a para que minimizemos em vez de novamente ao longo do círculo . Agora, os conjuntos de níveis de ainda são linhas de inclinação -1, e os pontos no círculo tangente a esses conjuntos de níveis são novamente e . Esses pontos de tangência são máximos de  .

Por outro lado, os mínimos ocorrem no nível definido para  = 0 (já que por sua construção não pode assumir valores negativos), em e , onde as curvas de nível de não são tangentes à restrição. A condição que identifica corretamente todos os quatro pontos como extremos; os mínimos são caracterizados em particular por

Exemplo 2

Ilustração do problema de otimização restrita

Este exemplo lida com cálculos mais árduos, mas ainda é um problema de restrição única.

Suponha que se queira encontrar os valores máximos de

com a condição de que as coordenadas - e - estejam no círculo em torno da origem com raio . Ou seja, sujeito à restrição

Como existe apenas uma única restrição, existe um único multiplicador, digamos .

A restrição é identicamente zero no círculo do raio . Qualquer múltiplo de pode ser adicionado para deixar inalterado na região de interesse (no círculo onde nossa restrição original é satisfeita).

A aplicação do método do multiplicador de Lagrange comum produz

a partir do qual o gradiente pode ser calculado:

E portanto:

(iii) é apenas a restrição original. (i) implica ou . Se então por (iii) e, consequentemente, por (ii). Se , substituindo isso em (ii), você obtém . Substituindo isso em (iii) e resolvendo para dá . Portanto, existem seis pontos críticos de :

Avaliando o objetivo nestes pontos, descobre-se que

Portanto, a função objetivo atinge o máximo global (sujeito às restrições) em e o mínimo global em O ponto é um mínimo local de e é um máximo local de , como pode ser determinado pela consideração da matriz Hessiana de .

Observe que embora seja um ponto crítico de , não é um extremo local de Nós temos

Dada qualquer vizinhança de , pode-se escolher um pequeno positivo e um pequeno de qualquer sinal para obter valores maiores e menores que . Isso também pode ser visto na matriz de Hessian avaliada neste ponto (ou mesmo em qualquer um dos pontos críticos), que é uma matriz indefinida . Cada um dos pontos críticos de é um ponto de sela de .

Exemplo 3: Entropia

Suponha que desejamos encontrar a distribuição de probabilidade discreta nos pontos com entropia de informação máxima . Isso é o mesmo que dizer que desejamos encontrar a distribuição de probabilidade menos estruturada nos pontos . Em outras palavras, desejamos maximizar a equação de entropia de Shannon :

Para que esta seja uma distribuição de probabilidade, a soma das probabilidades em cada ponto deve ser igual a 1, então nossa restrição é:

Usamos multiplicadores de Lagrange para encontrar o ponto de entropia máxima,, em todas as distribuições de probabilidade discretas em . Exigimos que:

que dá um sistema de n equações , de modo que:

Fazendo a diferenciação dessas n equações, obtemos

Isso mostra que todos são iguais (porque dependem apenas de λ ). Usando a restrição

nós achamos

Portanto, a distribuição uniforme é a distribuição com a maior entropia, entre as distribuições em n pontos.

Exemplo 4: Otimização numérica

Os multiplicadores de Lagrange fazem com que os pontos críticos ocorram nos pontos de sela.
A magnitude do gradiente pode ser usada para forçar os pontos críticos a ocorrerem em mínimos locais.

Os pontos críticos de Lagrangians ocorrem em pontos de sela , ao invés de máximos (ou mínimos) locais. Infelizmente, muitas técnicas de otimização numérica, como escalada , descida em gradiente , alguns dos métodos quase-Newton , entre outros, são projetadas para encontrar máximos (ou mínimos) locais e não pontos de sela. Por este motivo, deve-se modificar a formulação para garantir que seja um problema de minimização (por exemplo, extraindo o quadrado do gradiente do Lagrangiano como abaixo), ou então usar uma técnica de otimização que encontre pontos estacionários (como o método de Newton sem uma busca de linha extrema) e não necessariamente extrema.

Como um exemplo simples, considere o problema de encontrar o valor de x que minimiza , restringido de tal forma . (Este problema é um tanto patológico porque existem apenas dois valores que satisfazem esta restrição, mas é útil para fins de ilustração porque a função irrestrita correspondente pode ser visualizada em três dimensões.)

Usando multiplicadores de Lagrange, este problema pode ser convertido em um problema de otimização irrestrita:

Os dois pontos críticos ocorrem em pontos de sela onde x = 1 e x = −1 .

Para resolver este problema com uma técnica de otimização numérica, devemos primeiro transformar este problema de forma que os pontos críticos ocorram em mínimos locais. Isso é feito calculando a magnitude do gradiente do problema de otimização irrestrita.

Primeiro, calculamos a derivada parcial do problema irrestrito em relação a cada variável:

Se a função de destino não for facilmente diferenciável, o diferencial em relação a cada variável pode ser aproximado como

onde é um pequeno valor.

Em seguida, calculamos a magnitude do gradiente, que é a raiz quadrada da soma dos quadrados das derivadas parciais:

(Uma vez que a magnitude é sempre não negativa, otimizar sobre a magnitude quadrada é equivalente a otimizar sobre a magnitude. Assim, a '' raiz quadrada "pode ​​ser omitida dessas equações sem diferença esperada nos resultados da otimização.)

Os pontos críticos de h ocorrer em x = 1 e x = -1 , assim como em . Ao contrário dos pontos críticos em , no entanto, os pontos críticos em h ocorrem em mínimos locais, então técnicas de otimização numérica podem ser usadas para encontrá-los.

Formulários

Teoria de controle

Na teoria de controle ótimo , os multiplicadores de Lagrange são interpretados como variáveis ​​de custo , e os multiplicadores de Lagrange são reformulados como a minimização do Hamiltoniano , no princípio do mínimo de Pontryagin .

Programação não linear

O método do multiplicador de Lagrange possui várias generalizações. Na programação não linear, existem várias regras de multiplicador, por exemplo, a Regra do Multiplicador de Carathéodory-John e a Regra do Multiplicador Convexo, para restrições de desigualdade.

Sistemas de energia

Os métodos baseados em multiplicadores de Lagrange têm aplicações em sistemas de potência , por exemplo, na colocação de recursos de energia distribuída (DER) e redução de carga.

Veja também

Referências

Leitura adicional

  • Beavis, Brian; Dobbs, Ian M. (1990). "Otimização estática" . Otimização e Teoria da Estabilidade para Análise Econômica . Nova York: Cambridge University Press. pp. 32–72. ISBN 0-521-33605-8.
  • Bertsekas, Dimitri P. (1982). Otimização Restrita e Métodos Multiplicadores de Lagrange . Nova York: Academic Press. ISBN 0-12-093480-9.
  • Beveridge, Gordon SG; Schechter, Robert S. (1970). "Multiplicadores Lagrangianos" . Otimização: Teoria e Prática . Nova York: McGraw-Hill. pp. 244-259. ISBN 0-07-005128-3.
  • Binger, Brian R .; Hoffman, Elizabeth (1998). "Otimização restrita". Microeconomics with Calculus (2ª ed.). Leitura: Addison-Wesley. pp. 56–91. ISBN 0-321-01225-9.
  • Carter, Michael (2001). "Restrições de igualdade" . Fundamentos da Economia Matemática . Cambridge: MIT Press. pp. 516–549. ISBN 0-262-53192-5.
  • Hestenes, Magnus R. (1966). "Mínimos de funções sujeitas a restrições de igualdade". Cálculo de Variações e Teoria de Controle Ótimo . Nova York: Wiley. pp. 29–34.
  • Wylie, C. Ray; Barrett, Louis C. (1995). "O Extrema dos Integrais sob Restrição". Advanced Engineering Mathematics (Sexta ed.). Nova York: McGraw-Hill. pp. 1096-1103. ISBN 0-07-072206-4.

links externos

Exposição

Para texto adicional e miniaplicativos interativos