Ajude a manter o site livre, gratuito e sem propagandas. Colabore!
3.1 Métodos de declive
Em revisão
Um método de declive consiste em uma iteração tal que: dada uma aproximação inicial , computa-se
(3.5)
com tamanho de passo , para até que um dado critério de parada seja satisfeito. As direções descendentes são tais que
(3.6)
(3.7)
Observação 3.1.1.(Condição de convergência)
Da Série de Taylor111Brook Taylor, 1685 - 1731, matemático britânico. Fonte: Wikipédia:Brook Taylor., temos que
(3.8)
com quando . Como consequência da continuidade da , para suficientemente pequeno, o sinal do lado esquerdo é igual a do direito desta última equação. Logo, para tais e uma direção descendente, temos garantido que
(3.9)
Notamos que um método de declive fica determinado pelas escolhas da direção de declive e o tamanho do passo . Primeiramente, vamos a este último item.
3.1.1 Pesquisa linear
Em revisão
O método de pesquisa linear consiste em escolher com base na resolução do seguinte problema de minimização
(3.10)
Entretanto, a resolução exata deste problema é muitas vezes não factível. Técnicas de aproximações para a resolução deste problema são, então, aplicadas. Tais técnicas são chamadas de pesquisa linear não exata.
Condições de Wolfe
Uma abordagem popular de pesquisa linear não exata é baseada nas condições de Wolfe [7]. Trata-se de duas condições que devem ser satisfeitas pela escolha de .
A condição de Armijo é que a escolha de deve ser tal que
(3.11)
para alguma constante . Ou seja, a redução em é esperada ser proporcional à derivada direcional de com relação a direção no ponto . Em aplicações computacionais, é normalmente escolhido no intervalo .
A condição (3.11) não é suficiente para evitar escolhas muito pequenas de . Para tanto, pode-se empregar a condição de curvatura, a qual requer que
(3.12)
para . Notemos que o lado esquerdo de (3.12) é igual a . Ou seja, este condição impõe que seja maior que . Normalmente, escolhe-se . Juntas, (3.11) e (3.12) são conhecidas como condições de Wolfe222Philip Wolfe, 1927 - 2016, matemático estadunidense. Fonte: Wikipédia..
3.1.2 Método do gradiente
Em revisão
O método do gradiente (ou método do máximo declive) é um método de declive tal que as direções descendentes são o oposto do gradiente da , i.e.
(3.13)
É imediato verificar que as condições (3.6)-(3.7) são satisfeitas.
Exemplo 3.1.1.
Consideramos o problema de encontrar o mínimo da função de Rosenbrock333Howard Harry Rosenbrock, 1920 - 2010, engenheiro britânico. Fonte: Wikipedia: Howard Harry Rosenbrock.
(3.14)
O valor mínimo desta função é zero e ocorre no ponto . Esta função é comumente usada como caso padrão para teste de métodos de otimização.
Para o método do gradiente, precisamos das derivadas parciais
(3.15)
(3.16)
(3.17)
onde, é o delta de Kronecker444Leopold Kronecker, 1923 - 1891, matemático alemão. Fonte: Wikipédia: Leopold Kronecker..
Aplique o método do gradiente para computar o ponto mínimo da função de Rosenbrock555Howard Harry Rosenbrock, 1920 - 2010, engenheiro britânico. Fonte: Wikipedia: Howard Harry Rosenbrock.
(3.18)
com
a)
.
b)
.
c)
.
d)
.
e)
.
E. 3.1.2.
Aplique o método do gradiente para computar o ponto mínimo da função de Beale [Beale1955a]
(3.19)
para .
E. 3.1.3.
Aplique o método do gradiente para computar o ponto mínimo da função de Goldstein-Price [Goldstein1971a]
(3.20)
E. 3.1.4.
Aplique o método do gradiente para computar o ponto mínimo da função de Booth
(3.21)
para .
E. 3.1.5.
Aplique o método do gradiente para computar o ponto mínimo da função de Rastrigin
(3.22)
para , com
a)
.
b)
.
c)
.
d)
.
e)
.
Envie seu comentário
Aproveito para agradecer a todas/os que de forma assídua ou esporádica contribuem enviando correções, sugestões e críticas!