Si tratta di algoritmi di risoluzione del problema
La struttura generale di un metodo iterativo di minimizzazione é
Le strategie piú comuni per scegliere le direzioni dk sono:
Discesa piú ripida (o gradiente) - si sceglie
.
Questo equivale alla direzione in cui la derivata
direzionale di f é di modulo maggiore.
Rilassamento - si sceglie
,
ovvero ci si muove lungo le direzioni coordinate prese in sequenza.
Nel caso di funzioni quadratiche si riottiene l'algoritmo di Gauss-Seidel.
Direzioni coniugate - Nel caso di una f quadratica
definita positiva, si scelgono le direzioni dk in modo tale che
Newton - si sceglie
con
Pk=Hf(xk)-1 (Hf matrice hessiana di f) nel caso del metodo di
Newton propriamente detto, ed una sua opportuna versione approssimata nel caso
dei metodi Quasi-Newton.
Le strategie piú comuni per scegliere gli scalari
sono:
Passo fisso - In questo caso si sceglie
(costante).
Ricerca esatta - Si sceglie
in modo che si
abbia
Ricerca parziale (criterio di Goldstein) - In questo
caso
é determinato (in modo non univoco) dalla condizione
Risultati fondamentali
Se f(x) é differenziabile, strettamente convessa
e coercitiva, il metodo di
rilassamento con ricerca esatta é convergente
per ogni scelta di
.
Se f(x) ha gradiente lipschitziano e la successione xké generata tramite l'algoritmo del gradiente (sia con ricerca esatta che
parziale), allora tutte le sottosuccessioni convergenti di xk convergono a
punti stazionari di f. Se f é strettamente convessa
e coercitiva, allora
tutta la successione xk converge (linearmente) all'unico punto di minimo di
f. Lo stesso risultato vale per il metodo a passo fisso, a patto che il passo
sia sufficientemente piccolo.
Se f(x) é quadratica e definita positiva, il metodo delle
direzioni coniugate con ricerca esatta converge al piú in n passi al punto
di minimo.
Se
e Hf é definita positiva in un intorno
del minimo
,
allora esiste un intorno U di
tale che, se
,
la successione xk generata dall'algoritmo di Newton converge
quadraticamente a
.