next up previous
Next: Esercizi interattivi Up: Sistemi di equazioni lineari Previous: Metodi iterativi di punto

Metodi iterativi di minimizzazione libera.

Si tratta di algoritmi di risoluzione del problema

\begin{displaymath}\min_{x\in R^n} f(x)
\leqno(3.1)
\end{displaymath}

con $f\in C^1$ (per i metodi di tipo Newton $f\in C^2$). Ricordiamo che nel caso f sia strettamente convessa il punto di minimo in (3.1) esiste ed é l'unico punto stazionario, e quindi questo problema equivale a trovare la soluzione del sistema nonlineare

\begin{displaymath}\nabla f(x)=0.
\end{displaymath}

Se f é quadratica definita positiva, ovvero f(x)=1/2(Ax,x)-(b,x) con Adefinita positiva, allora il punto di minimo é soluzione del sistema lineare Ax=b.

La struttura generale di un metodo iterativo di minimizzazione é

\begin{displaymath}x_{k+1}=x_k - \beta_k d_k,
\leqno(3.2)
\end{displaymath}

dove $\beta_k\in R^+$, $d_k\in R^n$ ed x0 é assegnato. Si tratta quindi di muoversi lungo la direzione dk con passo $\beta_k$, entrambi da scegliersi opportunamente ad ogni passo. Di regola si richiede che la direzione dk sia una direzione di discesa, ovvero che $(d_k,\nabla f(x_k))<0$, e che inoltre f(xk+1)<f(xk).

Le strategie piú comuni per scegliere le direzioni dk sono:


Discesa piú ripida (o gradiente) - si sceglie $d_k=-\nabla f(x_k)$. Questo equivale alla direzione in cui la derivata direzionale di f é di modulo maggiore.


Rilassamento - si sceglie $d_k=\pm e_j~(j=k({\rm
mod}~n))$, ovvero ci si muove lungo le direzioni coordinate prese in sequenza. Nel caso di funzioni quadratiche si riottiene l'algoritmo di Gauss-Seidel.


Direzioni coniugate - Nel caso di una f quadratica definita positiva, si scelgono le direzioni dk in modo tale che

\begin{displaymath}(Ad_k,d_j)\cases{>0 & se $k=j$\cr =0 & se $k\not=j$\cr}
\leqno(3.3)
\end{displaymath}

(esistono opportune generalizzazioni nel caso di funzioni non quadratiche).


Newton - si sceglie $d_k=-P_k\nabla f(x_k)$ con Pk=Hf(xk)-1 (Hf matrice hessiana di f) nel caso del metodo di Newton propriamente detto, ed una sua opportuna versione approssimata nel caso dei metodi Quasi-Newton.


Le strategie piú comuni per scegliere gli scalari $\beta_k$ sono:


Passo fisso - In questo caso si sceglie $\beta_k\equiv\beta$ (costante).


Ricerca esatta - Si sceglie $\beta_k$ in modo che si abbia

\begin{displaymath}f(x_k+\beta_kd_k)=\min_\beta f(x_k+\beta d_k)
\leqno(3.4)
\end{displaymath}

applicando un metodo di ricerca unidimensionale, ad esempio il metodo di bisezione. Nel caso di funzioni quadratiche il minimo (3.4) si puó calcolare esplicitamente.


Ricerca parziale (criterio di Goldstein) - In questo caso $\beta_k$ é determinato (in modo non univoco) dalla condizione

\begin{displaymath}f(x_k)+\sigma_1\beta_k(d_k,\nabla f(x_k)) \le f(x_k+\beta_kd_k)\le
f(x_k)+\sigma_2\beta_k(d_k,\nabla f(x_k))
\leqno(3.5)
\end{displaymath}

dove $0<\sigma_2<\sigma_1<1$.



Risultati fondamentali


$\bullet$ Se f(x) é differenziabile, strettamente convessa e coercitiva, il metodo di rilassamento con ricerca esatta é convergente per ogni scelta di $x_0\in R^n$.


$\bullet$ Se f(x) ha gradiente lipschitziano e la successione xké generata tramite l'algoritmo del gradiente (sia con ricerca esatta che parziale), allora tutte le sottosuccessioni convergenti di xk convergono a punti stazionari di f. Se f é strettamente convessa e coercitiva, allora tutta la successione xk converge (linearmente) all'unico punto di minimo di f. Lo stesso risultato vale per il metodo a passo fisso, a patto che il passo $\beta$ sia sufficientemente piccolo.


$\bullet$ Se f(x) é quadratica e definita positiva, il metodo delle direzioni coniugate con ricerca esatta converge al piú in n passi al punto di minimo.


$\bullet$ Se $f(x)\in C^2$ e Hf é definita positiva in un intorno del minimo $\bar x$, allora esiste un intorno U di $\bar x$ tale che, se $x_0\in U$, la successione xk generata dall'algoritmo di Newton converge quadraticamente a $\bar x$.


next up previous
Next: Esercizi interattivi Up: Sistemi di equazioni lineari Previous: Metodi iterativi di punto

Roberto Ferretti e Tiziana Manfroni - 1999