Jacobi smorzato
Supponiamo che la matrice abbia una diagonaleUN . Se lo spettro di D - 1 A si trova nell'intervallo [ a , b ] dell'asse reale positivo, la matrice di iterazione di Jacobi con fattore di smorzamento ω B Jacobi = I - ω D - 1 A
ha spettro nell'intervallo [ 1 - ω b , 1 - ω a ] , riducendo così al minimo il raggio spettrale con ω opt = 2DD- 1UN[ a , b ]ω
BJacobi= I- ω D- 1UN
[ 1 - ω b , 1 - ω a ] fornisce un fattore di convergenza di
ρopt=1-2aωoptare= 2a + b
Se
a≪b, questo fattore di convergenza è molto scarso, come previsto. Si noti che è relativamente facile stimare
busando un metodo di Krylov, ma piuttosto costoso stimare
a.
ρoptare= 1 - 2 aa + b= b - aa + b.
a ≪ bBun'
Rilassamento eccessivo successivo (SOR)
D- 1UNμmaxio- D- 1UNμmax< 1
ωoptare= 1 + ( μmax1 + 1 - μ2max-------√)2
ρoptare= ωoptare- 1.
ωoptaresi avvicina a 2 quando .
μmax→ 1
Commenti
Non è più il 1950 e in realtà non ha senso usare metodi stazionari come solutori. Invece, li usiamo come smoothers per multigrid. In questo contesto, ci preoccupiamo solo di colpire l'estremità superiore dello spettro. L'ottimizzazione del fattore di rilassamento in SOR fa sì che SOR produca pochissimo smorzamento delle alte frequenze (in cambio di una migliore convergenza su frequenze più basse), quindi di solito è meglio usare lo standard Gauss-Seidel, corrispondente a in SOR. Per problemi non simmetrici e con coefficienti altamente variabili, SOR sotto-rilassato ( ) può avere proprietà di smorzamento migliori.ω = 1ω<1
Stimare entrambi gli autovalori di è costoso, ma il più grande autovalore può essere stimato rapidamente usando alcune iterazioni di Krylov. I leviganti polinomiali (precondizionati con Jacobi) sono più efficaci delle molteplici iterazioni di Jacobi smorzato e sono più facili da configurare, quindi dovrebbero essere preferiti. Vedi questa risposta per ulteriori informazioni sui leviganti polinomiali.D−1A
Talvolta si afferma che SOR non dovrebbe essere usato come precondizionatore per i metodi di Krylov come GMRES. Questo deriva dall'osservazione che il parametro di rilassamento ottimale dovrebbe posizionare tutti gli autovalori della matrice di iterazione su un cerchio centrato sull'origine. Lo spettro dell'operatore precondizionato(1
BSOR=1−(1ωD+L)−1A
(1ωD+L)−1Aha autovalori su un cerchio dello stesso raggio, ma centrato su 1. Per gli operatori scarsamente condizionati, il raggio del cerchio è abbastanza vicino a 1, quindi GMRES vede gli autovalori vicini all'origine in un intervallo di angoli, che di solito non è buono per convergenza. In pratica, GMRES può convergere ragionevolmente quando precondizionato con SOR, specialmente per problemi che sono già abbastanza ben condizionati, ma altri precondizionatori sono spesso più efficaci.