Applicazione sicura di metodi iterativi su matrici diagonalmente dominanti


9

Supponiamo che al seguente sistema lineare sia dato dove L è il Laplaciano ponderato noto per essere positivo s e m i - definito con uno spazio nullo unidimensionale attraversato da 1 n = ( 1 , , 1 ) R n , e la varianza della traduzione di x R n , ovvero x + a 1 n non cambia il valore della funzione (la cui derivata è ( 1 )

(1)Lx=c,
Lsemi1n=(1,,1)RnxRnx+a1n(1)). Le uniche voci positive di sono sulla sua diagonale, che è una somma dei valori assoluti delle voci negative fuori diagonale.L

Ho trovato in uno altamente citato lavoro accademico nel suo campo che, anche se è n o t s t r i c t l y dominanza diagonale, metodi come gradiente coniugato, Gauss-Seidl, Jacobi, potrebbero ancora essere utilizzati in modo sicuro per risolvere ( 1 ) . La logica è che, a causa dell'invarianza della traduzione, si può tranquillamente fissare un punto (es. Rimuovere la prima riga e colonna di L e la prima voce da c ), convertendo così L in un s t r i c t l yLnot strictly(1)LcLstrictlymatrice diagonalmente dominante. Ad ogni modo, il sistema originale è risolto nella forma completa di , con L R n × n .(1)LRn×n

Questa ipotesi è corretta e, in tal caso, quali sono le motivazioni alternative? Sto cercando di capire come la convergenza dei metodi è ancora valida.

Se il metodo Jacobi è convergente con , che cosa si potrebbe dire sul raggio spettrale ρ della matrice di iterazione D - 1 ( D - L ) , dove D è la matrice diagonale con le voci di L sulla sua diagonale? È ρ ( D - 1 ( D - L ) 1 , quindi diverso dalle garanzie generali di convergenza per ρ ( D - 1 ( D - L ) )(1)ρD1(DL)DLρ(D1(DL)1 ? Lo sto chiedendo poiché gli autovalori della matrice laplaciana D - 1 L con quelli sulla diagonaledovrebberoessere compresi nell'intervallo [ 0 , 2 ] .ρ(D1(DL))<1D1L[0,2]

Dal lavoro originale:

......................................

Ad ogni iterazione, calcoliamo un nuovo layout (x (t +1), y (t + 1)) risolvendo il seguente sistema lineare: Senza perdita di generalità possiamo fissare la posizione di uno dei sensori (utilizzando il grado di traduzione della libertà del localizzato stress) e ottenere una matrice strettamente diagonale dominante. Pertanto, possiamo tranquillamente utilizzare l'iterazione Jacobi per la risoluzione (8)

(8)L·x(t+1)=L(x(t),y(t))·x(t)L·y(t+1)=L(x(t),y(t))·y(t)

.......................................

In quanto sopra, la nozione di "iterazione" è correlata alla procedura di minimizzazione sottostante e non deve essere confusa con l'iterazione di Jacobi. Quindi, il sistema viene risolto da Jacobi (iterativamente), e quindi la soluzione viene acquistata sul lato destro di (8), ma ora per un'altra iterazione della minimizzazione sottostante. Spero che questo chiarisca la questione.

Si noti che ho trovato quali solutori lineari iterativi convergono per matrici semidefinite positive? , ma sto cercando una risposta più elaborata.


Potresti pubblicare un link o una citazione per l'opera citata?
Geoff Oxberry

Potrebbe essere recuperato da: citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.164.1421 Dato che non ti aspetti di leggere l'intero lavoro, dai un'occhiata a p.7 (in basso). Suppongo che la scelta dei solutori iterativi sia giustificata, ma ritengo che sia necessaria una logica migliore (o almeno diversa).
usero

Mi chiedo se questi ragazzi appartengano alla stessa comunità dei precondizionatori combinatori.
shuhalo,

Risposte:


5

L'iterazione Jacobi può essere dimostrata convergente.

La prima cosa che dovresti accertare è che , che è la condizione per l'esistenza della soluzione (presumo L = L T , altrimenti hai bisogno di c ( K e r L T ) ) perché hai detto V 0 : = K e r L = s p a n { 1 n } . Useremo la convenzione che V 0cT1n=0L=LTc(KerLT)V0:=KerL=span{1n}V0è anche la matrice con le colonne che ne sono la base ortonormale. Nel tuo caso, .V0:=1n/n

Quindi, per gli errori dell'iterazione Jacobi sul sistema originale, hai dove P : = I -

e1=(ID1L)e0=(ID1L)(Pe0+V0a)=(ID1L)Pe0+V0a,
è la proiezione ortogonale su V 1 : = V 0 . Dalla precedente iterazione, sappiamo che P e 1 = P ( I - D - 1 L ) P e 0 , da cui abbiamo la matrice di iterazione S in V 1 , S : = P ( I - D - 1 L ) P . Non quelloP:=IV0V0V1:=V0
Pe1=P(ID1L)Pe0,

SV1
S:=P(ID1L)P.
ha gli stessi spettri (tranne gli zeri) con la seguente matrice ˜ S : = ( I - D - 1 L ) P P = ( I - D - 1 L ) P = ( I - D - 1 L ) ( I - V 0 V 0 )S Vogliamo che il raggio spettrale di S meno di uno provi la convergenza.
S~:=(ID1L)PP=(ID1L)P=(ID1L)(IV0V0)=ID1LV0V0.
S

La seguente citazione è vecchia e conservata solo come riferimento. Vedi dopo per la nuova prova.

Nel tuo caso, V0V0=1n1n×n.D1L+V0V0LD1L+V0V0<x,y>:=yTDx.

V0

V01ID1L

uvnuAλ1A+uvT{λ1+uTv,λ2,,λn}

S~ID1L11ρ(ID1L)(1,1]ρ(S~)(1,1)


D1L[0,2)(0,2)00ID1L1ID1L0

D1L[0,2]222ID1L1LV1

D1L2cV0ID1LV0V0srID1L(0,1]1nsr<1

1n1n1n×nsrID1Lsrsr

V0

5

I metodi di Krylov non usano mai esplicitamente la dimensionalità dello spazio in cui ripetono, quindi è possibile eseguirli su sistemi singolari purché si mantengano le ripetizioni nel sottospazio non nullo. Questo viene normalmente eseguito proiettando lo spazio nullo ad ogni iterazione. Ci sono due cose che possono andare storte, la prima è molto più comune della seconda.

  1. Il precondizionatore è instabile quando applicato al singolo operatore. I risolutori diretti e la fattorizzazione incompleta possono avere questa proprietà. In pratica, scegliamo solo diversi precondizionatori, ma ci sono modi più di principio per progettare precondizionatori per sistemi singolari, ad esempio Zhang (2010) .
  2. xAx

Per risolvere i sistemi singolari utilizzando PETSc, vedere KSPSetNullSpace(). La maggior parte dei metodi e dei precondizionatori possono risolvere sistemi singolari. In pratica, il piccolo spazio nullo per PDE con condizioni al contorno di Neumann non è quasi mai un problema, purché si informi il risolutore di Krylov dello spazio nullo e si scelga un ragionevole precondizionatore.

Ax=bbAb


QA1=QTAQA1A1Z(IZ)P1Ax=(IZ)P1b

Hmm, sembra che abbia risposto a un commento che è stato eliminato. Lascerò qui il commento nel caso sia utile.
Jed Brown,

diag(A)

Xk+1=D1(b(AD)Xk)Xk+1Xk

1
N=ZZTZINZN=IZZTè il proiettore.)
Jed Brown
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.