Qual è lo stato attuale dei precondizionatori polinomiali?


15

Mi chiedo cosa sia successo ai precondizionatori polinomiali. Sono interessato a loro, perché sembrano relativamente raffinati dal punto di vista matematico, ma per quanto ho letto in sondaggi sui metodi di krylov, generalmente si comportano molto male come precondizionatori. Nelle parole di Saad e van der Host, "L'interesse attuale per queste tecniche è quasi svanito" (Qui) . Tuttavia, ci sono stati usi per i calcoli multicore e GPU nel recente passato.

Qualcuno può dirmi o piuttosto spiegarmi in quali contesti questi metodi sono ancora vivi e dove trovare un buon sondaggio sullo stato dell'arte attuale?


Un recente articolo su arxiv ( arxiv.org/pdf/1806.08020.pdf ) indaga sui precondizionatori polinomiali per Arnoldi. In particolare, lo testano su una varietà di problemi e ottengono una buona velocità. Concludono che la riduzione delle operazioni vettoriali dovuta al precondizionamento polinomiale "è molto promettente per il calcolo degli autovalori che evitano la comunicazione su computer ad alte prestazioni". Non sono uno degli autori.
Amarney,

Risposte:


12

Per eseguire ragionevolmente, i precondizionatori polinomiali necessitano di stime spettrali abbastanza accurate. Per problemi ellittici mal condizionati, gli autovalori più piccoli sono generalmente separati in modo tale che metodi come Chebyshev sono tutt'altro che ottimali. La proprietà più interessante dei metodi polinomiali è che non richiedono alcun prodotto interno.

In realtà è molto popolare da utilizzare polinomi smoothers in multigrid. La principale differenza rispetto a un precondizionatore è che si suppone che il più fluido miri solo a una parte dello spettro. Ad esempio, un polinomio più uniforme è attualmente l'impostazione predefinita nel multigrid di PETSc. Vedi anche Adams et al., Parallel multigrid smoother: polinomial versus Gauss-Seidel (2003) per un confronto.

I precondizionatori polinomiali possono essere utilizzati esclusivamente per ridurre la frequenza delle riduzioni. Sebbene debbano essere risintonizzati per ogni matrice, i risparmi possono essere significativi sull'hardware in cui le riduzioni sono costose (comune sui grandi supercomputer). Vedi McInnes, Smith, Zhang e Mills, Hierarchical and Nested Krylov Methods for Extreme-Scale Computing (2012) per ulteriori informazioni al riguardo.

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.