Secondo Wikipedia il tasso di convergenza è espresso come un rapporto specifico delle norme vettoriali. Sto cercando di capire la differenza tra i tassi "lineari" e "quadratici", in diversi momenti (sostanzialmente, "all'inizio" dell'iterazione e "alla fine"). Si potrebbe affermare che:
con convergenza lineare, la norma dell'errore dell'iterata è delimitata da
con convergenza quadratica, la norma dell'errore dell'iterata è delimitata da
Una simile interpretazione significherebbe che, con pochi (un numero limitato di) iterazioni dell'algoritmo linearmente convergente A1 (ipotesi di inizializzazione casuale), si otterrebbe un errore minore che con poche iterate dell'algoritmo A2 quadratico convergente. Tuttavia, poiché l'errore diminuisce e, a causa della quadratura, successive ripetizioni significherebbero un errore minore con A2.
L'interpretazione di cui sopra è valida? Si noti che ignora il coefficiente di tasso .