La normalizzazione è fondamentalmente un prerequisito per ridurre il numero della condizione della matrice UN (maggiore è il numero della condizione, più la matrice è vicina alla matrice singolare).
La trasformazione normalizzante è anche rappresentata da una matrice nel caso della stima dell'omografia, e ciò sembra essere utilizzabile come una buona matrice di precondizionamento. Il motivo per cui è più elaborato è spiegato brevemente nel libro di H&Z (4.4.4, p. 107: Perché è essenziale la normalizzazione? ) O più dettagliatamente nel documento " In difesa dell'algoritmo a otto punti ".
In parole povere, la matrice costituita da prodotti di coordinate di immagine che possono avere una scala diversa. Se la scala differisce di un fattore , i prodotti differiscono di un fattore .UN10102
I dati delle coordinate di origine e di destinazione sono generalmente rumorosi . Senza la normalizzazione, i dati dalla sorgente potrebbero avere una variazione maggiore di due ordini di grandezza rispetto al target (o viceversa).
La stima dell'omografia di solito trova i parametri in un senso dei minimi quadrati - quindi la migliore stima statistica si trova solo se le varianze dei parametri sono uguali (o conosciute in anticipo, ma è più pratico solo per normalizzare l'input).
Ai solutori diretti non piacciono i problemi scarsamente dimensionati perché compaiono instabilità numeriche (ad esempio la divisione di un numero molto grande per un numero molto piccolo porta facilmente a un overflow numerico).
I risolutori iterativi lottano con matrici mal condizionate necessitando di più iterazioni.
Quindi la normalizzazione è essenziale non solo per la stabilità numerica, ma anche per una stima più accurata in presenza di rumore e soluzione più rapida (in caso di risolutore iterativo).