A meno che la soluzione in formato chiuso non sia estremamente costosa da calcolare, in genere è la strada da percorrere quando è disponibile. Però,
Per la maggior parte dei problemi di regressione non lineare non esiste una soluzione in forma chiusa.
Anche nella regressione lineare (uno dei pochi casi in cui è disponibile una soluzione in forma chiusa), potrebbe non essere pratico utilizzare la formula. L'esempio seguente mostra un modo in cui ciò può accadere.
y=XβX
β^=argmin∥Xβ−y∥2
è dato da
β^=(XTX)−1XTy
Ora, immagina che sia una matrice molto grande ma sparsa. ad esempio potrebbe avere 100.000 colonne e 1.000.000 di righe, ma solo lo 0,001% delle voci in è diverso da zero. Esistono strutture dati specializzate per la memorizzazione solo delle voci diverse da zero di tali matrici sparse. XXX
Immagina anche di essere sfortunati e è una matrice abbastanza densa con una percentuale molto più alta di voci diverse da zero. Memorizzare una densa matrice di 100.000 per 100.000 elementi richiederebbe quindi numeri in virgola mobile (a 8 byte per numero, questo arriva a 80 gigabyte). Non sarebbe pratico memorizzare su qualsiasi cosa ma un supercomputer. Inoltre, anche l'inverso di questa matrice (o più comunemente un fattore di Cholesky) tende ad avere voci per lo più diverse da zero. XTXXTX1×1010
Tuttavia, ci sono metodi iterativi per risolvere il problema dei minimi quadrati che non richiedono più spazio di archiviazione di , , e e mai formare esplicitamente il prodotto matrice di . Xyβ^XTX
In questa situazione, l'utilizzo di un metodo iterativo è molto più efficiente dal punto di vista computazionale rispetto all'utilizzo della soluzione a forma chiusa per il problema dei minimi quadrati.
Questo esempio potrebbe sembrare assurdamente ampio. Tuttavia, i problemi dei minimi quadrati sparsi di queste dimensioni vengono sistematicamente risolti con metodi iterativi su computer desktop nella ricerca sulla tomografia sismica.