Come mezzo per motivare la domanda, considera un problema di regresso in cui cerchiamo di stimare usando le variabili osservate { a , b }
Quando eseguo un regresso polinomiale multivariato, provo a trovare la paramitizzazione ottimale della funzione
che meglio si adattano ai dati in senso meno quadrato.
Il problema con questo, tuttavia, è che i parametri non sono indipendenti. C'è un modo per fare la regressione su una diversa serie di vettori "base" che sono ortogonali? In questo modo ha molti ovvi vantaggi
1) i coefficienti non sono più correlati. 2) i valori della 's stessi non dipendono dal grado di coefficienti. 3) Ciò ha anche il vantaggio computazionale di essere in grado di eliminare i termini di ordine superiore per un'approssimazione più grossolana ma ancora accurata dei dati.
Ciò si ottiene facilmente nel singolo caso variabile usando polinomi ortogonali, usando un set ben studiato come i polinomi di Chebyshev. Non è ovvio comunque (per me comunque) come generalizzare questo! Mi è venuto in mente che potevo mutiply chebyshev polinomi a coppie, ma non sono sicuro che questa sia la cosa matematicamente corretta da fare.
Il tuo aiuto è apprezzato