Per regressione Lazo supponiamo che la soluzione migliore (ad esempio un errore minimo di test) selezioni funzioni, in modo che \ hat {\ beta} ^ {lasso} = \ left (\ hat {\ beta} _1 ^ {lasso}, \ hat {\ beta} _2 ^ {lasso}, ..., \ hat {\ beta} _k ^ {lasso}, 0, ... 0 \ right) .
Sappiamo che è un stima distorta di , quindi perché prendiamo ancora come soluzione finale, anziché la più "ragionevole" , dove è la stima LS dal modello parziale . ( indica le colonne di corrispondenti alle caratteristiche selezionate).
In breve, perché utilizziamo Lazo sia per la selezione delle funzioni che per la stima dei parametri, anziché solo per la selezione delle variabili (e lasciando la stima sulle caratteristiche selezionate su OLS)?
(Inoltre, cosa significa che 'Lazo può selezionare al massimo funzioni'? è la dimensione del campione.)