Nel mio corso di apprendimento automatico, abbiamo appreso come la regressione di LASSO è molto efficace nell'esecuzione della selezione delle funzionalità, poiché utilizza la regolarizzazione .
La mia domanda: le persone usano normalmente il modello LASSO solo per fare la selezione delle funzioni (e quindi procedono a scaricare quelle caratteristiche in un modello di apprendimento automatico diverso) o usano tipicamente LASSO per eseguire sia la selezione delle funzioni sia l'effettiva regressione?
Ad esempio, supponi di voler eseguire la regressione della cresta, ma ritieni che molte delle tue funzioni non siano molto buone. Sarebbe saggio eseguire LASSO, prendere solo le funzionalità che non sono quasi azzerate dall'algoritmo e quindi utilizzare solo quelle per scaricare i dati in un modello di regressione della cresta? In questo modo, si ottiene il vantaggio della regolarizzazione per l'esecuzione della selezione delle funzioni, ma anche il vantaggio della regolarizzazione per ridurre il sovrautilizzo. (So che questo equivale sostanzialmente alla regressione della rete elastica, ma sembra che non sia necessario avere entrambi i termini e nella funzione dell'obiettivo di regressione finale.)
A parte la regressione, questa è una strategia saggia quando si eseguono compiti di classificazione (usando SVM, reti neurali, foreste casuali, ecc.)?