Ho una domanda per quanto riguarda la necessità di utilizzare i metodi di selezione delle caratteristiche (le foreste casuali presentano un valore di importanza o i metodi di selezione delle caratteristiche univariati, ecc.) Prima di eseguire un algoritmo di apprendimento statistico.
Sappiamo che per evitare un eccesso di adattamento possiamo introdurre una penalità di regolarizzazione sui vettori di peso.
Quindi, se voglio fare una regressione lineare, allora potrei introdurre i parametri di regolarizzazione della rete L2 o L1 o persino Elastici. Per ottenere soluzioni sparse, la penalità L1 aiuta nella selezione delle funzionalità.
Quindi è ancora necessario fare la selezione delle funzionalità prima di eseguire la regolarizzazione L1 nella regressione come Lasso ?. Tecnicamente Lasso mi sta aiutando a ridurre le funzionalità di penalità L1, quindi perché la selezione delle funzionalità è necessaria prima di eseguire l'algo?
Ho letto un articolo di ricerca che afferma che fare Anova quindi SVM offre prestazioni migliori rispetto all'uso di SVM da solo. Ora la domanda è: SVM inerentemente fa la regolarizzazione usando la norma L2. Al fine di massimizzare il margine, sta riducendo al minimo la norma del vettore di peso. Quindi sta facendo regolarizzazione nella sua funzione oggettiva. Quindi tecnicamente algoritmi come SVM non dovrebbero preoccuparsi dei metodi di selezione delle funzionalità. Ma il rapporto dice ancora che fare la selezione delle caratteristiche univariate prima che il normale SVM sia più potente.
Qualcuno con pensieri?