Mi chiedo se ci siano euristiche sul numero di caratteristiche rispetto al numero di osservazioni. Ovviamente, se un numero di funzioni è uguale al numero di osservazioni, il modello si adatta in modo eccessivo. Utilizzando metodi sparsi (LASSO, rete elastica) possiamo rimuovere diverse funzionalità per ridurre il modello.
La mia domanda è (teoricamente): prima di usare le metriche per valutare la selezione del modello ci sono delle osservazioni empiriche che mettono in relazione il numero ottimale di caratteristiche con il numero di osservazioni?
Ad esempio: per un problema di classificazione binaria con 20 istanze in ogni classe, esiste un limite superiore al numero di funzionalità da utilizzare?