So che eseguire l'ottimizzazione dell'iperparametro al di fuori della convalida incrociata può portare a stime distorte della validità esterna, poiché il set di dati utilizzato per misurare le prestazioni è lo stesso utilizzato per ottimizzare le funzionalità.
Quello che mi chiedo è quanto sia grave questo problema . Posso capire come sarebbe davvero male per la selezione delle funzionalità, dal momento che questo ti dà un numero enorme di parametri da ottimizzare. Ma cosa succede se stai usando qualcosa come LASSO (che ha solo un parametro, l'intensità della regolarizzazione) o una foresta casuale senza selezione delle caratteristiche (che può avere alcuni parametri ma niente di così drammatico come aggiungere / far cadere le caratteristiche del rumore)?
In questi scenari, quanto puoi aspettarti che la tua stima dell'errore di allenamento sia ottimistica?
Gradirei qualsiasi informazione su questo - casi studio, documenti, aneddoti, ecc. Grazie!
EDIT: Per chiarire, io sto non parlando di stimare le prestazioni del modello sui dati di addestramento (ad esempio, non si utilizza la convalida incrociata a tutti). Con "messa a punto dell'iperparametro al di fuori della convalida incrociata" intendo usare la convalida incrociata solo per stimare le prestazioni di ogni singolo modello, ma non includere un secondo ciclo esterno di convalida incrociata per correggere il sovra-adattamento all'interno della procedura di messa a punto dell'iperparametro (come distinto da sovralimentazione durante la procedura di addestramento). Vedi ad esempio la risposta qui .