Quando utilizzo CV di k-fold per selezionare tra i modelli di regressione, di solito computo l'errore CV separatamente per ciascun modello, insieme al suo errore standard SE, e seleziono il modello più semplice entro 1 SE dal modello con l'errore CV più basso (il 1 regola di errore standard, vedere ad esempio qui ). Tuttavia, recentemente mi è stato detto che in questo modo sto sopravvalutando la variabilità e che nel caso specifico della selezione tra due modelli A e B, dovrei davvero procedere in un modo diverso:
- per ogni piega di lunghezza , calcola le differenze puntuali tra le previsioni dei due modelli, quindi calcola la differenza quadrata media per la piega
- medio attraverso le pieghe come al solito e usa questo errore di differenza CV (insieme al suo errore standard) come stimatore per l'errore di generalizzazione.
Domande:
- Questo ha senso per te? So che ci sono ragioni teoriche dietro l'uso dell'errore CV come uno stimatore dell'errore di generalizzazione (non so quali sono questi motivi, ma so che esistono!). Non ho idea se ci siano ragioni teoriche dietro l'uso di questo errore CV "differenza".
- Non so se questo possa essere generalizzato ai confronti di più di due modelli. Il calcolo delle differenze per tutte le coppie di modelli sembra rischioso (confronti multipli?): Cosa faresti se avessi più di due modelli?
EDIT: la mia formula è totalmente sbagliata, la metrica corretta è descritta qui ed è molto più complicata. Bene, sono felice di averlo chiesto qui prima di applicare la formula in modo accecante! Ringrazio @Bay per avermi aiutato a capire con la sua risposta illuminante. La misura corretta descritta è piuttosto sperimentale, quindi mi atterrò al mio cavallo di lavoro fidato, l'errore CV!