Sento spesso di valutare le prestazioni di un modello di classificazione tenendo il set di test e allenando un modello sul set di allenamento. Quindi creando 2 vettori, uno per i valori previsti e uno per i valori reali. Ovviamente fare un confronto consente di giudicare le prestazioni del modello in base al suo potere predittivo usando cose come F-Score, Kappa Statistic, Precision & Recall, curve ROC ecc.
In che modo questo si confronta con la valutazione della previsione numerica come la regressione? Suppongo che potresti addestrare il modello di regressione sul set di addestramento, usarlo per prevedere i valori, quindi confrontare questi valori previsti con i valori reali presenti nel set di test. Ovviamente le misure di prestazione dovrebbero essere diverse poiché questo non è un compito di classificazione. I soliti residui e le statistiche sono misure ovvie ma ci sono modi più / migliori per valutare le prestazioni per i modelli di regressione? Sembra che la classificazione abbia tante opzioni ma la regressione è lasciata a e ai residui.