Per problemi di regressione, ho visto le persone usare il "coefficiente di determinazione" (aka R quadrato) per eseguire la selezione del modello, ad esempio, trovare il coefficiente di penalità appropriato per la regolarizzazione.
Tuttavia, è anche comune usare "errore quadrato medio" o "errore quadrato medio radice" come misura dell'accuratezza della regressione.
Quindi qual è la differenza principale tra questi due? Potrebbero essere usati in modo intercambiabile per compiti di "regolarizzazione" e di "regressione"? E quali sono i principali utilizzi di ciascuno in pratica, come nell'apprendimento automatico, nelle attività di data mining?