Uno dei post collegati sopra allude all'utilizzo di un test del rapporto di verosimiglianza, anche se i tuoi modelli devono essere nidificati l'uno nell'altro affinché funzioni (cioè tutti i parametri in uno dei modelli devono essere presenti nel modello su cui lo stai testando) .
RMSE è chiaramente una misura di come il modello si adatta ai dati. Tuttavia, così è il rapporto di verosimiglianza. La probabilità per una determinata persona, ad esempio la signora Chen, è la probabilità che una persona con tutti i suoi parametri abbia avuto il risultato che aveva. La probabilità congiunta del set di dati è la probabilità della signora Chen * La probabilità della signora Gundersen * La probabilità della signora Johnson * ... ecc.
L'aggiunta di una covariata, o un numero qualsiasi di covariate, non può davvero peggiorare il rapporto di probabilità, non credo. Ma può migliorare il rapporto di verosimiglianza di un importo non significativo. I modelli che si adattano meglio avranno una maggiore probabilità. È possibile verificare formalmente se il modello A si adatta meglio al modello B. Dovresti avere una sorta di funzione di test LR disponibile in qualsiasi software tu usi, ma fondamentalmente, la statistica del test LR è -2 * la differenza dei registri delle probabilità, ed è distribuito chi-quadrato con df = la differenza nel numero di parametri.
Inoltre, è accettabile il confronto tra AIC o BIC dei due modelli e trovare quello più basso. AIC e BIC sono fondamentalmente le probabilità di log penalizzate per il numero di parametri.
Non sono sicuro di usare un test t per gli RMSE, e in realtà mi appoggerei a esso a meno che tu non riesca a trovare qualche lavoro teorico che è stato fatto nell'area. Fondamentalmente, sai come vengono distribuiti asintoticamente i valori di RMSE? Non ne sono sicuro. Qualche ulteriore discussione qui:
http://www.stata.com/statalist/archive/2012-11/index.html#01017