Sfortunatamente, questa domanda non ha una buona risposta. Puoi scegliere il modello migliore in base al fatto che riduce al minimo l'errore assoluto, l'errore al quadrato, massimizza la probabilità, utilizzando alcuni criteri che penalizzano la probabilità (ad esempio AIC, BIC) di menzionare solo alcune delle scelte più comuni. Il problema è che nessuno di questi criteri ti permetterà di scegliere il modello oggettivamente migliore, ma piuttosto il migliore da cui hai confrontato. Un altro problema è che durante l'ottimizzazione si può sempre finire in un massimo / minimo locale. Ancora un altro problema è che la scelta dei criteri per la selezione del modello è soggettiva . In molti casi, consciamente o semi-coscientemente, prendi una decisione su ciò che ti interessa e scegli i criteri in base a questo. Per esempio, l'uso di BIC piuttosto che AIC porta a modelli più parsimoniosi, con meno parametri. Di solito, per la modellazione sei interessato a modelli più parsimoniosi che portano ad alcune conclusioni generali sull'universo, mentre per prevedere non deve essere così e talvolta il modello più complicato può avere un migliore potere predittivo (ma non è necessario e spesso non è così). In altri casi, a volte sono preferiti modelli più complicati per motivi pratici , ad esempio durante la stima del modello bayesiano con MCMC, il modello con hyperpriors gerarchici può comportarsi meglio nella simulazione rispetto a quello più semplice. D'altra parte, generalmente abbiamo paura di un eccesso di equipaggiamentoe il modello più semplice ha il minor rischio di overfitting, quindi è una scelta più sicura. Un bell'esempio per questo è una selezione automatica del modello graduale che generalmente non è raccomandata perché porta facilmente a stime sovradimensionate e distorte. C'è anche una discussione filosofica, il rasoio di Occam , secondo cui il modello più semplice è quello preferito. Si noti inoltre che stiamo discutendo qui di confrontare diversi modelli, mentre nelle situazioni della vita reale può anche essere che l'uso di diversi strumenti statistici possa portare a risultati diversi - quindi c'è un ulteriore livello di scelta del metodo!
Tutto ciò porta a un fatto triste, ma divertente, che non possiamo mai essere sicuri. Iniziamo con l'incertezza, usiamo metodi per affrontarla e finiamo con incertezza. Questo può essere paradossale, ma ricordiamo che usiamo le statistiche perché crediamo che il mondo sia incerto e probabilistico (altrimenti sceglieremmo una carriera di profeti), quindi come potremmo finire con conclusioni diverse? Non esiste una regola di arresto oggettivo, ci sono più modelli possibili, tutti sono sbagliati (scusate il cliché!) Perché cercano di semplificare la realtà complicata (in continua evoluzione e probabilistica). Troviamo alcuni di loro più utili di altri per i nostri scopi e talvolta lo facciamoθμ
Puoi andare ancora più in profondità e scoprire che non esiste una cosa come "probabilità" nella realtà - è solo una certa approssimazione dell'incertezza intorno a noi e ci sono anche modi alternativi di approssimarla come ad esempio la logica fuzzy (vedi Kosko, 1993 per la discussione). Anche gli strumenti e i teoremi di base su cui sono basati i nostri metodi sono approssimazioni e non sono i soli possibili. Semplicemente non possiamo essere certi in una tale configurazione.
La regola di arresto che stai cercando è sempre specifica del problema e soggettiva, cioè basata sul cosiddetto giudizio professionale. A proposito, ci sono molti esempi di ricerca che hanno dimostrato che i professionisti spesso non sono migliori e talvolta anche peggiori nel loro giudizio rispetto ai laici (ad esempio rianimati in documenti e libri da Daniel Kahneman ), pur essendo più inclini alla fiducia eccessiva (questo è in realtà un argomento sul perché dovremmo non cercare di essere "sicuri" sui nostri modelli).
Kosko, B. (1993). Fuzzy thinking: la nuova scienza della logica fuzzy. New York: Hyperion.