(Questa domanda potrebbe sembrare più adatta alla Philosophy SE. Spero che gli statistici possano chiarire i miei malintesi sulle dichiarazioni di Box e Shmueli, quindi la sto pubblicando qui).
George Box (di fama ARIMA) ha dichiarato:
"Tutti i modelli sono sbagliati, ma alcuni sono utili."
Galit Shmueli nel suo famoso articolo "Spiegare o predire" , sostiene (e cita altri che sono d'accordo con lei) che:
Spiegare e prevedere non sono la stessa cosa e alcuni modelli fanno un buon lavoro di spiegazione, anche se fanno un cattivo lavoro di previsione.
Ritengo che questi principi siano in qualche modo contraddittori.
Se un modello non prevede bene, è utile?
Ancora più importante, se un modello spiega bene (ma non prevede necessariamente bene), allora deve essere vero (cioè non sbagliato) in un modo o nell'altro. Quindi, come si combina con Box "tutti i modelli sono sbagliati"?
Infine, se un modello spiega bene, ma non prevede bene, come è persino scientifico? La maggior parte dei criteri di demarcazione scientifica (verificismo, falsificazionismo, ecc ...) implica che un'affermazione scientifica deve avere un potere predittivo, o colloquialmente: una teoria o un modello è corretto solo se può essere empiricamente testato (o falsificato), il che significa che esso deve prevedere i risultati futuri.
Le mie domande:
- L'affermazione di Box e le idee di Shmueli sono davvero contraddittorie o mi sto perdendo qualcosa, ad esempio un modello non può avere un potere predittivo ma può ancora essere utile?
- Se le dichiarazioni di Box e Shmueli non sono contraddittorie, cosa significa che un modello è sbagliato e non prevede bene, ma ha ancora potere esplicativo? In altre parole: se si toglie la correttezza e l'abilità predittiva, cosa rimane di un modello?
Quali convalide empiriche sono possibili quando un modello ha potere esplicativo, ma non potere predittivo? Shmueli menziona cose come: usare l'AIC per la spiegazione e il BIC per la previsione, ecc., Ma non vedo come ciò risolva il problema. Con i modelli predittivi, è possibile utilizzare la regolarizzazione AIC, o BIC o , o , ecc ... ma alla fine i test del campione e le prestazioni in produzione sono ciò che determina la qualità del modello. Ma per i modelli che spiegano bene, non vedo come una funzione di perdita possa mai veramente valutare un modello. Nella filosofia della scienza, c'è il concetto di sottodeterminazioneL L p < 0,05 p < 0,1 p < 0,01che qui sembra pertinente: per ogni dato set di dati, si può sempre scegliere con discrezione una certa distribuzione (o miscela di distribuzioni) e una funzione di perdita in modo tale che si adattino ai dati (e quindi si possa affermare di spiegarli). Inoltre, la soglia che dovrebbe essere sotto per qualcuno per affermare che il modello spiega adeguatamente i dati è arbitraria (tipo di valori p simili, perché è e non o ?).
- Sulla base di quanto sopra, come si può validare oggettivamente un modello che spiega bene, ma non prevede bene, dal momento che non è possibile eseguire test fuori campione?