Mi piace il libro di G van Belle sulle Regole empiriche statistiche e, in misura minore, Errori comuni in statistica (e come evitarli) di Phillip I Good e James W. Hardin. Risolvono insidie comuni nell'interpretazione dei risultati di studi sperimentali e osservazionali e forniscono raccomandazioni pratiche per inferenze statistiche o analisi di dati esplorativi. Ma ritengo che le linee guida "moderne" siano in qualche modo carenti, specialmente con l'uso sempre crescente di statistiche computazionali e solide in vari campi o l'introduzione di tecniche della comunità dell'apprendimento automatico, ad esempio la biostatistica clinica o l'epidemiologia genetica.
A parte i trucchi computazionali o le insidie comuni nella visualizzazione dei dati che potrebbero essere affrontate altrove, vorrei chiedere: quali sono le principali regole empiriche che consiglieresti per un'analisi dei dati efficiente? ( una regola per risposta, per favore ).
Sto pensando a linee guida che potresti fornire a un collega, un ricercatore senza un forte background nella modellistica statistica o uno studente nel corso intermedio o avanzato. Ciò potrebbe riguardare varie fasi dell'analisi dei dati, ad esempio strategie di campionamento, selezione delle caratteristiche o costruzione del modello, confronto dei modelli, post-stima, ecc.