Quando si eseguono statistiche frequentiste, esiste un lungo elenco di no no, come guardare i risultati dei test statistici prima di decidere di raccogliere più dati. Mi chiedo in generale se esiste un elenco simile di no-no per le metodologie coinvolte nelle statistiche bayesiane e in particolare se quanto segue è uno di questi.
Di recente mi sono reso conto che per alcuni dei modelli che ho adattato, il mio processo è stato innanzitutto quello di adattare il modello a priori informativi per vedere se funzionava o esplodere, e quindi indebolire i priori in disinformativi o debolmente informativi e rimontare il modello.
La mia motivazione per questo ha davvero a che fare con il fatto che sto scrivendo questi modelli in JAGS / Stan, e nella mia mente lo sto trattando più come un compito di programmazione che uno statistico. Quindi, faccio una prima manche, una sorta di sartiame per convergere rapidamente usando priori informativi, rendendo più facile rilevare errori nel modello che ho scritto. Quindi, dopo aver eseguito il debug del modello, lo refitto con priori non informativi o debolmente informativi.
La mia domanda è se sto infrangendo alcune regole serie con questo processo. Ad esempio, affinché le mie inferenze siano valide e per evitare di sfruttare i gradi di libertà dei ricercatori, devo impegnarmi con priori specifici prima di iniziare a montare qualche modello?