Qualcuno potrebbe spiegare perché Richard McElreath afferma che l'esatto test di Fisher è usato raramente in modo appropriato nel suo eccellente libro introduttivo bayesiano ( Ripensamento statistico )?
Per riferimento, il contesto è di seguito:
Perché i test non sono sufficienti per la ricerca innovativa? Le procedure classiche delle statistiche introduttive tendono ad essere poco flessibili e fragili. Per inflessibilità, intendo dire che hanno modi molto limitati di adattarsi a contesti di ricerca unici. Per fragile, intendo dire che falliscono in modi imprevedibili quando applicati a nuovi contesti. Ciò è importante, perché ai confini della maggior parte delle scienze, non è quasi mai chiaro quale sia la procedura appropriata. Nessuno dei golem tradizionali è stato valutato in nuovi contesti di ricerca, quindi può essere difficile sceglierne uno e quindi capire come si comporta.Un buon esempio è l'esatto test di Fisher, che si applica (esattamente) a un contesto empirico estremamente stretto, ma viene regolarmente utilizzato ogni volta che il numero di cellule è piccolo. Ho letto personalmente centinaia di usi dell'esatto test di Fisher su riviste scientifiche, ma a parte l'uso originale di Fisher, non l'ho mai visto usato in modo appropriato. Anche una procedura come la normale regressione lineare, che è abbastanza flessibile in molti modi, essendo in grado di codificare una grande varietà di ipotesi interessanti, a volte è fragile. Ad esempio, se si verifica un errore di misura sostanziale sulle variabili di predizione, la procedura può fallire in modo spettacolare. Ma soprattutto, è quasi sempre possibile fare meglio della normale regressione lineare, in gran parte a causa di un fenomeno noto come overfitting.