Mi riferisco a questo articolo: http://www.nytimes.com/2011/01/11/science/11esp.html
Considera il seguente esperimento. Supponiamo che ci fosse motivo di credere che una moneta fosse leggermente ponderata verso le teste. In un test, la moneta esce testa 527 volte su 1.000.
Questa è una prova significativa che la moneta è ponderata?
L'analisi classica dice di sì. Con una moneta giusta, la possibilità di ottenere 527 o più teste in 1.000 lanci è inferiore a 1 su 20, o 5 percento, il limite convenzionale. Per dirla in altro modo: l'esperimento trova prove di una moneta ponderata "con una sicurezza del 95%".
Eppure molti statistici non lo acquistano. Uno su 20 è la probabilità di ottenere un numero qualsiasi di teste superiore a 526 in 1.000 tiri. Cioè, è la somma della probabilità di capovolgere 527, la probabilità di capovolgere 528, 529 e così via.
Ma l'esperimento non ha trovato tutti i numeri in quell'intervallo; ha trovato solo uno - 527. È quindi più preciso, dicono questi esperti, calcolare la probabilità di ottenere quel numero - 527 - se la moneta è ponderata, e confrontarla con la probabilità di ottenere lo stesso numero se la moneta è giusto.
Gli statistici possono dimostrare che questo rapporto non può essere superiore a circa 4 a 1, secondo Paul Speckman, uno statistico che, con Jeff Rouder, uno psicologo, ha fornito l'esempio.
Prima domanda: questa è una novità per me. Qualcuno ha un riferimento dove posso trovare il calcolo esatto e / o PUOI aiutarmi dandomi tu stesso il calcolo esatto e / o puoi indicarmi del materiale in cui posso trovare esempi simili?
Bayes ha escogitato un modo per aggiornare la probabilità di un'ipotesi quando arrivano nuove prove.
Quindi, nel valutare la forza di un dato risultato, l'analisi bayesiana (pronunciata BAYZ-ee-un) incorpora probabilità note, se disponibili, al di fuori dello studio.
Potrebbe essere chiamato l'effetto "Sì, giusto". Se uno studio rileva che i kumquat riducono il rischio di malattie cardiache del 90 percento, che un trattamento cura la dipendenza da alcol in una settimana, che i genitori sensibili hanno il doppio delle probabilità di dare alla luce una ragazza rispetto a un ragazzo, la risposta bayesiana corrisponde a quella di lo scettico nativo: Sì, giusto. I risultati dello studio sono valutati rispetto a ciò che è osservabile nel mondo.
In almeno un'area della medicina - test diagnostici di screening - i ricercatori utilizzano già le probabilità note per valutare nuovi risultati. Ad esempio, un nuovo test di rilevazione della bugia può essere accurato al 90 percento, segnalando correttamente 9 bugiardi su 10. Ma se viene dato a una popolazione di 100 persone già note per includere 10 bugiardi, il test è molto meno impressionante.
Identifica correttamente 9 dei 10 bugiardi e ne manca uno; ma identifica erroneamente 9 degli altri 90 come bugiardo. Dividendo i cosiddetti veri positivi (9) per il numero totale di persone contrassegnate dal test (18) si ottiene un tasso di precisione del 50 percento. I "falsi positivi" e i "falsi negativi" dipendono dai tassi noti nella popolazione.
Seconda domanda: come giudichi esattamente se una nuova scoperta è "reale" o no con questo metodo? E: non è arbitrario come la barriera del 5% a causa dell'uso di una probabilità preimpostata precedente?