Perché usare una confidenza "casuale" o intervalli credibili?


16

Recentemente stavo leggendo un articolo che incorporava casualità nella sua sicurezza e intervalli credibili, e mi chiedevo se questo è standard (e, in tal caso, perché è una cosa ragionevole da fare). Per impostare la notazione, supponiamo che i nostri dati siano e siamo interessati a creare intervalli per un parametro . Sono abituato agli intervalli di confidenza / credibilità che si costruiscono costruendo una funzione:θ ΘxXθΘ

fx:Θ{0,1}

e lasciando che il nostro intervallo sia .I={θΘ:fx(θ)=1}

Questo è casuale nel senso che dipende dai dati, ma a seconda dei dati è solo un intervallo. Questo documento invece definisce

gx:Θ[0,1]

e anche una raccolta di variabili casuali iid uniformi su . Definisce l'intervallo associato come . Si noti che questo dipende molto dalla casualità ausiliaria, al di là di qualunque cosa provenga dai dati. [ 0 , 1 ] I = { θ Θ{Uθ}θΘ[0,1]I={θΘ:fx(θ)Uθ}

Sono molto curioso di sapere perché uno dovrebbe fare questo. Penso che `rilassare 'l'idea di un intervallo da funzioni come a funzioni come abbia un senso; è una sorta di intervallo di confidenza ponderato. Non conosco riferimenti per questo (e apprezzerei qualsiasi suggerimento), ma sembra abbastanza naturale. Tuttavia, non riesco a pensare a nessun motivo per aggiungere casualità ausiliaria.fxgx

Qualsiasi suggerimento per la letteratura / motivi per farlo sarebbe apprezzato!


5
(+1) Questa è chiamata procedura randomizzata. Sono una parte standard della stima statistica e del framework di test, quindi puoi fare affidamento su qualsiasi libro di testo rigoroso per fornire spiegazioni. Ulteriori motivazioni per il loro uso possono essere trovate nella letteratura sulla teoria dei giochi.
whuber

Grazie per la risposta. Mi sono reso conto dopo aver letto questo commento che ad esempio il bootstrap si adatta a questo framework, ma in quella situazione il motivo della randomizzazione è chiaro (non hai accesso a f, solo g). Nel mio caso, gli autori calcolano esplicitamente e POI guardano . Anche se ho molti libri di testo sulle statistiche, non lo vedo da nessuna parte ... hai un testo suggerito? fxgx
QQQ

3
In realtà, il bootstrap non è una procedura randomizzata. È una procedura determinata il cui calcolo approssimativo viene eseguito mediante campionamento casuale.
whuber

Risposte:


4

Le procedure randomizzate sono usate a volte in teoria perché semplifica la teoria. Nei tipici problemi statistici, non ha senso nella pratica, mentre nelle impostazioni della teoria dei giochi può avere senso.

L'unico motivo per cui riesco a vederlo in pratica è se semplifica in qualche modo i calcoli.

Teoricamente, si può sostenere che non dovrebbe essere usato, secondo il principio di sufficienza : le conclusioni statistiche dovrebbero basarsi solo su una sintesi sufficiente dei dati e la randomizzazione introduce la dipendenza di una casuale estranea che non fa parte di una sintesi sufficiente dei dati.U

UPDATE  

Per rispondere ai commenti di Whuber di seguito, citati qui: "Perché le procedure randomizzate" non hanno senso nella pratica "? Come altri hanno notato, gli sperimentatori sono perfettamente disposti a utilizzare la randomizzazione nella costruzione dei loro dati sperimentali, come l'assegnazione randomizzata di trattamento e controllo , quindi cosa c'è di così diverso (e poco pratico o discutibile) nell'utilizzare la randomizzazione nell'analisi dei dati che ne deriva? "

Bene, la randomizzazione dell'esperimento per ottenere i dati è fatta per uno scopo, principalmente per rompere le catene di causalità. Se e quando questo è efficace è un'altra discussione. Quale potrebbe essere lo scopo di utilizzare la randomizzazione come parte dell'analisi? L'unica ragione che ho mai visto è che rende la teoria matematica più completa! Va bene finché va. Nei contesti di teoria dei giochi, quando c'è un vero avversario, la randomizzazione del mio aiuto per confonderlo. In contesti decisionali reali (vendere o non vendere?) È necessario prendere una decisione, e se non ci sono prove nei dati, forse si potrebbe semplicemente lanciare una moneta. Ma in un contesto scientifico, in cui la domanda è cosa possiamo impararedai dati, la randomizzazione sembra fuori posto. Non riesco a vedere alcun vantaggio reale da esso! Se non sei d'accordo, hai una discussione che potrebbe convincere un biologo o un chimico? (E qui non penso alla simulazione come parte di bootstrap o MCMC.)


1
Perché le procedure randomizzate "non hanno senso nella pratica"? Come altri hanno notato, gli sperimentatori sono perfettamente disposti a utilizzare la randomizzazione nella costruzione dei loro dati sperimentali, come l'assegnazione randomizzata di trattamento e controllo, quindi cosa c'è di così diverso (e poco pratico o discutibile) sull'uso della randomizzazione nell'analisi dei dati che ne deriva ?
whuber

1
@kjetil Penso che potresti non aver completato la tua dichiarazione sul principio di sufficienza, sembra che sia stata interrotta a metà frase ("conclusioni statistiche dovrebbero ...").
Silverfish

1
U

1
@whuber: è un argomento chiaro e di principio che la randomizzazione nell'ottenere i dati può essere vantaggiosa. (Rompe le catene causali). Qual è l'argomento di principio per l'utilizzo della randomizzazione come parte dell'analisi?
kjetil b halvorsen,

1
Kjetil: ti consente di ottenere la funzione di rischio prevista, anziché accettare una funzione di rischio (spesso sotto forma di dimensioni e potenza nominali) che non è quello che volevi. Inoltre, se una procedura è "teoricamente" utile, allora in pratica non può esservi alcuna obiezione al suo utilizzo, a parte l'impossibilità (che di solito non è il caso delle procedure randomizzate). Quindi la tua domanda dovrebbe essere capovolta: l'onere spetta a te dimostrare che c'è qualcosa di sbagliato nell'utilizzare procedure randomizzate. Come riesci a farlo senza contraddirti?
whuber

3

L'idea si riferisce ai test, ma in considerazione della dualità dei test e degli intervalli di confidenza, la stessa logica si applica agli EC.

Fondamentalmente, i test randomizzati assicurano che una determinata dimensione di un test possa essere ottenuta anche per esperimenti a valore discreto.

α=0.05pH0:p=0.5H1:p<0.5n=10

H0k=2ppbinom(2,10,.5)k=1H0

k=2


α

Bene, immagino che ci riporta alla storia delle statistiche, quando RA Fisher ha deciso in qualche modo arbitrariamente di lavorare con un livello di significatività del 5% per decidere se alcune prove iniziali meritassero ulteriori studi. Come sappiamo, il 5% da allora si è trasformato in una sorta di gold standard in molti campi, nonostante mancasse di buone basi teoriche e decisionali.
Christoph Hanck,
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.