sottigliezza del valore p: maggiore-uguale a maggiore


11

Mentre sto leggendo il libro di Wassermann All of Statistics, noto una finezza nella definizione dei valori p, che non riesco a capire. Informalmente, Wassermann definisce il valore p come

[..] la probabilità (sotto ) di osservare un valore della statistica del test uguale o più estrema di quanto effettivamente osservato.H0

Enfasi aggiunta. Lo stesso in modo più formale (Teorema 10.12):

Supponiamo che il test size sia del moduloα

respinge se e solo se . T ( X n ) c αH0T(Xn)cα

Poi,

p-value=supθΘ0Pθ0[T(Xn)T(xn)]

dove xn è il valore osservato di Xn . Se Θ0={θ0} quindi

p-value=Pθ0[T(Xn)T(xn)]

Inoltre, Wassermann definisce il valore p del test \ chi ^ 2 di Pearson χ2(e altri test in modo analogo) come:

p-value=P[χk12>T].

La parte che mi piace chiedere chiarimenti è il segno maggiore-uguale ( ) nella prima e il segno maggiore ( > ) nella seconda definizione. Perché non scriviamo T , che corrisponderebbe alla prima citazione di " uguale o più estrema?"

Questa pura comodità è tale da calcolare il valore p come ? Vedo che R usa anche la definizione con il segno , ad es . In .1F(T)>chisq.test


5
Sei consapevole che il valore p è lo stesso per entrambe le definizioni se la statistica del test è continua?
mark999,

3
Non importa per le distribuzioni continue, ma questo fatto non dovrebbe indurti a dimenticare la distinzione tra e perché matematicamente è importante. Importa anche nelle applicazioni perché a causa della "discrezione della vita reale" possiamo infatti incontrare valori p esattamente di . <α
Horst Grünbusch,

Risposte:


11

"Come o più estremo" è corretto.

Formalmente, quindi, se la distribuzione è tale che la probabilità di ottenere la statistica test stessa è positiva, tale probabilità (e qualsiasi cosa altrettanto estrema, come il valore corrispondente nell'altra coda) dovrebbe essere inclusa nel valore p.

Naturalmente, con una statistica continua, quella probabilità di esatta uguaglianza è 0. Non fa differenza se diciamo o .>


4

Il primo punto di è che lo spazio delle ipotesi è topologicamente chiuso all'interno dell'intero spazio dei parametri. Senza considerare la casualità, questa può essere una convenzione utile se hai qualche affermazione su una sequenza convergente di parametri appartenenti all'ipotesi perché allora sapresti che il limite non appartiene improvvisamente all'alternativa.

Considerando ora le distribuzioni di probabilità, sono (di solito) continue. Ciò significa che la mappatura dello spazio di ipotesi chiuso all'intervallo viene nuovamente chiusa. Ecco perché anche gli intervalli di confidenza sono chiusi per convenzione.[0,1]

Questo migliora la matematica. Immagina di costruire un intervallo di confidenza per il parametro location di una distribuzione di probabilità asimmetrica. Lì, dovresti scambiare la lunghezza con la coda superiore per la lunghezza con la coda inferiore. La probabilità in entrambe le code dovrebbe essere pari a . Per avere l'IC il più informativo possibile, dovresti accorciare la lunghezza dell'IC in modo che la sua probabilità di copertura sia ancora . Questo è un set chiuso. Puoi trovare una soluzione ottimale lì con qualche algoritmo iterativo, ad esempio il teorema del punto fisso di Banach. Se fosse un set aperto, non puoi farlo.α1α

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.