Non credo che la maggior parte di queste risposte risponda effettivamente alla domanda in generale. Sono limitati al caso in cui esiste una semplice ipotesi nulla e quando la statistica del test ha un CDF invertibile (come in una variabile casuale continua che ha un CDF strettamente crescente). Questi casi sono i casi a cui la maggior parte delle persone tende a preoccuparsi con z-test e t-test, sebbene per testare una media binomiale (ad esempio) non si abbia un CDF del genere. Ciò che viene fornito sopra mi sembra corretto per questi casi limitati.
Se le ipotesi null sono composte, le cose sono un po 'più complicate. La prova più generale di questo fatto che ho visto nel caso composito usando alcuni presupposti riguardanti le regioni di rifiuto è fornita nelle "Testing Statisitical Hypotheses" di Lehmann e Romano, pagine 63-64. Proverò a riprodurre l'argomento di seguito ...
Ci prova un'ipotesi nulla contro un'ipotesi alternativa sulla base di una statistica test, di cui parleremo indichiamo come la variabile casuale . Si presume che la statistica test provenga da una classe parametrica, ovvero , dove è un elemento della famiglia di distribuzioni di probabilità e è uno spazio di parametri. L'ipotesi nulla e l'ipotesi alternativa formano una partizione di in quella
H0H1XX∼PθPθP≡{Pθ∣θ∈Θ}ΘH0:θ∈Θ0H1:θ∈Θ1ΘΘ=Θ0∪Θ1
dove
Θ0∩Θ1=∅.
Il risultato del test può essere indicato con
dove per ogni set definiamo
Qui è il nostro livello di significatività e indica la regione di rifiuto del test per livello di significatività .ϕα(X)=1Rα(X)
S1S(X)={1,0,X∈S,X∉S.
αRαα
Supponiamo che le regioni di rifiuto soddisfino
if . In questo caso di regioni di rifiuto annidate, è utile determinare non solo se l'ipotesi nulla sia rifiutata a un dato livello di significatività , ma anche per determinare il livello di significatività più piccolo per il quale l'ipotesi nulla sarebbe respinta. Questo livello è noto come valore-p ,
questo numero ci dà un'idea di quanto sono forti i dati (come rappresentato dalla statistica del test ) in contraddizione con l'ipotesi nulla . Rα⊂Rα′
α<α′αp^=p^(X)≡inf{α∣X∈Rα},
XH0
Supponiamo che per alcuni e che . Supponiamo inoltre che le regioni di rifiuto obbediscano alla proprietà di annidamento sopra indicata. Quindi vale quanto segue:X∼Pθθ∈ΘH0:θ∈Θ0Rα
Se per tutti , quindi per ,
supθ∈Θ0Pθ(X∈Rα)≤α0<α<1θ∈Θ0Pθ(p^≤u)≤ufor all0≤u≤1.
Se per abbiamo per tutti , allora per abbiamo
θ∈Θ0Pθ(X∈Rα)=α0<α<1θ∈Θ0Pθ(p^≤u)=ufor all0≤u≤1.
Nota questa prima struttura appena ci dice che la percentuale di falsi positivi è controllata a respingendo quando il valore p è inferiore , e la seconda proprietà ci dice (dato un'ipotesi addizionale) che p-valori sono uniformemente distribuite sotto la nullo ipotesi.uu
La prova è la seguente:
Consenti e assume per tutti . Quindi, per definizione di , abbiamo per tutti . Per monotonia e presupposto, ne consegue che per tutti . Lasciando , ne consegue che .θ∈Θ0supθ∈Θ0Pθ(X∈Rα)≤α0<α<1p^{p^≤u}⊂{X∈Rv}u<vPθ(p^≤u)≤Pθ(X∈Rv)≤vu<vv↘uPθ(p^≤u)≤u
Consenti e supponi che per tutti . Quindi , e per monotonia segue che . Considerando (1), ne consegue che . θ∈Θ0Pθ(X∈Rα)=α0<α<1{X∈Ru}⊂{p^(X)≤u}u=Pθ(X∈Ru)≤Pθ(p^≤u)Pθ(p^(X)≤u)=u
Si noti che il presupposto in (2) non vale quando una statistica test è discreta anche se l'ipotesi nulla è semplice piuttosto che composita. Prendi ad esempio con e . Vale a dire, lancia una moneta dieci volte e verifica se è giusto o distorto verso le teste (codificato come 1). La probabilità di vedere 10 teste in 10 lanci di monete equi è (1/2) ^ 10 = 1/1024. La probabilità di vedere 9 o 10 teste in 10 lanci di gettoni equi è 11/1024. Per ogni strettamente compreso tra 1/1024 e 11/1024, rifiuteresti il valore null se , ma non abbiamo che per quei valori di quandoX∼Binom(10,θ)H0:θ=.5H1:θ>0.5αX=10Pr(X∈Rα)=ααθ=0.5 . Invece per tale . Pr(X∈Rα)=1/1024α