Quali sono i vantaggi dell'utilizzo dei test di permutazione?


10

Quando testiamo alcune ipotesi null contro alternative con una statistica di test , dove , applichiamo il test di permutazione con l'insieme di permutazioni su e abbiamo una nuova statistica X = { x i , . . . , x n } G X T ( X ) : = # { π G : U ( π X ) U ( X ) }U(X)X={xi,...,xn}GX

T(X):=#{πG:U(πX)U(X)}|G|.
  1. Qual è il vantaggio di usare il test di permutazione piuttosto che non usarlo? Cioè com'è quando funziona il test di permutazione?

  2. Quali condizioni per farlo accadere? Come alcune condizioni sulla statistica test e / o sull'ipotesi nulla?U

Per esempio,

  1. Qualora sia uguale al valore p basato su , per il campione ? Se si, perché? (anche i riferimenti sono apprezzati)U ( X ) XT(X)U(X)X

    Il valore p di è definito come . Se il test di permutazione serve a stimare la distribuzione di permutazione di U (X) | X = x , in che modo T (X) è uguale al valore p di U (X) in X = x ? In particolare, ci possono essere più di una distribuzioni nella null H , e T (X) non considera le distribuzioni null una per una e quindi prende \ sup_ {F \ in H} e \ inf_ {c: U (x) \ geq c} .U(X)U(X) | X=xT(X)U(X)X=xHT(X) sup F H inf c : U

    infcR:U(x)csupFHP(U(X)c|XF)
    U(X)|X=xT(X)U(X)X=xHT(X)supFHinfc:U(x)c
  2. Il test di permutazione dovrebbe rendere T(X) privo di distribuzione rispetto alle ipotesi nulle? Quali condizioni lo faranno accadere?

  3. Qualora T(X) è distribuito uniformemente su [0,1] ? Quali condizioni lo faranno accadere? Si noti che quando U() è una funzione costante, anche T() è costante su 1 e la distribuzione di T(X) è lungi dall'essere uniforme su [0,1] .

Grazie e saluti!


@Glen_b: grazie! Qualora sia uguale al valore p basato su , per qualsiasi campione ? Se ho capito bene, l'ho trovato a pagina 5 di queste diapositive. Quindi il vantaggio di usare il test di permutazione è calcolare il valore p della statistica del test originale senza conoscere la distribuzione di sotto null? Pertanto, la distribuzione di può essere necessariamente uniforme? U ( X ) XT(X)U(X)XX T ( X )UXT(X)
Tim

"T è il valore p (per i casi in cui la grande U indica la deviazione dalla nulla e la piccola U è coerente con essa)", significa che il valore p per la statistica di prova e il campione è ? X T ( X )UXT(X)
Tim

Perché? C'è qualche riferimento per spiegarlo?
Tim

Risposte:


18

Da quando la discussione è cresciuta a lungo, ho preso le mie risposte a una risposta. Ma ho cambiato l'ordine.

I test di permutazione sono "esatti", piuttosto che asintotici (confrontarli, ad esempio, con i test del rapporto di verosimiglianza). Quindi, per esempio, puoi fare un test dei mezzi anche senza essere in grado di calcolare la distribuzione della differenza nei mezzi sotto il null; non è nemmeno necessario specificare le distribuzioni coinvolte. È possibile progettare una statistica di test che abbia una buona potenza in base a una serie di ipotesi senza essere sensibile a loro come un'ipotesi completamente parametrica (è possibile utilizzare una statistica che sia solida ma che abbia una buona ARE).

Nota che le definizioni che dai (o meglio, chiunque stai citando lì) non sono universali; alcune persone chiamerebbero U una statistica del test di permutazione (ciò che rende un test di permutazione non è la statistica ma il modo in cui si valuta il valore p). Ma una volta che stai facendo un test di permutazione e hai assegnato una direzione in quanto "gli estremi di questo sono incompatibili con H0", quel tipo di definizione per T sopra è fondamentalmente il modo in cui calcoli i valori p - è solo la proporzione effettiva del distribuzione della permutazione almeno estrema come il campione sotto il valore null (la definizione stessa di un valore p).

Quindi, ad esempio, se voglio fare un test (a una coda, per semplicità) di mezzi come un test t a due campioni, potrei rendere la mia statistica il numeratore della statistica t, o la statistica t stessa, o la somma del primo campione (ognuna di queste definizioni è monotona nelle altre, subordinata al campione combinato), o qualsiasi trasformazione monotonica di esse, e hanno lo stesso test, poiché producono valori p identici. Tutto quello che devo fare è vedere fino a che punto (in termini di proporzione) si trova la distribuzione della permutazione di qualunque statistica scelga la statistica campione. T come definito sopra è solo un'altra statistica, buona come qualsiasi altra che io possa scegliere (T come definito lì essendo monotonico in U).

T non sarà esattamente uniforme, poiché ciò richiederebbe distribuzioni continue e T è necessariamente discreto. Poiché U e quindi T possono mappare più di una permutazione a una determinata statistica, i risultati non sono equi probabili, ma hanno un cdf "uniforme" **, ma uno in cui i passaggi non sono necessariamente uguali in termini di dimensioni .

** ( , e strettamente uguale ad esso al limite giusto di ogni salto - probabilmente c'è un nome per quello che effettivamente è)F(x)x

Per statistiche ragionevoli mentre va all'infinito, la distribuzione di avvicina all'uniformità. Penso che il modo migliore per iniziare a capirli sia davvero farli in una varietà di situazioni. nT

T (X) dovrebbe essere uguale al valore p basato su U (X), per ogni campione X? Se ho capito bene, l'ho trovato a pagina 5 di queste diapositive.

T è il valore p (per i casi in cui la U grande indica una deviazione dalla U nulla e la piccola è coerente con essa). Si noti che la distribuzione è condizionata all'esempio. Quindi la sua distribuzione non è "per qualsiasi campione".

Quindi il vantaggio di usare il test di permutazione è calcolare il valore p della statistica del test originale U senza conoscere la distribuzione di X sotto null? Pertanto, la distribuzione di T (X) non può essere necessariamente uniforme?

Ho già spiegato che T non è uniforme.

Penso di aver già spiegato quali sono i vantaggi dei test di permutazione; altre persone suggeriranno altri vantaggi ( ad es .).

"T è il valore p (per i casi in cui la grande U indica la deviazione dalla nulla e la piccola U è coerente con essa)", significa che il valore p per la statistica di prova U e il campione X è T (X)? Perché? C'è qualche riferimento per spiegarlo?

La frase che hai citato afferma esplicitamente che T è un valore p e quando lo è. Se riesci a spiegare ciò che non è chiaro, forse potrei dire di più. Per quanto riguarda il motivo, vedi la definizione di p-value (prima frase al link) - ne consegue direttamente

C'è una buona discussione elementare sui test di permutazione qui .

-

Modifica: aggiungo qui un piccolo esempio di test di permutazione; questo codice (R) è adatto solo per piccoli campioni - sono necessari algoritmi migliori per trovare le combinazioni estreme in campioni moderati.

Considera un test di permutazione contro un'alternativa a una coda:

H0:μx=μy (alcune persone insistono su *)μxμy
H1:μx<μy

* ma di solito lo evito perché tende in particolare a confondere il problema con gli studenti quando provano a elaborare distribuzioni nulle

sui seguenti dati:

> x;y
[1] 25.17 20.57 19.03
[1] 25.88 25.20 23.75 26.99

Esistono 35 modi per dividere le 7 osservazioni in campioni delle dimensioni 3 e 4:

> choose(7,3)
[1] 35

Come accennato in precedenza, dati i 7 valori dei dati, la somma del primo campione è monotona nella differenza di mezzi, quindi usiamola come statistica di prova. Quindi il campione originale ha una statistica di prova di:

> sum(x)
[1] 64.77

Ora ecco la distribuzione della permutazione:

> sort(apply(combn(c(x,y),3),2,sum))
 [1] 63.35 64.77 64.80 65.48 66.59 67.95 67.98 68.66 69.40 69.49 69.52 69.77
[13] 70.08 70.11 70.20 70.94 71.19 71.22 71.31 71.62 71.65 71.90 72.73 72.76
[25] 73.44 74.12 74.80 74.83 75.91 75.94 76.25 76.62 77.36 78.04 78.07

(Non è essenziale ordinarli, l'ho fatto solo per rendere più semplice la visualizzazione della statistica del test alla fine.)

Possiamo vedere (in questo caso mediante ispezione) che è 2/35, op

> 2/35
[1] 0.05714286

(Si noti che solo in caso di nessuna sovrapposizione xy è possibile un valore di p inferiore a 0,05 qui. In questo caso, sarebbe discreto uniforme perché non ci sono valori legati in )TU

distribuzione della permutazione

Le frecce rosa indicano la statistica di esempio sull'asse xe il valore p sull'asse y.


Grazie! Quindi, essenzialmente, il test di permutazione viene utilizzato per stimare la distribuzione di sotto una distribuzione nulla di , non è vero? Quindi dipende dalla distribuzione nulla di , ma il valore p è inf del tasso FP su tutte le distribuzioni null di e è il valore p per e ? U(X)XT(X)XXT(X)UX
Tim

Stima la distribuzione della permutazione di . È il fatto che trattate tutte le permutazioni come ugualmente probabili che lo rende "sotto lo zero" (poiché sotto lo zero le permutazioni dovrebbero essere ugualmente probabili). U(X)|X=x
Glen_b

(1) Il valore p di è definito come . Se il test di permutazione serve a stimare la distribuzione di permutazione di , in che modo uguale al valore p di in ? In particolare, ci possono essere più di una distribuzioni nella null , e non considera le distribuzioni null una per una e quindi prende e . (2) ha la stessa distribuzione per tutte le distribuzioni null, cioè senza distribuzione rispetto al null? U(X)
infcR:U(x)csupFHP(U(X)c|XF)
U(X)|X=xT(X)U(X)X=xHT(X)supFH T ( X )infc:U(x)cT(X)
Tim

Aggiunto a (1), il test di permutazione non si applica solo ai null semplici ma anche ai null compositi, vero?
Tim

(1) Definito dove? Sembra una definizione strana. Perché dovresti specificare la distribuzione di X? Stai condizionando su . La tua confusione sembra derivare da quella definizione piuttosto strana. (2) non ha alcun senso per me. X=x
Glen_b
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.