Che cos'è questo trucco con l'aggiunta di 1 qui?


11

Stavo guardando questa pagina sull'implementazione Monte Carlo del test Lillefors. Non capisco questa frase:

Si è verificato un errore casuale in questo calcolo dalla simulazione. Tuttavia, a causa del trucco di aggiungere 1 al numeratore e al denominatore nel calcolare il valore P, può essere usato direttamente senza considerare la casualità.

Cosa significano con il trucco di aggiungere 1 al numeratore e al denominatore?

Il pezzo di codice rilevante è qui:

n <- length(x)
nsim <- 4999
d.star <- double(nsim)
for (i in 1:nsim) {
    x.star <- rnorm(n)
    d.star[i] <- fred(x.star)
}
hist(d.star)
abline(v = d.hat, lty = 2)
## simulation-derived P-value
pval <- (sum(d.star > d.hat) + 1) / (nsim + 1)

Puoi aggiungere il contesto pertinente qui?
gung - Ripristina Monica

4
Sembra il livellamento di Laplace per lo stimatore di Monte Carlo delle probabilità, che lo restringe verso 1/2; l'effetto principale è probabilmente quello di evitare di ottenere un valore p di 0, come notato da @Tim (anche se non c'è rischio di dividere per 0 come ha detto a meno che non si eseguano 0 simulazioni). Non vedo davvero perché questo ti permetta di usarlo "senza riguardo per la casualità", però.
Dougal,

2
Hai scritto direttamente a Geyer per chiedere cosa significa la frase?
Alexis,

@Alexis, no, ma è una buona idea.
Aksakal,

@Dougal, sì, sembra lisciare Laplace. Non è chiaro perché lo stia applicando qui.
Aksakal,

Risposte:


6

La spiegazione nella pagina di riferimento è

Sotto l'ipotesi nulla, la probabilità è esattamente quando vengono prese in considerazione sia la casualità nei dati sia la casualità nella simulazione.Pr(Pk/nsim)k/nsim

Per capirlo, dobbiamo guardare al codice, di cui sono le linee chiave (considerevolmente abbreviate)

fred <- function(x) {ks.test(...)$statistic}  # Apply a statistical test to an array
d.hat <- fred(x)                              # Apply the test to the data
d.star <- apply(matrix(rnorm(n*nsim), n, nsim),
                2, fred)                      # Apply the test to nsim simulated datasets
pval <- (sum(d.star > d.hat) + 1) / (nsim + 1)# Estimate a simulation p-value

Il problema saliente è che il codice non corrisponde all'offerta. Come possiamo riconciliarli? Un tentativo inizia con l'ultima metà dell'offerta. Potremmo interpretare la procedura come comprendente i seguenti passaggi:

  1. Raccogliere indipendenti e identicamente distribuite dati secondo una legge di probabilità . Applicare una procedura di prova (implementata nel codice come ) per produrre il numero .X1,X2,,XnGtfredT0=t(X1,,Xn)

  2. Generazione tramite calcolatore serie di dati comparabili, ciascuno di dimensioni , secondo un'ipotesi nulla con la legge di probabilità . Applicare a ciascuno di questi set di dati per produrre numeri .N=nsimnFtNT1,T2,,TN

  3. Calcola

    P=(i=1NI(Ti>T0)+1)/(N+1).

    (" " è la funzione dell'indicatore implementata dal confronto a valori vettoriali nel codice.) Il lato destro è inteso come casuale in virtù della casualità simultanea di (la statistica del test effettivo) e della casualità del ( le statistiche di prova simulate). Id.star > d.hatT0Ti

A dire che i dati conformi allo ipotesi nulla è affermare che . Scegli una dimensione di prova , . Moltiplicare entrambi i lati per e sottrarre mostra che la possibilità che per qualsiasi numero sia la possibilità che non più di del superi . Questo dice semplicemente che trova nella parte superiore dell'insieme ordinato di tutte le statistiche di test . Da (per costruzione)F=Gα0<α<1N+11Pαα(N+1)α1TiT0T0(N+1)αN+1T0è indipendente da tutto il , quando è una distribuzione continua questa possibilità sarà la frazione del totale rappresentato dalla parte intera ; cioè, e sarà esattamente uguale a quello fornito è un numero intero ; cioè quando .TiF(N+1)α

Pr(Pα)=(N+1)αN+1α
(N+1)αkα=k/(N+1)

Questa è certamente una delle cose che vogliamo essere vere per qualsiasi quantità che merita di essere chiamata un "valore p": dovrebbe avere una distribuzione uniforme su . A condizione che sia abbastanza grande, in modo che qualsiasi sia vicino ad una frazione della forma , questa avrà vicino a un'uniforme distribuzione. (Per informazioni sulle condizioni aggiuntive richieste per un valore p, leggi la finestra di dialogo che ho pubblicato sull'argomento dei valori p. )[0,1]N+1αk/(N+1)=k/(nsim+1)P

Evidentemente la citazione dovrebbe usare " " invece di " " ovunque appaia.nsim+1nsim


5

Credo che qui, 1 sia aggiunto ad entrambi perché la statistica osservata è inclusa nella distribuzione di riferimento; se questo è il caso, è a causa della parte "almeno altrettanto grande" della definizione di p-value.

Non lo so per certo perché il testo sembra dire qualcosa di diverso, ma sarebbe per questo che lo farei.


1
@whuber Non vedo come posso essere d'accordo. Non tutti i test sono test del rapporto di verosimiglianza; quando non sono LRT, che rilevanza può avere l'interpretazione in termini di rapporti di probabilità?
Glen_b

1
@whuber Certamente può fare. Ma consideriamo, ad esempio, un Wilcoxon-Mann-Whitney (o, in effetti, i test di permutazione più ampiamente). Esistono numerosi test perfettamente ragionevoli in largo uso che non sono né un test di Lilliefors né un test del rapporto di verosimiglianza. Quando esiste una chiara alternativa contro la quale si desidera la potenza, è spesso possibile costruire una statistica test significativa in cui l'ordinamento sullo spazio campione fornito dalla statistica test ha perfettamente senso e ha proprietà ragionevoli in una vasta gamma di alternative.
Glen_b

1
Certamente quando si presenta una statistica di prova che corrisponde (nel senso di assumere valori più estremi, sia più grandi, più piccoli o entrambi) al tipo di alternativa a cui si è interessati, si fa appello al "tipo di alternativa a cui si è interessati "- ma anche se si dovesse usare un inammissibile (anzi, anche un test inutile), si applicherebbe comunque il principio che traccio nella mia risposta per includere il campione osservato nei risultati simulati. Una volta effettuato un ordine, anche se non è il migliore, quando si calcolano i valori p, il caso osservato apparirà comunque nel conteggio.
Glen_b

2
@whuber, potremmo non essere così distanti ora. Nella scelta di una statistica test ragionevole vorremmo sicuramente fare appello a qualcosa . Ma una volta che abbiamo una statistica di test (come dobbiamo avere quando stiamo simulando sotto il valore null), l'abbiamo già fatto. E una volta che abbiamo, il motivo per cui dovremmo includere il caso osservato nel nostro calcolo del valore p è a causa di ciò che è un valore p.
Glen_b

1
Non penso che ci siano differenze. (Nota che la mia risposta chiarisce che includere il campione osservato nel conteggio è appropriato.) Il mio commento non è stato diretto alla tua risposta alla domanda (con cui sono d'accordo e votato), ma solo alla frase problematica "almeno grande ". Vedo quella frase mal interpretata in così tanti posti su questo sito (e altrove) che ho voluto attirare l'attenzione dei lettori su ciò che deve realmente significare.
whuber
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.