Test per differenze significative nei rapporti tra variabili casuali normalmente distribuite


9

In relazione al Analizzando rapporti di variabili e Come parametrizzare il rapporto di due variabili normalmente distribuite, o l'inverso di quello? .

Supponiamo che io abbia un numero di campioni provenienti da quattro diverse distribuzioni casuali continue, che possiamo supporre essere approssimativamente normali. Nel mio caso, questi corrispondono ad alcune metriche delle prestazioni di due diversi filesystem (diciamo ext4 e XFS), sia con che senza crittografia. La metrica potrebbe essere, ad esempio, il numero di file creati al secondo o la latenza media per alcune operazioni sui file. Possiamo presumere che tutti i campioni tratti da queste distribuzioni saranno sempre rigorosamente positivi. Chiamiamo queste distribuzioni dove e .Perffstype,encryptionfstype{xfs,ext4}encryption{crypto,nocrypto}

Ora, la mia ipotesi è che la crittografia rallenta uno dei filesystem di un fattore maggiore rispetto all'altro. Esiste un semplice test per l'ipotesi ?E[Perfxfs,crypto]E[Perfxfs,nocrypto]<E[Perfext4,crypto]E[Perfext4,nocrypto]


Alcuni testi sembrano essere stati eliminati dal centro di questa domanda. Pensi di poterlo ripristinare?
whuber

Penso che il "Così, il" sia stato lasciato lì per errore, almeno non riesco a pensare a cosa avrei voluto aggiungere. Probabilmente è stato qualcosa che alla fine sono passato al secondo paragrafo.
Sami Liedes,

È possibile adattare un modello lineare generalizzato per una distribuzione normale con una funzione collegamento log.
Onestop,

1
"Numero di file" e "latenza media" non possono essere normalmente distribuiti (né possono essere negativi per iniziare). È probabile che entrambi siano leggermente distorti. Il numero di file è un conteggio discreto.
Glen_b

Risposte:


12

Un'alternativa alla buona risposta di StasK è usare un test di permutazione. Il primo passo è definire una statistica di prova , forse:T

T=Perf^ext4,cryptoPerf^ext4,nocryptoPerf^xfs,cryptoPerf^xfs,nocrypto

dove è, forse, la media campionaria delle osservazioni di , ecc. (Questo si adatta alla tua definizione dell'ipotesi come rapporto di le aspettative piuttosto che la possibilità alternativa dell'aspettativa del rapporto - quale alternativa può essere ciò che realmente vuoi.) Il secondo passo è permeare casualmente le etichette nei dati molte volte, diciamo, e calcola per ogni permutazione. Il passaggio finale consiste nel confrontare la originale con la osservata ; il p-value permutazione-stimato sarebbe la frazione di . Perfext4,cryptoext4,xfsi=1,,10000TiTTiTiTPerf^ext4,cryptoPerfext4,cryptoext4, xfsi=1,,10000TiTTiTiT

Il test di permutazione ti libera dall'affidamento agli asintotici, ma ovviamente a seconda delle dimensioni del tuo campione (e anche dei dati, ovviamente), il metodo delta, che uso anche occasionalmente, può funzionare bene.


Anche questo è un buon suggerimento!
Attacco

Si noti che il rapporto tra due variabili normali centrate è una variabile di Cauchy.
Xi'an,

1
@ Xi'an: è chiaro che possiamo presumere che siano indipendenti qui? Come sapete, sarebbe necessario che questo risultato mantenga (e abbia la possibilità di essere utile).
cardinale il

@cardinal: sì, in effetti, dovrebbero essere indipendenti!
Xi'an,

1
Come punto tecnico molto snob - la permutazione funziona un po 'meglio quando la statistica del test è fondamentale / non coinvolge parametri sconosciuti / è stabilizzata dalla varianza ... almeno sotto il valore nullo. Con le proporzioni, puoi fare una trasformazione del peccato dell'arco. Con quantità continue strettamente positive, probabilmente inizierei con i registri. Ma questa è davvero la ciliegina sulla torta.
StasK

4

È possibile calcolare l'errore standard (asintotico) del rapporto usando il metodo delta . Se hai due variabili casuali e tali che nella distribuzione (che sarebbe il caso se si dispone di dati indipendenti, ma si tratterebbe anche di un caso più generale di dati raggruppati quando hai eseguito i test su macchine diverse), quindi per il rapporto con l'analogo della popolazione di , abbiamo Y XY

n(X¯μXY¯μY)N((00),(σXXσXYσXYσYY))
r=Y¯/X¯ro=μY/μX
n(rr0)N(0,μY2μX4σXX2μYμX3σXY+1μX2σYY)
Se e sono indipendenti, come potrebbe essere ragionevole supporre nel tuo caso, allora questa espressione semplifica in qualche modo facendo cadere , quindi otteniamo che i coefficienti quadrati delle variazioni si sommino: Ha il ulteriore vantaggio che le dimensioni del campione potrebbero essere diverse. Inoltre, se RHS e LHS sono indipendenti, puoi formare la statistica -test perXYσXY
CV2[r]=CV2[X¯]+CV2[Y¯]
zH0: nessuna differenza prendendo la differenza dei rapporti e dividendola per il corrispondente errore standard ottenuto da questi CV.

Spero che tu possa prenderlo da lì ed eseguire i restanti calcoli della busta per ottenere la formula finale.

Si noti che il risultato è asintotico e il rapporto è uno stimatore distorto di in piccoli campioni. Il bias ha l'ordine di e scompare asintoticamente rispetto alla variabilità del campionamento che è dell'ordine di .rr0O(1/n)O(1/n)


Grazie per la risposta eccellente e illuminante! Penso che sceglierò il test di permutazione di jbowban per i miei studi perché penso di capirlo meglio e i suoi limiti, ma il metodo delta sembra decisamente qualcosa che devo studiare e capire.
Sami Liedes,


Xavier, penso che @ usεr11852 abbia dato una buona risposta. Non mi preoccuperò di aggiungerlo.
StasK

@StasK - a quali condizioni sono valide le condizioni che dichiari nella tua risposta? La convergenza della statistica del rapporto è garantita dal presupposto precedente e dal metodo Delta?
Xavier Bourret Sicotte,

Sono asintotici ... nulla è mai garantito e i limiti di errore sono difficili da raggiungere. Tutto il metodo delta (o qualsiasi altro risultato di convergenza debole) sta dicendo che aumentando la dimensione del campione, la differenza tra la distribuzione del campione finita effettiva dalla distribuzione asintotica diminuirà. Ciò può significare che quando si aumenta la dimensione del campione da 1000 a 10000, la differenza verticale tra i cdf diminuirà da 0,2 a 0,1 e quest'ultimo è ancora inaccettabile per scopi pratici. Oppure può significare che la differenza va da 0,01 a 0,001.
StasK

0

Il rapporto tra variati normali è distribuito in Cauchy. Sapendo ciò, puoi semplicemente eseguire un test del fattore Bayes.

Questa è stata un'idea piuttosto spontanea. Ora non sono sicuro del meccanismo di generazione dei dati. Installi file system diversi sullo stesso PC e poi esegui il benchmark per i due casi, in modo da poter assumere una struttura gerarchica di dati?

Inoltre, non sono sicuro che guardare i rapporti abbia effettivamente senso.

E poi hai scritto il rapporto tra i valori attesi, mentre ho pensato al valore atteso dei rapporti. Immagino di aver bisogno di maggiori informazioni sulla generazione dei dati prima di procedere.


1
Il rapporto tra le normali è di Cauchy solo se (a) sono indipendenti e (b) hanno la stessa varianza.
cardinale il

Xi'an aveva lo stesso pensiero, immagino ...
joint_p,

1
Non è chiaro (almeno per me) che esiste una tale struttura di indipendenza o che avranno una media zero. Forse, se puoi ampliare la tua risposta, ciò contribuirà a rendere più chiaro l'approccio che stai suggerendo. :)
cardinale il

1
@cardinale - Ho pensato che fosse un rapporto di normali indipendenti con media zero era cauchy con zero mediano e parametro di scala uguale al rapporto delle normali deviazioni standard. Se hanno una media diversa da zero, allora non è cauchy.
probabilityislogic

@prob: (+1) Hai ragione! Grazie per averlo colto. Ho lasciato cadere "standard" e "zero mean" nel mio primo commento (quest'ultimo è riuscito a trasformarlo nel mio secondo).
cardinale il

0

Nei casi in cui non è possibile eseguire permutazioni, ad esempio quando la dimensione del campione crea milioni di possibilità, un'altra soluzione sarebbe il ricampionamento Monte Carlo.

L'ipotesi nulla è che non vi sia alcuna differenza nella velocità tra e , per e . Pertanto, il rapporto medio di tutti i campioni non differisce da quello dei .ext4xfsnocryptocryptoext4xfsnocryptocrypto

H0:Tobserved=xnocryptonnocryptoxcryptoncrypto=0

dove x=ext4xfs

e n=samplesize

Se è vero, la selezione casuale dei risultati per i rapporti di o comporterebbe anche . Si calcolerebbe:H0nocryptocryptoTobserved=0

Tresampling=x1random+xnrandomnnocryptox1random+xnrandomncrypto

ed eseguiamo, diciamo, 10.000 colpi di ricampionamento. La distribuzione risultante dei valori è l'intervallo di confidenza per . La differenza tra e ratio è significativa se il valore calcolato non rientra nell'intervallo, ad esempio, del 95% dei valori . H 0 n o c r y p t o c r y p t o T o b s e r v e d ( p < 0,05 ) T r e s a m p l i n gTresamplingH0nocryptocryptoTobserved(p<0.05)Tresampling

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.