Confronto della varianza delle osservazioni accoppiate


16

Ho N osservazioni accoppiate ( Xi , Yi ) tratte da una distribuzione sconosciuta comune, che ha primi e secondi momenti finiti ed è simmetrica attorno alla media.

Sia σX la deviazione standard di X (incondizionata su Y ), e σY lo stesso per Y. Vorrei testare l'ipotesi

H0 :σX=σY

H1 :σXσY

Qualcuno sa di un simile test? Posso supporre in prima analisi che la distribuzione sia normale, sebbene il caso generale sia più interessante. Sto cercando una soluzione a forma chiusa. Bootstrap è sempre l'ultima risorsa.


3
Non sono sicuro del motivo per cui l'informazione che le osservazioni sono accoppiate è importante per l'ipotesi che viene verificata; potresti spiegare?
Russellpierce,

1
@drknexus è importante perché la dipendenza rende difficile la calibrazione del test di Fisher.
Robin Girard,

Risposte:


4

Si potrebbe usare il fatto che la distribuzione della varianza del campione è una distribuzione del chi quadro centrata sulla vera varianza. Sotto la tua ipotesi nulla, la tua statistica test sarebbe la differenza di due variate casuali chi al quadrato centrate sulla stessa varianza vera sconosciuta. Non so se la differenza tra due variate casuali chi-quadrate sia una distribuzione identificabile, ma quanto sopra può aiutarti in una certa misura.


3
XY

7

Se vuoi percorrere il percorso non parametrico puoi sempre provare il test dei ranghi quadrati.

Per il caso spaiato, i presupposti per questo test (presi da qui ) sono:

  1. Entrambi i campioni sono campioni casuali delle rispettive popolazioni.
  2. Oltre all'indipendenza all'interno di ciascun campione, esiste un'indipendenza reciproca tra i due campioni.
  3. La scala di misurazione è almeno intervallo.

Queste note di lezione descrivono dettagliatamente il caso spaiato.

Per il caso associato dovrai modificare leggermente questa procedura. A metà di questa pagina dovrebbe darti un'idea di dove iniziare.


6

YiXiYim^Xi+b^tm=1

Ui=XiYi,Vi=Xi+Yi,UiVi , che fornisce gli intervalli di confidenza attorno al coefficiente Pearson del campione o tramite un bootstrap.)

Se stai usando R, e non vuoi codificare tutto da solo, lo bootdpciuserei dal pacchetto Robust Stats di Wilcox, WRS. (vedi la pagina di Wilcox .)


4

Se puoi assumere la normalità bivariata, puoi sviluppare un test del rapporto di verosimiglianza confrontando le due possibili strutture della matrice di covarianza. Le stime di probabilità massima non vincolate (H_a) sono ben note - solo la matrice di covarianza del campione, quelle vincolate (H_0) possono essere derivate scrivendo la probabilità (e probabilmente saranno una sorta di stima "aggregata").

Se non si desidera derivare le formule, è possibile utilizzare SAS o R per adattare un modello di misure ripetute con strutture di covarianza simmetriche non strutturate e composte e confrontare le probabilità.


3

La difficoltà arriva chiaramente perché X e Y sono incoronati (suppongo (X,Y) è congiuntamente gaussiano, come Aniko) e non si può fare la differenza (come nella risposta di @ svadali) o un rapporto (come nel "test F" di Fisher-Snedecor standard) perché quelli sarebbero dipendenti χ2 distribuzione, e poiché non sai quale sia questa dipendenza che rende difficile derivarne la distribuzione H0.

La mia risposta si basa sull'equazione (1) di seguito. Poiché la differenza di varianza può essere fattorizzata con una differenza di autovalori e una differenza nell'angolo di rotazione, il test di uguaglianza può essere declinato in due test. Mostro che è possibile utilizzare il test Fisher-Snedecor insieme a un test sulla pendenza come quello suggerito da @shabbychef a causa di una semplice proprietà di vettori gaussiani 2D.

Test Fisher-Snedecor: se perio=1,2 (Z1io,...,Znioio) tra variabili casuali gaussiane con varianza empirica imparziale λ^io2 e vera varianza λio2, quindi è possibile verificare se λ1=λ2 usando il fatto che, sotto il nulla,

Usa il fatto che

R=λ^X2λ^Y2
follows a Fisher-Snedecor distribution F(n11,n21)

A simple property of 2D gaussian vector Let us denote by

R(θ)=[cosθsinθsinθcosθ]
It is clear that there exists λ1,λ2>0 ϵ1, ϵ2 two independent gaussian N(0,λi2) such that

[XY]=R(θ)[ϵ1ϵ2]
and that we have
Var(X)Var(Y)=(λ12λ22)(cos2θsin2θ)[1]

Testing of Var(X)=Var(Y) can be done through testing if ( λ12=λ22 or θ=π/4mod[π/2])

Conclusion (Answer to the question) Testing for λ12=λ22 is easely done by using ACP (to decorrelate) and Fisher Scnedecor test. Testing θ=π/4[modπ/2] is done by testing if |β1|=1 in the linear regression Y=β1X+σϵ (I assume Y and X are centered).

Testing wether (λ12=λ22 or θ=π/4[modπ/2]) at level α is done by testing if λ12=λ22 at level α/3 or if |β1|=1 at level α/3.

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.