Come verificare se una matrice di covarianza è diversa da zero?


11

Lo sfondo del mio studio :

In un campionamento di Gibbs dove campione (la variabile di interessi) e da e rispettivamente, dove e sono -dimensional vettori casuali. Sappiamo che il processo è generalmente suddiviso in due fasi:Y P ( X | Y ) P ( Y | X ) X Y kXYP(X|Y)P(Y|X)XYk

  1. Periodo di burn-in, in cui eliminiamo tutti i campioni. Indica i campioni come e .Y 1Y tX1XtY1Yt
  2. Periodo "After-Burn-in", in cui calcoliamo la media dei campioni come risultato finale desiderato.X¯=1ki=1kXt+i

Tuttavia, i campioni nella sequenza "after-burn-in" non sono distribuiti in modo indipendente. Pertanto, se voglio controllare la varianza del risultato finale, diventaXt+1Xt+k

Var[X¯]=Var[i=1kXt+i]=1k2(i=1kVar[Xt+i]+i=1k1j=i+1kCov[Xt+i,Xt+j])

Qui il termine è una matrice di covarianza che si applica a qualsiasi con .k × k ( i , j ) i < jCov[Xt+i,Xt+j]k×k(i,j)i<j

Ad esempio, ho

Xt+1=(1,2,1)Xt+2=(1,0,2)Xt+3=(1,0,0)Xt+4=(5,0,1)

quindi potrei stimare la matrice di covarianza conCov[Xt+i,Xt+i+1]

13i=13(Xt+iμt+i)(Xt+i+1μt+i+1)

Ora sono interessato a sapere se la stima risultante è significativamente diversa da zero, quindi devo includerla nella mia stima della varianza di .Var[X¯]

Quindi ecco le mie domande :

  1. Noi campione da . Poiché sta cambiando, penso che e non appartengano alla stessa distribuzione, quindi non è lo stesso di . Questa affermazione è corretta? P ( X t + i | Y t + i ) Y t + i X t + i X t + i + 1 Cov [ X t + i , X t + j ] Cov [ X t + i , X t + i ]Xt+iP(Xt+i|Yt+i)Yt+iXt+iXt+i+1Cov[Xt+i,Xt+j]Cov[Xt+i,Xt+i]
  2. Supponiamo che io abbia abbastanza dati per stimare (campioni vicini nella sequenza), c'è un modo per testare se la matrice di covarianza è significativamente un matrice diversa da zero? In generale, sono interessato a un indicatore che mi guidi verso alcune matrici significative di covarianza che dovrebbero essere incluse nella mia stima della varianza finale.Cov[Xt+i,Xt+i+1]

4
In realtà, ora questa sembra una bella domanda; Penso che alcune altre persone si troveranno nella posizione migliore per dare delle risposte positive rispetto a me, quindi mi piacerebbe promuoverlo (metterci una taglia sopra) quando diventerà idoneo a breve. [Risposte brevi: 1. Queste due covarianze sono diverse. 2. Non è necessario verificare se i variati consecutivi sono correlati (in tutti tranne i casi più banali; l'algoritmo funziona generando variati dipendenti) - più interessante misurare la correlazione che testarla;] ... se buone risposte non si presentano Espanderò questi brevi commenti in una risposta completa
Glen_b -Reinstate Monica

4
Sembra che la tua domanda sia molto più ampia della domanda sul titolo. In particolare, rivolgendosi alla domanda sul titolo, esiste il test di sfericità di Bartlett che consente di verificare se una matrice di covarianza del campione è diagonale. Probabilmente dovresti adattarlo al tuo scenario di covarianza (la tua "matrice di covarianza" non è in realtà una matrice di covarianza, è una matrice di covarianza, è un blocco off-diagonale della matrice di covarianza completa sia di X_t che di X_ { t + 1} insieme). CC a @Glen_b.
ameba dice di reintegrare Monica il

2
Aggiungerei che le covarianze tendono a decadere più o meno geometricamente (sempre più man mano che ci si allontana); i valori distanti nel tempo tendono ad avere una correlazione molto bassa ( non zero ma largamente ignorabile) mentre quelli vicini possono talvolta essere abbastanza dipendenti.
Glen_b

1
@Tom 1. Tuttavia, con serie fisse, a ritardi molto distanti (4 non è distante!), Cosa succede all'ACF? 2. Sai qualcosa su come funzionano i valori generati da MCMC che non puoi dire su serie temporali arbitrarie ... sono Markovian . Noterai che i miei commenti precedenti non sostengono che i ritardi più vicini debbano mostrare un decadimento geometrico (ad esempio, non ho detto che era impossibile vedere una correlazione più elevata al ritardo 4 rispetto a 3). Otterrai comunque (se certe condizioni valgono) la tendenza al decadimento geometrico nell'ACF man mano che ti allontani.
Glen_b

2
Se il periodo di campionamento è così breve da non disporre di stime altamente accurate della covarianza incrociata, potrebbe essere necessario affrontare il fatto che le stime delle condizioni di covarianza incrociata presentano un errore standard di grandi dimensioni. Data la mia attuale comprensione, ribadirò ancora più fortemente la mia obiezione a testare le correlazioni. Il test di ipotesi per correlazioni zero vs non zero non risolve il problema qui.
Glen_b

Risposte:


1
  1. Campioniamo da P ( X t + i | Y t + i ) . Poiché Y t + i sta cambiando, penso che X t + i e X t + i + 1 non provengano dalla stessa distribuzione [...]Xt+iP(Xt+i|Yt+i)Yt+iXt+iXt+i+1

Stai confondendo le distribuzioni condizionali e incondizionate qui, vedi anche la mia prossima osservazione. Condizionale su e Y t + i + 1 = y 2 , P ( X t + i | Y t + i = y 1 ) P ( X t + i + 1 | Y t + i + 1 = y 2Yt+i=y1Yt+i+1=y2 . Ma l'intero punto di costruire campionatore Gibbs è quello di campione dalle distribuzioni stazionarie di X e Y . In termini molto approssimativi, se hai eseguito la catena per un tempo sufficiente e in modo che { Y t } segua la distribuzione stazionaria, puoi quindi dire P ( X t ) = Y P ( X t | Y t ) d P ( Y t ) , nel senso che la distribuzione incondizionata di X tP(Xt+i|Yt+i=y1)P(Xt+i+1|Yt+i+1=y2)XY{Yt}

P(Xt)=YP(Xt|Yt)dP(Yt),
Xtè anche invariante. In altre parole, come e convergiamo alle distribuzioni stazionarie, P ( X t + i | Y t + i ) = P ( X t + i + 1 | Y t + i + 1 ) , poiché Y t + i e Y t + i + 1 verranno estratti asintoticamente dalla (stessa!) distribuzione stazionaria P (tP(Xt+i|Yt+i)=P(Xt+i+1|Yt+i+1)Yt+iYt+i+1 . D'altra parte e come in precedenza, una volta che ci condizioniamo su Y t + i = y 1 e Y t + i + 1 = y 2 , questo non sarà più valido, indipendentemente da quanto t siagrande.P(Yt)Yt+i=y1Yt+i+1=y2t

[...] quindi non è lo stesso di Cov [ X t + i , X t + i ] . Questa affermazione è corretta?Cov[Xt+i,Xt+j]Cov[Xt+i,Xt+i]

Xt+1XtXtXt+1Yt=0.8Yt1+εtεtiidN(0,1)Yt=i=0t0.8iεtiVar(Yt)=i=0t0.82i=110.82YtiidN(0,110.82)YtYt+1Yt+1YtXt

  1. Cov[Xt+i,Xt+i+1]

k()0lTlT

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.