Il denominatore dello stimatore di varianza (imparziale) è quanto vi sono osservazioni e viene stimato solo un parametro.
Allo stesso modo, mi chiedo perché il denominatore di covarianza non dovrebbe essere quando vengono stimati due parametri?
Il denominatore dello stimatore di varianza (imparziale) è quanto vi sono osservazioni e viene stimato solo un parametro.
Allo stesso modo, mi chiedo perché il denominatore di covarianza non dovrebbe essere quando vengono stimati due parametri?
Risposte:
Le covarianze sono variazioni.
Da allora dall'identità di polarizzazione
i denominatori devono essere uguali.
Un caso speciale dovrebbe darti un'intuizione; pensa a quanto segue:
Sei contento che quest'ultimo sia causa della correzione di Bessel.
Ma sostituendo con X in ^ C o v ( X , Y ) per il primo si ottiene ∑ n i = 1 ( X i - ¯ X ) ( X i - ¯ X ) , quindi cosa pensi che potrebbe riempire meglio nel vuoto?
Una risposta rapida e sporca ... Consideriamo prima ; se aveste avuto n osservazioni con valore atteso noto E ( X ) = 0 usereste 1 per stimare la varianza.
Poiché il valore atteso è sconosciuto, puoi trasformare le tue osservazioni in n - 1 osservazioni con valore atteso noto prendendo A i = X i - X 1 per i = 2 , … , n . Otterrai una formula con un n - 1 nel denominatore, tuttavia A i non sono indipendenti e dovresti tenerne conto; alla fine troverai la solita formula.
Ora per la covarianza puoi usare la stessa idea: se il valore atteso di fosse ( 0 , 0 ) , avresti avuto un 1 nella formula. Sottraendo(X1,Y1)a tutti gli altri valori osservati, si ottengonon-1osservazioni con valore atteso noto ... e1 nella formula - ancora una volta, questo introduce una certa dipendenza da tenere in considerazione.
PS Il modo migliore per farlo è scegliere una base ortonormale di , ovvero n - 1 vettori c 1 , … , c n - 1 ∈ R n tale che
È quindi possibile definire variabili A i = ∑ j c i j X j e B i = ∑ j c i j Y j . Il ( A i , B i ) valore sono indipendenti, aspettato ( 0 , 0 ) , e hanno stessa varianza / covarianza rispetto alle variabili originali.
Il punto è che se vuoi liberarti delle aspettative sconosciute, lasci cadere una (e una sola) osservazione. Questo funziona allo stesso modo per entrambi i casi.
Ecco una prova che lo stimatore di covarianza del campione p-variata con denominatore è uno stimatore imparziale della matrice di covarianza:
.
Per mostrare:
Prova:
Il prossimo:
(1)
(2)
Pertanto:
E così , con il denominatore finale1 , è imparziale. Gli elementi off-diagonali diSusono le tue covarianze campione individuali.
Note aggiuntive:
I n pareggi sono indipendenti. Questo è usato in (2) per calcolare la covarianza della media campionaria.
I passaggi (1) e (2) utilizzano il fatto che
Il passaggio (2) utilizza il fatto che
Immagino che un modo per costruire l'intuizione dietro l'uso di 'n-1' e non 'n-2' sia che per calcolare la varianza non abbiamo bisogno di de-significare sia X che Y, ma uno dei due, ovvero
1) Avvia .
A titolo di esempio banale, consideralo
e ciò non include irrazionali e frazioni, ad es , in modo che quando moltiplichiamo due serie di numeri ed esaminiamo il loro prodotto, tutto ciò che vediamo sono i from one number series, as we have lost half of the original information, that is, what those two numbers were before the pair-wise grouping into one number (i.e., multiplication) was performed.
In other words, without loss of generality we can write
for some and ,
i.e., , and, . From the 's, which then clearly have , the covariance formula becomes
.
Thus, the answer to the question is that the are halved by grouping.
Hold
?