Sto cercando di dimostrare che la matrice di informazioni osservate valutata allo stimatore della massima verosimiglianza debolmente coerente (MLE) è uno stimatore debolmente coerente della matrice di informazioni attesa. Questo è un risultato ampiamente citato ma nessuno fornisce un riferimento o una prova (ho esaurito penso che le prime 20 pagine dei risultati di Google e i miei libri di testo delle statistiche)!
Usando una sequenza debolmente coerente di MLE posso usare la legge debole di grandi numeri (WLLN) e il teorema di mappatura continua per ottenere il risultato che desidero. Tuttavia, credo che il teorema della mappatura continua non possa essere usato. Penso invece che debba essere utilizzata la legge uniforme dei grandi numeri (ULLN). Qualcuno sa di un riferimento che ne ha una prova? Ho un tentativo all'ULLN ma per ora lo ometto per brevità.
Mi scuso per la lunghezza di questa domanda, ma la notazione deve essere introdotta. La notazione è come gente (la mia prova è alla fine).
Supponiamo di avere un campione iid di variabili casuali { Y 1 , ... , Y N }
I ( θ ) = - E θ [ H θ ( log f ( ˜ Y | θ ) ]
dove H θ
I N ( θ ) = N ∑ i = 1 I y i ( θ ) ,
dove I y i = - E θ [ H θ ( log f ( Y i | θ ) ]
J ( θ ) = - H θ ( log f ( y | θ )
(alcune persone chiedono la matrice è valutata a θ , ma alcuni non lo fanno). La matrice di informazioni osservate di esempio è;
J N ( θ ) = ∑ N i = 1 J y i ( θ )
dove J y i ( θ ) = - H θ ( log f ( y i | θ ) .
I can prove convergence in probability of the estimator N−1JN(θ)
Ora ( J N ( θ ) ) r s = - ∑ N i = 1 ( H θ ( log f ( Y i | θ ) ) r s è l'elemento ( r , s ) di J N ( θ ) , per ogni r , s = 1 , … , k
Any help on this would be greatly appreciated.