Dovresti prima dare un'occhiata a questa domanda di base sulla matrice delle informazioni di Fisher e sulla relazione con l'Assia e gli errori standard
Supponiamo di avere un modello statistico (famiglia di distribuzioni) . Nel caso più generale abbiamo , in modo da questa famiglia è parametrizzato da . In determinate condizioni di regolarità, abbiamod i m ( Θ ) = d θ = ( θ 1 , … , θ d ) T{ fθ: θ ∈ Θ }di m ( Θ ) = dθ = ( θ1, ... , θd)T
ioio , j( θ ) = - Eθ[ ∂2l ( X; θ )∂θio∂θj] =-Eθ[ Hio , j( l ( X; θ ) ) ]
dove è una matrice di informazioni di Fisher (in funzione di ) e è il valore osservato (campione) θ Xioio, jθX
l ( X; θ ) = l n ( fθ( X) ) , per alcuni θ ∈ Θ
Quindi la matrice di informazioni di Fisher è un valore atteso negato di Hesian della probabilità logaritmica in alcuniθ
Supponiamo ora di stimare alcune funzioni vettoriali del parametro sconosciuto . Di solito si desidera che lo stimatore sia imparziale, cioèT ( X ) = ( T 1 ( X ) , … , T d ( X ) )ψ ( θ )T( X) = ( T1( X) , ... , Td( X) )
∀θ ∈ Θ Eθ[ T( X) ] = ψ ( θ )
Cramer Rao Lower Bound afferma che per ogni imparziale il soddisfac o v θ ( T ( X ) )T( X)c o vθ( T( X) )
c o vθ( T( X) ) ≥ ∂ψ ( θ )∂θio- 1( θ ) ( ∂ψ ( θ )∂θ)T= B ( θ )
dove per matrici significa che è semi-definito positivo , è semplicemente un giacobino . Nota che se stimiamo , cioè , sopra semplificaA - B ∂ ψ ( θ )A ≥ BA - B Ji,j(ψ)θψ(θ)=θ∂ψ ( θ )∂θJio , j( ψ )θψ ( θ ) = θ
c o vθ( T( X) ) ≥ I- 1( θ )
Ma cosa ci dice davvero? Ad esempio, ricordalo
v a rθ( Tio( X) ) = [ c o vθ( T( X) ) ]io , io
e che per ogni semi-definita positiva matrice diagonali siano non negativoUN
∀io UNio , io≥ 0
Dall'alto possiamo concludere che la varianza di ciascun elemento stimato è delimitata da elementi diagonali della matriceB ( θ )
∀io v a rθ( Tio( X) ) ≥ [ B ( θ ) ]io , io
Quindi CRLB non ci dice la varianza del nostro stimatore, ma se il nostro stimatore è ottimale o meno , cioè se ha la covarianza più bassa tra tutti gli stimatori imparziali.