L'articolo non ha mai assunto l'omoskadasticità nella definizione. Per dirla nel contesto di questo articolo, omoschedasticità sarebbe dicendo
Dove è il identità matrice e è una numero positivo scalare. L'eteroscadasticità lo consente io n × n σ
E{ ( x^- x ) ( x^- x )T} = σio
ion × nσ
E{ ( x^- x ) ( x^- x )T} = D
Qualsiasi diaganol positivo definito. L'articolo definisce la matrice di covarianza nel modo più generale possibile, come il secondo momento centrato di una distribuzione multi-variabile implicita. dobbiamo conoscere la distribuzione multivariata di per ottenere una stima asintoticamente efficiente e coerente di . Questo verrà da una funzione di verosimiglianza (che è una componente obbligatoria del posteriore). Ad esempio, supponiamo (cioè . Quindi la funzione di probabilità implicita è
Dove è il normale pdf multivariato.e x e ~ N ( 0 , Σ ) E { ( x - x ) ( x - x ) T } = Σ log [ L ] = log [ φ ( x - x , Σ ) ] φDeX^e ∼ N( 0 , Σ )E{ ( x^- x ) ( x^- x )T} = Σ
log[ L ] = registro[ ϕ ( x^- x , Σ ) ]
φ
La matrice di informazioni sul pescatore può essere scritta come
vedere en.wikipedia.org/wiki/Fisher_information per ulteriori informazioni. È da qui che possiamo derivare
Quanto sopra sta usando una funzione di perdita quadratica ma non assume omoschedasticità. √
io( x ) = E[ ( ∂∂Xlog[ L ] )2|||x ]
n--√( x^- x ) →dN( 0 , I- 1( x ) )
Nel contesto di OLS, dove regrediamo su assumiamo
La probabilità implicita è
Che può essere convenientemente riscritto come
il normale pdf univariato. Le informazioni sul pescatore sono quindi
yX
E{ y| x}= x'β
log[ L ] = registro[ ϕ ( y- x'β, σio) ]
log[ L ] = ∑i = 1nlog[ φ ( y- x'β, σ) ]
φio( β) = [ σ( x x')- 1]- 1
Se l'omoschedasticità non viene soddisfatta, le informazioni di Fisher come indicato non vengono specificate (ma la funzione di aspettativa condizionale è ancora corretta), quindi le stime di saranno coerenti ma inefficienti. Potremmo riscrivere la probabilità di rendere conto dell'eteroskatticità e la regressione è efficiente, cioè possiamo scrivere
Ciò equivale a certe forme di minimi quadrati generalizzati , ad esempio i minimi quadrati ponderati. Tuttavia, questo lo faràlog [ L ] = log [ ϕ ( y - x ′ β , D ) ] β 1β
log[ L ] = registro[ ϕ ( y- x'β, D ) ]
cambia la matrice di informazioni di Fisher. In pratica spesso non conosciamo la forma dell'eteroscedasticità, quindi a volte preferiamo accettare l'inefficienza piuttosto che la possibilità di influenzare la regressione per mancanza di schemi di ponderazione. In tali casi la covarianza asintotica di
non è come sopra specificato.
β 1nio- 1( β)