Altri stimatori imparziali rispetto alla BLUE (soluzione OLS) per i modelli lineari


15

Per un modello lineare la soluzione OLS fornisce il miglior stimatore lineare imparziale per i parametri.

Naturalmente possiamo scambiare una propensione per una minore varianza, ad esempio la regressione della cresta. Ma la mia domanda è di non avere pregiudizi. Ci sono altri stimatori che sono in qualche modo comunemente usati, che sono imparziali ma con una varianza maggiore rispetto ai parametri stimati OLS?

Se avessi un set di dati enorme potrei ovviamente sotto-campionarlo e stimare i parametri con meno dati e aumentare la varianza. Presumo che questo potrebbe essere ipoteticamente utile.

Questa è più una domanda retorica, perché quando ho letto degli stimatori BLUE, non viene fornita un'alternativa peggiore. Immagino che fornire alternative peggiori potrebbe anche aiutare le persone a comprendere meglio il potere degli stimatori BLUE.


Che dire di uno stimatore della massima verosimiglianza? Ad esempio, se ritieni che i tuoi dati siano campionati da una distribuzione t con un parametro di gradi di libertà relativamente bassi ( t(3) o t(4) potrebbe essere caratteristico dei rendimenti finanziari), uno stimatore della massima verosimiglianza non coinciderebbe con OLS ma immagino sarebbe comunque imparziale.
Richard Hardy,


1
@RichardHardy, ho anche provato l'MLE, con i risultati che hai previsto.
Christoph Hanck l'

Risposte:


19

Un esempio che viene in mente è uno stimatore GLS che pondera le osservazioni in modo diverso, sebbene ciò non sia necessario quando vengono soddisfatte le ipotesi di Gauss-Markov (che lo statistico potrebbe non sapere essere il caso e quindi applicare ancora applicare GLS).

Considera il caso di una regressione di yi , i=1,,n su una costante per illustrazione (generalizza prontamente agli stimatori GLS generali). Qui, si presume che {yi} sia un campione casuale da una popolazione con media μ e varianza σ2 .

Poi, sappiamo che OLS è solo β = ˉ y , la media del campione. Sottolineare il fatto che ogni osservazione è ponderato con il peso 1 / n , scrivere questo come β = n Σ i = 1 1β^=y¯1/n

β^=i=1n1nyi.
È ben noto cheVar(β^)=σ2/n.

Ora, considera un altro stimatore che può essere scritto come

β~=i=1nwiyi,
dove i pesi sono tali che iwi=1 . Ciò garantisce che lo stimatore sia imparziale, poiché
E(i=1nwiyi)=i=1nwiE(yi)=i=1nwiμ=μ.
La sua varianza supererà quella di OLS a meno chewi=1/nper tuttii(nel qual caso si ridurrà ovviamente a OLS), che ad esempio può essere mostrato tramite un lagrangiano:

L=V(β~)λ(iwi1)=iwi2σ2λ(iwi1),
wi2σ2wiλ=0iL/λ=0iwi1=0λwi=wjwi=1/n

Ecco un'illustrazione grafica di una piccola simulazione, creata con il codice seguente:

yiIn log(s) : NaNs produced

inserisci qui la descrizione dell'immagine

wio=(1±ε)/n

Il fatto che questi ultimi tre siano sovraperformati dalla soluzione OLS non è immediatamente sottinteso dalla proprietà BLUE (almeno non per me), poiché non è ovvio se sono stimatori lineari (né so se MLE e Huber sono imparziali).

library(MASS)
n <- 100      
reps <- 1e6

epsilon <- 0.5
w <- c(rep((1+epsilon)/n,n/2),rep((1-epsilon)/n,n/2))

ols <- weightedestimator <- lad <- mle.t4 <- huberest <- rep(NA,reps)

for (i in 1:reps)
{
  y <- rnorm(n)
  ols[i] <- mean(y)
  weightedestimator[i] <- crossprod(w,y)  
  lad[i] <- median(y)   
  mle.t4[i] <- fitdistr(y, "t", df=4)$estimate[1]
  huberest[i] <- huber(y)$mu
}

plot(density(ols), col="purple", lwd=3, main="Kernel-estimate of density of OLS and other estimators",xlab="")
lines(density(weightedestimator), col="lightblue2", lwd=3)     
lines(density(lad), col="salmon", lwd=3)     
lines(density(mle.t4), col="green", lwd=3)
lines(density(huberest), col="#949413", lwd=3)
abline(v=0,lty=2)
legend('topright', c("OLS","weighted","median", "MLE t, 4 df", "Huber"), col=c("purple","lightblue","salmon","green", "#949413"), lwd=3)

2
! Neat Penso che questo sia un esempio illustrativo molto semplice, un po 'più generale di quello che mi è venuto in mente. Quando le persone stanno imparando a conoscere gli stimatori in un ambiente frequentista, sento che questi tipi di esempi spesso mancano, ti aiutano davvero a capire meglio il concetto.
Gumeo,

4
W=Σio=1nw(eio) dove eio è il suo residuo e w è una funzione simmetrica, convessa o non convessa, con minimo (globale) a 0, w(0)=0. Lo stimatore Huber sarebbe un esempio.
kjetil b halvorsen,

1
@kjetilbhalvorsen, ora includo anche lo stimatore Huber, che in realtà funziona piuttosto bene.
Christoph Hanck,
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.