Metodi per adattare un modello di errore di misurazione "semplice"


13

Sto cercando metodi che possono essere utilizzati per stimare il modello di errore di misurazione "OLS".

x i = X i + e x , i Y i = α + β X i

yi=Yi+ey,i
xi=Xi+ex,i
Yi=α+βXi

Dove gli errori sono normali indipendenti con varianze sconosciute e σ 2 xσy2σx2 . In questo caso OLS "standard" non funzionerà.

Wikipedia ha alcune soluzioni poco interessanti: i due dati ti costringono ad assumere che il "rapporto di varianza" o il "rapporto di affidabilità"λ=σ 2 Xδ=σy2σx2 è noto, doveσ 2 X è la varianza del vero regressoreXi. Non ne sono soddisfatto, perché come può qualcuno che non conosce le varianze conoscerne il rapporto?λ=σX2σx2+σX2σX2Xi

Ad ogni modo, ci sono altre soluzioni oltre a queste due che non mi richiedono di "sapere" qualcosa sui parametri?

Le soluzioni solo per l'intercettazione e la pendenza vanno bene.


l'articolo di Wikipedia stesso ti fornisce la risposta a questa domanda. Se si assume la normalità del regressore "vero", sono necessarie ulteriori condizioni sulla distribuzione degli errori. Se il vero regressore non è gaussiano, allora hai qualche speranza. Vedi Reiersol (1950) .
cardinale il

inoltre, cosa intendi con "Le soluzioni per l'intercettazione e la pendenza vanno bene". Questi sono i tuoi soli due parametri! O speravi di provare a ritirare anche il "vero" regressore?
cardinale il

@cardinal - Intendevo dire che non mi interessavano particolarmente i due parametri di scala e, come dici tu, il regressore "vero" . Xi
probabilityislogic

Vedo. Ha senso.
cardinale il

Risposte:


7

Esistono diverse possibilità descritte da JW Gillard in Una panoramica storica della regressione lineare con errori in entrambe le variabili

Se non si è interessati ai dettagli o ragioni per la scelta di un metodo rispetto ad un altro, basta andare con il più semplice, che è quello di tracciare la linea per il baricentro con pendenza β = s y / s x , vale a dire il rapporto delle deviazioni standard osservati (facendo il segno della pendenza uguale al segno della covarianza di x ed y ); come si può probabilmente lavorare fuori, questo dà un intercetta y -axis di α = ˉ y - ß ˉ x .(x¯,y¯)β^=sy/sxxyyα^=y¯β^x¯.

I meriti di questo particolare approccio sono

  1. dà la stessa linea confrontando contro y come y contro x ,xyyx
  2. è invariante per scala, quindi non devi preoccuparti delle unità,
  3. si trova tra le due normali linee di regressione lineare
  4. li incrocia nel punto in cui si incrociano al centroide delle osservazioni, e
  5. è molto facile da calcolare.

La pendenza è la media geometrica delle pendenze delle due pendenze di regressione lineare ordinarie. E 'anche quello che si otterrebbe se si standardizzata e yxy osservazioni, disegnato una linea a 45 ° (o 135 ° se c'è correlazione negativa) e quindi de-standardizzato linea. Potrebbe anche essere visto come equivalente a un'ipotesi implicita che le varianze delle due serie di errori sono proporzionali alle varianze delle due serie di osservazioni; per quanto ne so, affermi di non sapere in che modo sia sbagliato.

YXXY

X0 <- 1600:3600
Y0 <- 5*X0 + 700
X1 <- X0 + 400*rnorm(2001)
Y1 <- Y0 + 2000*rnorm(2001)
slopeOLSXY  <- lm(Y1 ~ X1)$coefficients[2]     #OLS slope of Y on X
slopeOLSYX  <- 1/lm(X1 ~ Y1)$coefficients[2]   #Inverse of OLS slope of X on Y
slopesimple <- sd(Y1)/sd(X1) *sign(cov(X1,Y1)) #Simple slope
c(slopeOLSXY, slopeOLSYX, slopesimple)         #Show the three slopes
plot(Y1~X1)
abline(mean(Y1) - slopeOLSXY  * mean(X1), slopeOLSXY,  col="red")
abline(mean(Y1) - slopeOLSYX  * mean(X1), slopeOLSYX,  col="blue")
abline(mean(Y1) - slopesimple * mean(X1), slopesimple, col="green")

β^

{yi}{xi}σs

β^xyyxβ^yxxyβ^xy=ρ^sy/sxβ^yx=ρ^sx/syρ^xyρ^

x=by+c1/by=x/bc/byxρ^sy/sxsy/ρ^sxsy/sxyx

YX
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.