L'indipendenza media condizionale implica imparzialità e coerenza dello stimatore OLS


10

Considera il seguente modello di regressione multipla:

(1)Y=Xβ+Zδ+U.

Qui Y è un vettore di colonna n×1 ; Matrice X a n×(k+1) ; β a (k+1)×1 colonna vettore; Z a n×l matrice; δ a l×1 colonna vettore; e U , il termine di errore, un vettore di colonna n×1 .


DOMANDA

Il mio docente, il libro di testo Introduzione all'econometria, 3a ed. di James H. Stock e Mark W. Watson, pag. 281, ed Econometrics: Honor's Exam Review Session (PDF) , p. 7, mi ha espresso quanto segue.

  1. Se assumiamo ciò che viene chiamato condizionale significa indipendenza , che per definizione significa che
    (2)E(U|X,Z)=E(U|Z),
  2. e se il presupposto dei minimi quadrati è soddisfatto eccetto il presupposto zero della media condizionale (quindi assumiamo ) (vedi 1 -3 sotto),E(U|X,Z)=0E(U|X,Z)=E(U|Z)0

  3. quindi, lo stimatore OLS di in rimane imparziale e coerente, sotto questo insieme più debole di ipotesi.β^β(1)

Come posso dimostrare questa proposta? Vale a dire, che 1 e 2 sopra implicano che la stima OLS di ci fornisce uno stimatore imparziale e coerente per ? C'è qualche articolo di ricerca che prova questa proposta?ββ


COMMENTO

Il caso più semplice è dato considerando il modello di regressione lineare e dimostra che la stima OLS di è imparziale se per ciascuno .

Yi=β0+β1Xi+β2Zi+ui,i=1,2,,n,
β 1 β 1 E ( u i | X i , Z i ) = E ( u i | Z i ) iβ^1β1E(ui|Xi,Zi)=E(ui|Zi)i

LA PROVA DI UNBIASEDNESS ASSUNZIONANDO CHE E SONO DISTRIBUITI NORMALMENTE NORMALMENTEUiZi

Definisci , quindi edPertanto può essere riscritto come Di segue quindi che Ora, poiché e sono distribuiti congiuntamente normalmente, la teoria delle distribuzioni normali, cfr. Derivare le distribuzioni condizionali di una distribuzione normale multivariata , afferma che (in effetti, non è necessario assumere la normalità congiunta ma solo questa identità) per alcuni di vettoreV=UE(U|X,Z)U=V+E(U|X,Z)

(*)E(V|X,Z)=0.
(1)
(3)Y=Xβ+Zδ+E(U|X,Z)+V.
(2)
(4)Y=Xβ+Zδ+E(U|Z)+V.
UiZi E ( U | Z ) = Z γ l1γ0
(**)E(U|Z)=Zγ
l1γ0 .

Ora diventa Per il modello tutti i presupposti dei minimi quadrati sono soddisfatti, poiché il termine di errore soddisfa il presupposto del condizionale significa zero. Ciò implica che la stima OLS di sarà imparziale, poiché se lasciamo e lasciamo essere la di matrice composta da e , quindi la stima OLS di in è data considerando quanto segue:(4)

(5)Y=Xβ+Z(δ+γ)+V.
(5)Vβ β ρ = δ + γ W = ( X , Z ) n ( k + 1 ) + l X Z β ( 5 ) ( β T , ρ T ) Tβ^βρ=δ+γW=(X,Z)n(k+1)+lXZβ(5)
(β^T,ρ^T)T=(WTW)1WTY=(WTW)1WT(W(βT,ρT)T+V)=(βT,ρT)T+(WTW)1WTV

e quindi dove la seconda riga segue per . Pertanto è una stima condizionale imparziale di poiché la stima OLS fornita per i modelli coinicidi con quella fornita per il modello . Ora, secondo la legge dell'aspettativa totale e quindi è uno stimatore imparziale per .

E((β^T,ρ^T)T|W)=(βT,ρT)T+(WTW)1WsTE(V|W)=(βT,ρT)T+(WTW)1WT0=(βT,ρT)T,
() β β(1)(5) E ( β )β^β(1)(5)
E(β^)=E(E(β^|W))=E(β)=β,
β ββ^β

(Si può notare che , quindi il coefficiente su non è necessariamente imparziale.)E(ρ^)=ρ=δ+γδZ

Tuttavia, il caso speciale sopra presuppone che e siano distribuiti congiuntamente normalmente, come posso dimostrare la proposta senza questo presupposto?UiZi

Supponendo che sempre ovviamente ovvio (cfr. ), ma dovrei derivare il risultato semplicemente usando e l'assunzione dei minimi quadrati escludendo l'assunzione Zero medio condizionale ( vedi sotto).E(U|Z)=Zγ()(2)

PER QUANTO RIGUARDA LA COERENZA

Penso che si possa anche vedere che la stima è coerente per notando che nel modello di regressione tutti i presupposti dei minimi quadrati sono soddisfatti, incluso il presupposto che il (nuovo) termine di errore soddisfi il Presupposto zero medio condizionale (cfr. E vedi sotto).β^β(5)V()

Potrei aggiungere una prova di coerenza in seguito, sulla base di una serie di esercizi in Introduzione all'econometria, 3a ed. di James H. Stock e Mark W. Watson, cap. 18. Tuttavia, questa prova è piuttosto lunga. Ma il punto qui è che la prova fornita negli esercizi presuppone , quindi mi sto ancora chiedendo se il presupposto davvero sufficiente.()(2)

SOTTOTERIA 1

In Introduction to Econometrics, 3a ed. di James H. Stock e Mark W. Watson, si dice, a pag. 300, che il presupposto può essere "rilassato" usando la teoria della regressione non lineare. Che cosa significano o possono significare con questo?()

LE ULTIME ASSUNZIONI SQUADRATE

Qui escludo l'assunzione zero media condizionale che poiché la proposizione che proviamo a dimostrare qui consente i casi in cui . Questi sono casi ad esempio quando è correlata con . Cf. Econometrics: Honor's Exam Review Session (PDF) , p. 7.E(U|X,Z)=0E(U|X,Z)0ZU

I presupposti dei minimi quadrati sono i seguenti.

  1. Le distribuzioni congiunte di , sono iid, dove è l' elemento : th in e dove e sono : vettori di riga in e .(Yi,Xi,Zi)i=1,2,,n,YiiYXiZiiXZ

  2. Grandi valori anomali sono improbabili, cioè per ogni , e hanno momenti quarti finiti, dove è l' : esimo elemento a .iXi,ZiUiUiiU

  3. (X,Z) ha un rango di colonna completo (ovvero non esiste una multicollinearità perfetta; ciò garantisce l'invertibilità di ).WTW

  4. ( Ipotesi sui minimi quadrati estesi : anche se non penso che ciò sia necessario (e mi è stato detto che non lo è), possiamo anche assumere l'omoschedasticità, cioè per ogni e che la distribuzione condizionale di fornita è normale per ogni (ovvero, abbiamo errori normali).Var(Ui|Xi,Zi)=σU2iUi(Xi,Zi)i

NOTA SULLA TERMINOLOGIA

In , il presupposto dello zero medio condizionale è il presupposto che . Il presupposto di indipendenza media condizionale, tuttavia, è il presupposto che .(1)E(U|X,Z)=0E(U|X,Z)=E(U|Z)

Questa terminologia è utilizzata ad es. Introduzione all'econometria, 3a ed. di James H. Stock e Mark W. Watson, pag. 281; e analisi econometrica dei dati di sezioni trasversali e panel, 1a ed. di Jeffrey M. Wooldridge, pag. 607. Vedi anche Restrizioni condizionali all'indipendenza: test e stime per discussioni simili.

PENSIERI E SOTTOTERIA SUPPLEMENTARI 2

Penso contrariamente a James H. Stock e Mark W. Watson che l'indipendenza media condizionale non garantisca una stima OLS imparziale di . Questo perché può assumere forme non lineari come dove è un polinomio in o dove è un parametro ancora da stimare (qui sto usando la matrice esponenziale ), e quindi, penso, debba essere applicata una regressione non lineare , che generalmente ci lascia con stime distorte. Inoltre, la stima OLS in (1) di potrebbe non coincidere nemmeno con la stima OLS diβE(U|Z)E(U|Z)=p(Z)p(Z)ZE(U|Z)=exp(Zγ)γββin se assume determinate forme non lineari. (Psicologicamente sento anche che l'affermazione fatta nel libro di Stock & Watson è troppo bella per essere vera.)(4)E(U|Z)

Quindi, una domanda aggiuntiva è se esiste qualche controesempio alla proposizione che l'indipendenza media condizionale porta a una stima OLS imparziale?

SOTTOTERIA 3

In Mostly Harmless Econometrics Angrist & Pischke discute nella sottosezione 3.3, pag. 68--91, che sotto l'indipendenza condizionale (CI), cioè essendo indipendente da dato (che è una condizione più forte, suppongo, rispetto al presupposto di indipendenza media condizionale dato sopra), c'è una stretta connessione tra stime corrispondenti di l'effetto di su e i coefficienti su nella regressione di su e che motiva che sotto CI la stima OLS del coefficiente su inYXWXYXYXWX(1) è meno distorto rispetto a se CI non regge (tutto il resto uguale).

Ora, questa idea può in qualche modo essere usata per rispondere alla mia domanda principale qui?


@ Xi'an Che vuoi dire? Questa è la definizione di indipendenza media condizionale data nel mio libro di testo: se nella regressione lineare abbiamo , allora diciamo che abbiamo un'indipendenza media condizionata. Ho solo pensato che il mio modo di scrivere fosse più generale. Yi=β0+β1Xi+β2Zi+uiE(ui|Xi,Zi)=E(ui|Zi)
Elias,

@ Xi'an Come definiresti "independe $ ce" condizionale in questo caso? A mio avviso, "indipendenza condizionale" è un concetto distinto da "indipendenza media condizionale". Possono o meno essere concettualmente collegati.
Elias,

@ Xi'an Questo è il modo in cui capisco i concetti: l'indipendenza condizionale è solo , ma l'indipendenza media condizionale è . P(AB|C)=P(A|C)P(B|C)E(A|B,C)=E(A|C)
Elias,

Dov'è il commento di Xi'an?
Michael R. Chernick,

@MichaelChernick Il suo commento è stato il primo. Immagino che debba averlo cancellato. Come me lo ricordo, ha detto che non implica indipendenza condizionale, e ho risposto. E(U|X,Z)=E(U|Z)
Elias,

Risposte:


4

È falso. Come osservate, se leggete attentamente Stock e Watson, in realtà non sostengono l'affermazione che OLS è imparziale per in condizioni di indipendenza media condizionata. Approvano l'affermazione molto più debole secondo cui OLS è imparziale per se . Quindi, dicono qualcosa di vago sui minimi quadrati non lineari.ββE(u|x,z)=zγ

La tua equazione (4) contiene ciò di cui hai bisogno per vedere che l'affermazione è falsa. La stima dell'equazione (4) di OLS mentre si omette la variabile porta alla distorsione delle variabili omesse. Come probabilmente ricorderete, il termine di bias da variabili omesse (quando la variabile omessa ha un coefficiente di 1) è controllato dai coefficienti della seguente regressione ausiliaria: Il bias nella regressione originale per è da questa regressione e il bias su è . Se è correlato con , dopo aver controllato linearmente perE(u|x,z)

E(u|z)=xα1+zα2+ν
βα1γα2xE(u|z)z , quindi sarà diverso da zero e il coefficiente OLS sarà distorto.α1

Ecco un esempio per dimostrare il punto:

ξF(),ζG(),νH()all independentz=ξx=z2+ζu=z+z2E(z+z2)+ν

Osservando la formula per , è chiaro che Osservando la regressione ausiliaria, è chiaro che (in assenza di una scelta fortuita di ) non sarà zero.uE(u|x,z)=E(u|z)=z+z2E(z+z2)F,G,Hα1

Ecco un esempio molto semplice in Rcui si dimostra il punto:

set.seed(12344321)
z <- runif(n=100000,min=0,max=10)
x <- z^2 + runif(n=100000,min=0,max=20)
u <- z + z^2 - mean(z+z^2) + rnorm(n=100000,mean=0,sd=20)
y <- x + z + u

summary(lm(y~x+z))

# auxiliary regression
summary(lm(z+z^2~x+z))

Nota che la prima regressione ti dà un coefficiente su che è distorto da 0,63, riflettendo il fatto che "ha un po 'di " come fa . Si noti inoltre che la regressione ausiliaria fornisce una stima di errore di circa 0,63.xxz2E(u|z)

Quindi, di cosa stanno parlando Stock e Watson (e il tuo docente)? Torniamo alla tua equazione (4):

y=xβ+zγ+E(u|z)+v

È un fatto importante che la variabile omessa è solo una funzione di . Sembra che se potessimo controllare molto bene , sarebbe sufficiente per eliminare il bias dalla regressione, anche se potrebbe essere correlato a .zzxu

Supponiamo di aver stimato l'equazione seguente usando un metodo non parametrico per stimare la funzione o usando la forma funzionale corretta . Se stessimo utilizzando la forma funzionale corretta, la stimeremmo con minimi quadrati non lineari (spiegando il commento criptico su NLS): Questo ci darebbe uno stimatore coerente per perché non c'è più un problema variabile omesso. f()f(z)=zγ+E(u|z)

y=xβ+f(z)+v
β

In alternativa, se avessimo abbastanza dati, potremmo andare `` completamente '' nel controllo di . Potremmo esaminare un sottoinsieme dei dati in cui , ed eseguire semplicemente la regressione: Questo darebbe stimatori imparziali e coerenti per la eccezione di l'intercettazione, ovviamente, che sarebbe inquinata da . Ovviamente, potresti anche ottenere uno stimatore (diverso) coerente e imparziale eseguendo tale regressione solo su punti dati per i quali . E un altro per i punti in cui . Ecc. Quindi avresti un sacco di buoni stimatori da cui potresti fare un grande stimatore, diciamo, facendo una media di tutti insieme in qualche modo.zz=1

y=xβ+v
βf(1)z=2z=3

Quest'ultimo pensiero è l'ispirazione per gli stimatori corrispondenti. Poiché di solito non disponiamo di dati sufficienti per eseguire letteralmente la regressione solo per o anche per coppie di punti in cui è identico, eseguiamo invece la regressione per punti in cui è `` abbastanza vicino '' per essere identici.z=1zz


3

Non è possibile provare questo risultato perché non è vero nella sua affermazione generale. Inizia con il modello nella tua eq. (4)

Y=Xβ+Zδ+(E(U|Z)+V)

dove la grande parentesi indica il termine di errore effettivo (nessuna ipotesi ancora sull'aspettativa condizionale). Definisci la matrice del creatore o dell'annichilatore , che è simmetrico, idempotente e abbiamo anche . MZ=IZ(ZZ)1ZMZZ=0

Con "risultati di regressione suddivisi" abbiamo questo

β^OLSβ=(XMZX)1XMZZδ+(XMZX)1XMZE(UZ)+(XMZX)1XMZV

Il primo termine a destra è già zero. Prendendo tutto il valore atteso e quindi applicando la proprietà tower per l'attesa condizionale, anche il terzo termine sarà zero (usando l'indipendenza media condizionale nella sua forma più debole). Ma questo è quanto ci porta questa assunzione più debole, perché rimarremo con

E(β^OLS)β=E[(XMZX)1XMZE(UZ)]

Per imparzialità vogliamo che il lato destro sia zero. Questo vale se è una funzione lineare di (come hai trovato anche) perché otterremo nuovamente lo zero . Ma per il resto è del tutto arbitrario assumere direttamente che l'intero valore atteso sia zero. Non dobbiamo assumere la nortmalità congiunta, ma dobbiamo assumere la linearità di questa aspettativa condizionale (anche altre distribuzioni hanno questa proprietà). Quindi il presupposto necessario per l'imparzialità di èE(UZ)ZMZZ
β

E(UX,Z)=E(UZ)=Zγ

e non posso dire se sia davvero "più debole" o meno, rispetto alla rigorosa esogeneità di tutti i regressori (poiché la rigida esogeneità è dichiarata in termini di indipendenza media per tutte le ipotesi distributive, mentre qui dobbiamo limitare le classi di distribuzioni che e segui).UZ

Non è difficile dimostrare che sotto questa linearità l'assunzione sarà anche coerente.β^OLS


Bella risposta! L'ho letto molto tempo fa e ho pensato che ci avrei pensato più tardi. Ho alcune domande: come puoi dimostrare i risultati della tua regressione partizionata? Gradirei almeno un riferimento. Inoltre, qual è la differenza tra e ? M zMZMz
Elias

1
@Monir e solo un errore di battitura - risolto. Per i risultati della regressione partizionata (che sono molto vecchi e standard), vedere ad esempio il libro di testo di Econometrics di Greene, nel capitolo in cui si discute l'aspetto algebrico della stima ordinaria dei minimi quadrati. Include la prova. zZz
Alecos Papadopoulos,
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.