Perché


1

Non capisco. Ok, abbiamo . Quindi, per il primo presupposto OLS risulta cheE(vi)=E((Xi-ˉX)uipE((Xi-μX)ui)=E(Xi-μX)E(ui)=0(poichéE(uβ1β^1=1ni=1nvi(n1n)sX2E(vi)=E((XiX¯)uipE((XiμX)ui)=E(XiμX)E(ui)=0 ). Poi Archivio e Watson dice che per la seconda ipotesi OLS v i è IID e V un r ( v i ) < . Sicuramente questo è per il campionamento casuale di variabili, ma non posso dimostrarlo chiaramente. Dopo questo, abbiamo E ( v i ) = 0 e V a r ( v i ) = σ v 2 < ∞ in modo da poter applicare CLT e dire che perE(ui|X=xi)=0viVar(vi)<E(vi)=0Var(vi)=σv2<v iN ( 0 , σ v 2 / n ) da 1n viN(0,σv2/n) .1ni=1nvi=v¯


1
Rendi il tuo post più chiaro. Qual è la "seconda ipotesi OLS": per esempio? Formula anche la tua domanda reale più chiaramente. Ad esempio, l'ipotesi IID ha esattamente a che fare con il modo in cui campioniamo le osservazioni, non è correlata alle ipotesi relative ai regressori e al termine di errore "dentro" ogni osservazione.
Alecos Papadopoulos,

n(Xi,Yi)i(Xi,Yi),i=1,...,n

β1^β1β1^=1ni=1nvi(n1n)sX2

Risposte:


1

Anche dopo lo scambio di commenti non sono del tutto sicuro di quale sia il problema del PO, ma risponderò alla domanda nel titolo.

Supponiamo di avere un modello

Yi=βXi+ui,i=1,...,n

{Yi,Xi}i

Ora considera la variabile casuale

vi=(XiμX)ui=(XiμX)(YiβXi)=XiYiβXi2μXYi+μxβXi

mentre anche

ji:vj=(XjμX)uj=(XjμX)(YjβXj)=XjYjβXj2μXYj+μxβXj

vi{Yi,Xi}vj{Yj,Xj}{Yi,Xi}vivj

XiXjXjYjXiYiXjYjvivj


Grazie mille per la correzione. Ho capito il concetto ora.
Francesco Totti,

@FrancescoTotti. Felice di sentire. Poiché questa risposta ti sembra utile, controlla il segno verde in modo che il tuo post lasci la coda di domande senza risposta
Alecos Papadopoulos
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.