Cos'è questo compromesso di bias varianza per i coefficienti di regressione e come derivarlo?


9

In questo documento , ( Bayesian Inference for Variance Components Using Only Error Contrasts , Harville, 1974), l'autore afferma per essere un "noto relazione ", per una regressione lineare dove \ epsilon \ sim \ mathcal {N} (0, H).

(yXβ)H1(yXβ)=(yXβ^)H1(yXβ^)+(ββ^)(XH1X)(ββ^)
y=Xβ+ϵ,
ϵN(0,H).

Come è noto questo? Qual è il modo più semplice per dimostrarlo?


1
È su Wikipedia , vedi 'derivazione' lì.
user603,

@ user603 Ti dispiace rendere il collegamento più chiaro? Grazie!
Sibbs Gambling,

@ user603 Spiacente, non riesco davvero a vedere come il collegamento risolve il problema. Per me, nel mio caso, l'equazione è Var (y) = bias + ... Puoi elaborare?
Sibbs Gambling

4
@SibbsGambling Nota che la tua equazione ha due termini relativi alla varianza in questa formulazione di una regressione lineare ponderata . Il termine a sinistra è correlato alla varianza attorno al modello reale (ponderato dalla matrice di precisione ). Il primo termine a destra è legato alla varianza attorno ai modelli montati. Il secondo termine a destra è correlato al quadrato del bias. Questo è il compromesso della differenziazione. H1
EdM

Risposte:


6

L'ultimo termine dell'equazione può essere scritto come

(XβXβ^)H1(XβXβ^).

In questa forma l'equazione sta dicendo qualcosa di interessante. Supponendo che sia definito positivo e simmetrico, così come il suo contrario. Pertanto, possiamo definire un prodotto interno , dandoci geometria. Quindi l'uguaglianza di cui sopra sta essenzialmente dicendo che H<x,y>H1=xH1y

(XβXβ^)(yXβ^).

Volevo darti questo po 'di intuizione poiché un commentatore ha già lasciato un link alla derivazione.

Modifica: per i posteri

LHS:

(yXβ)H1(yXβ)=yH1y2yH1Xβ+βXH1Xβ=(A)(B)+(C)

RHS:

(yXβ^)H1(yXβ^)+(ββ^)(XH1X)(ββ^)
=yH1y2yH1Xβ^+β^XH1Xβ^+βXH1Xβ2β^XH1Xβ+β^XH1Xβ^=(A)(D)+(E)+(C)(F)+(E)

Relazione:

β^=(XH1X)1XH1y

Collegando la relazione è possibile mostrare che (B) = (F) e che 2 (E) = (D). Tutto fatto.


Spiacenti, non riesco davvero a vedere come il collegamento risolve il problema. Per me, nel mio caso, l'equazione è Var (y) = bias + ... Puoi elaborare?
Sibbs Gambling

@SibbsGambling ha modificato la mia risposta inclusa la derivazione.
jlimahaverford,

@jlimahaverford non stai dimenticando la alla fine della formula per ? yβ^
Gumeo,

7

Arrivano a questa identità con una tecnica chiamata completamento della piazza. Il lato sinistro è in forma quadratica, quindi inizia moltiplicandolo

(yXβ)H1(yXβ)=yH1y2yH1Xβ+βXH1Xβ

continuare e riscrivere in termini di . L'algebra è un po 'lunga ma googling che completa la piazza nella regressione bayesiana e puoi trovare molti suggerimenti. Ad esempio, vedi la Wikipedia sulla regressione lineare bayesiana e altre risposte CrossValided relative al completamento del quadrato, come qui . β^=(XH1X)1XH1y


2

Se conosci la tua algebra matriciale, allora questo dovrebbe essere fatti moltiplicando tutto e verificando che tu abbia davvero lo stesso su entrambi i lati. Questo è ciò che ha dimostrato Jlimahaverford.

Per poterlo fare è necessaria la formula per la stima di . Possiamo derivare la formula in modo simile a quello della regressione lineare quando abbiamo termini di errore non correlati. Il trucco è standardizzare.β^

Ecco alcune informazioni su come standardizzare un camper che proviene da una distribuzione normale multivariata. Supponiamo che tu abbia è definita positiva, in modo da poter fattorizzare come . Ora la variabile casuale viene dalla distribuzione . Ora possiamo usare questo trucco per il nostro problema per trovare . Let factorize . Abbiamo Now è stato standardizzato, tale che

XN(μ,Σ).
ΣΣ=PPT
Y=P1(Xμ)
N(0,I)β^H=PPT
y=Xβ+ϵP1y=P1Xβ+P1ϵ
ϵcov(P1ϵ)=I , quindi ora possiamo trattarlo come un semplice modello di regressione lineare multipla in cui: Quindi abbiamo il problema di regressione: La formula per è Questa è la chiave da fare questo, il resto è la manipolazione algebrica dimostrata nella soluzione da jlimahaverford.
X~=P1X,y~=P1yandϵ~=P1ϵ.
y~=X~β+ϵ~
β^
β^=(X~TX~)1X~Ty~=((P1X)TP1X)1(P1X)TP1y=(XT(PPT)1X)1X(PPT)1y=(XTH1X)1XH1y
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.