Bias degli stimatori della massima verosimiglianza per la regressione logistica


10

Vorrei capire un paio di fatti sugli stimatori della massima verosimiglianza (MLE) per le regressioni logistiche.

  1. È vero che, in generale, l'MLE per la regressione logistica è di parte? Direi di si". So, ad esempio, che la dimensione del campione è correlata alla distorsione asintotica degli MLE.

    Conosci qualche esempio elementare di questo fenomeno?

  2. Se l'MLE è di parte, è vero che la matrice di covarianza degli MLE è l'inverso dell'Hesse della funzione di massima verosimiglianza?

    modifica : ho incontrato questa formula abbastanza spesso e senza alcuna prova; mi sembra una scelta abbastanza arbitraria.

Risposte:


15

Considerare il modello di regressione logistica binaria semplice, con una variabile dipendente binaria e solo una costante ed un regressore binario . dove è il cdf logistico, .T

Pr(Yi=1Ti=1)=Λ(α+βTi)
ΛΛ(u)=[1+exp{u}]1

Nel modulo logit abbiamo

ln(Pr(Yi=1Ti=1)1Pr(Yi=1Ti=1))=α+βTi

Hai un campione di taglia . Indica il numero di osservazioni in cui e quelle in cui e . Considera le seguenti probabilità condizionate stimate:nn1Ti=1n0Ti=0n1+n0=n

Pr^(Y=1T=1)P^1|1=1n1Ti=1yi

Pr^(Y=1T=0)P^1|0=1n0Ti=0yi

Quindi questo modello di base fornisce soluzioni in forma chiusa per lo stimatore ML:

α^=ln(P^1|01P^1|0),β^=ln(P^1|11P^1|1)ln(P^1|01P^1|0)

BIAS

Sebbene e siano stimatori imparziali delle probabilità corrispondenti, gli MLE sono distorti, dal momento che la funzione logaritmica non lineare si mette in mezzo - immagina cosa succede a modelli più complicati , con un grado più elevato di non linearità.P^1|1P^1|0

Ma asintoticamente, il pregiudizio svanisce poiché le stime di probabilità sono coerenti. Inserendo direttamente l' operatore all'interno del valore atteso e del logaritmo, abbiamo lim

limnE[α^]=E[ln(limnP^1|01P^1|0)]=E[ln(P1|01P1|0)]=α

e allo stesso modo per . β

MATRICE DI VARIANCE-COVARIANCE DI MLE
Nel semplice caso sopra che fornisce espressioni in forma chiusa per lo stimatore, si potrebbe, almeno in linea di principio, procedere e derivare la sua esatta distribuzione del campione finito e quindi calcolare la sua matrice di varianza-covarianza del campione finito . Ma in generale, il MLE non ha una soluzione in forma chiusa. Quindi facciamo ricorso a una stima coerente della matrice di varianza-covarianza asintotica, che è effettivamente (il negativo di) l'inverso dell'Hessiana della funzione log-verosimiglianza del campione, valutata al MLE. E non esiste alcuna "scelta arbitraria" qui, ma risulta dalla teoria asintotica e dalle proprietà asintotiche dell'MLE (coerenza e normalità asintotica), che ci dice che, per , θ0=(α,β)

n(θ^θ0)dN(0,(E[H])1)

dove è l'Assia. Circa e per campioni (grandi) finiti, questo ci porta aH

Var(θ^)1n(E[H])11n(1nH^)1=H^1
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.