Inferenza nel modello lineare con eteroschedasticità condizionale


9

Supponiamo che io osservi vettori variabili indipendenti e e la variabile dipendente . Vorrei adattarmi a un modello del modulo: dove è una funzione a doppia differenziazione a valore positivo, è un parametro di ridimensionamento sconosciuto e è una variabile casuale gaussiana a media zero a varianza unitaria (considerata indipendente da e ). Questa è essenzialmente la configurazione del test di eteroschedasticità di Koenker (almeno per quanto io lo capisca).xzy

y=xβ1+σg(zβ2)ϵ,
gσϵxz

Ho di osservazioni su e , e vorrei stimare e . Ho qualche problema, però:nx,zyβ1β2

  1. Non sono sicuro di come porre il problema della stima come qualcosa di simile ai minimi quadrati (suppongo che ci sia un trucco ben noto). La mia prima ipotesi sarebbe qualcosa come ma io non sono sicuro di come risolverlo numericamente (forse un metodo iterativo quasi-Newton potrebbe fare).
    minβ1,β2(i=1n(yixiβ1)2g(ziβ2)2)(i=1n1g(ziβ2)2)1,
  2. Supponendo che io possa porre il problema in modo sano e trovare alcune stime , vorrei conoscere la distribuzione delle stime in modo che, ad esempio, possa eseguire test di ipotesi. Andrei bene testando i due vettori di coefficiente separatamente, ma preferirei un modo per testare, ad esempio per un determinato .β^1,β^2 H0:w1β1+w2β2cw1,w2,c

Buona domanda. Hai un'idea di come ? è liscio? ha dei salti? Invece del minimo quadrato hai provato la massima probabilità (conosci questo documento projecteuclid.org/… ?)g
robin girard

@robin girard: MLE è una buona idea per la domanda 1. Sospetto che per errori gaussiani, MLE fornirà stime identiche alla mia minimizzazione ad hoc . Per quanto riguarda , come ho notato, possiamo supporre che sia valutato positivamente e due volte differenziabile. Probabilmente possiamo presumere che sia anche convesso e forse possiamo supporre che sia analitico. g
Shabbychef,

Risposte:


5

In un contesto leggermente più generale con un vettore dimensionale di -osservazioni (risposte o variabili dipendenti), e matrice di -osservazioni (covariate o variabili dipendenti) e i parametri in modo tale che quindi la probabilità meno log-log sia Nella domanda del PO, è diagonale con YnyXn×pxθ=(β1,β2,σ)YN(Xβ1,Σ(β2,σ))

l(β1,β2,σ)=12(YXβ1)TΣ(β2,σ)1(YXβ1)+12log|Σ(β2,σ)|
Σ(β2,σ)
Σ(β2,σ)ii=σ2g(ziTβ2)2
modo che il determinante diventi e la probabilità meno log risultante diventa Esistono diversi modi per affrontare la minimizzazione di questa funzione (supponendo che i tre parametri siano indipendenti dalla variazione).σ2ni=1ng(ziTβ2)2
12σ2i=1n(yixiTβ1)2g(ziTβ2)2+nlogσ+i=1nlogg(ziTβ2)
  • Puoi provare a minimizzare la funzione con un algoritmo di ottimizzazione standard ricordando il vincolo che .σ>0
  • È possibile calcolare il profilo meno probabilità log di riducendo al minimo over per fixed e quindi collegare la funzione risultante in un algoritmo di ottimizzazione non vincolato standard.(β1,β2)σ(β1,β2)
  • È possibile alternare tra l'ottimizzazione su ciascuno dei tre parametri separatamente. L'ottimizzazione su può essere eseguita analiticamente, l'ottimizzazione su è un problema di regressione dei minimi quadrati ponderati, e l'ottimizzazione su equivale ad adattare un modello lineare generalizzato gamma con il collegamento inverso.σβ1β2g2

L'ultimo suggerimento mi piace perché si basa su soluzioni che già conosco bene. Inoltre, la prima iterazione è qualcosa che prenderei in considerazione comunque. Cioè, prima calcola una stima iniziale di con minimi quadrati ordinari ignorando la potenziale eteroschedasticità, quindi adatta una gamma glm ai residui quadrati per ottenere una stima iniziale di solo per verificare se il modello più complicato sembra utile. Le iterazioni che incorporano l'eteroschedasticità nella soluzione dei minimi quadrati man mano che i pesi potrebbero migliorare sulla stima.β1β2

Per quanto riguarda la seconda parte della domanda, probabilmente prenderei in considerazione il calcolo di un intervallo di confidenza per la combinazione lineare o usando gli asintotici MLE standard (verificando con simulazioni il funzionamento degli asintotici) o avviando il bootstrap.w1Tβ1+w2Tβ2

Modifica: Per asintotici MLE standard intendo usare l'approssimazione normale multivariata alla distribuzione dell'MLE con matrice di covarianza l'informazione inversa di Fisher. Le informazioni di Fisher sono per definizione la matrice di covarianza del gradiente di . Dipende in generale dai parametri. Se riesci a trovare un'espressione analitica per questa quantità, puoi provare a collegare l'MLE. In alternativa, è possibile stimare le informazioni Fisher tramite le informazioni Fisher osservate , che è l'Assia di nel MLE. Il tuo parametro di interesse è una combinazione lineare dei parametri in duellβ-vettori, quindi dalla normale multivariata approssimativa della MLE è possibile trovare una normale approssimazione della distribuzione degli stimatori come descritto qui . Questo ti dà un errore standard approssimativo e puoi calcolare gli intervalli di confidenza. È ben descritto in molti libri statistici (matematici), ma una presentazione ragionevolmente accessibile che posso consigliare è In All Likelihood di Yudi Pawitan. Comunque, la derivazione formale della teoria asintotica è abbastanza complicata e si basa su una serie di condizioni di regolarità, e fornisce solo valide asintotichedistribuzioni. Quindi, in caso di dubbio, farei sempre alcune simulazioni con un nuovo modello per verificare se posso fidarmi dei risultati per parametri realistici e dimensioni del campione. Il bootstrap semplice e non parametrico in cui si campionano le triple dal set di dati osservato con la sostituzione può essere un'alternativa utile se la procedura di adattamento non richiede troppo tempo.(yi,xi,zi)


quali sono gli asintotici MLE standard?
shabbychef,

@shabbychef, era tardi. Ho dato una spiegazione più dettagliata. Si noti che affinché gli asintotici funzionino in teoria, come spiegato, il modello deve essere corretto e lo stimatore deve essere il MLE. Risultati più generali possono essere ottenuti nel quadro delle funzioni di stima generale e delle equazioni di stima, vedi, ad esempio, il libro Quasi-verosimiglianza e ... di Heyde.
NRH
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.