Stima della massima verosimiglianza EM per la distribuzione di Weibull


24

Nota: sto pubblicando una domanda di un mio ex studente incapace di pubblicare da solo per motivi tecnici.

Dato un esempio iid da una distribuzione Weibull con pdf c'è un'utile rappresentazione variabile mancante e quindi un algoritmo EM (aspettativa-massimizzazione) associato che potrebbe essere usato per trovare l'MLE di , invece di usare semplice ottimizzazione numerica?x1,,xn

fk(x)=kxk1exkx>0
fk(x)=Zgk(x,z)dz
k

2
C'è qualche censura?
Ocram,

2
Cosa c'è che non va in Newton Rhapson?
probabilityislogic

2
@probabilityislogic: niente è sbagliato in niente! Il mio studente vorrebbe sapere se esiste una versione EM, tutto qui ...
Xi'an,

1
Potresti dare un esempio di ciò che stai cercando in un contesto diverso, più semplice, ad esempio magari con osservazioni di una variabile casuale gaussiana o uniforme? Quando tutti i dati vengono osservati io (e alcuni degli altri poster, in base ai loro commenti) non vedo quanto EM sia rilevante per la tua domanda.
Ah,

1
@probabilityislogic Penso che avresti dovuto dire "Oh, vuoi dire che vuoi USARE Newton Raphson?". I weibull sono famiglie normali ... Penso, quindi le soluzioni ML sono uniche. Pertanto, EM non ha nulla su cui "E", quindi sei solo "M" ing ... e trovare le radici delle equazioni del punteggio è il modo migliore per farlo!
AdamO,

Risposte:


7

Penso che la risposta sia sì, se ho capito correttamente la domanda.

Scrivi . Poi un tipo di algoritmo EM di iterazione, a partire ad esempio , èk = 1zi=xikk^=1

  • E passaggio: z^i=xik^

  • M passaggio: k^=n[(z^i1)logxi]

Questo è un caso speciale (il caso senza censura e senza covariate) dell'iterazione suggerita per i modelli di rischi proporzionali Weibull da Aitkin e Clayton (1980). Si trova anche nella sezione 6.11 di Aitkin et al (1989).

  • Aitkin, M. e Clayton, D., 1980. L'adattamento di distribuzioni esponenziali, Weibull e valori estremi a complessi dati di sopravvivenza censurati usando GLIM. Statistiche applicate , pagg. 156-163.

  • Aitkin, M., Anderson, D., Francis, B. e Hinde, J., 1989. Modellistica statistica in GLIM . La stampa dell'università di Oxford. New York.


Grazie mille David! Considerare come la variabile mancante non mi è mai passato per la testa ...! xik
Xi'an,

7

Il Weibull MLE è solo numericamente risolvibile:

Lascia che con . β,

fλ,β(x)={βλ(xλ)β1e(xλ)β,x00,x<0
β,λ>0

1) Funzione di probabilità :

Lx^(λ,β)=i=1Nfλ,β(xi)=i=1Nβλ(xiλ)β1e(xiλ)β=βNλNβei=1N(xiλ)βi=1Nxiβ1

log-Likelihoodfunction :

x^(λ,β):=lnLx^(λ,β)=NlnβNβlnλi=1N(xiλ)β+(β1)i=1Nlnxi

2) Problema MLE : 3) Massimizzazione di -gradients: Segue: 0l

max(λ,β)R2x^(λ,β)s.t.λ>0β>0
0-Nβ1
lλ=-Nβ1λ+βΣio=1NXioβ1λβ+1=!0lβ=Nβ-Nlnλ-Σio=1Nln(Xioλ)eβln(Xioλ)+Σio=1NlnXio=!0
λ= ( 1
-Nβ1λ+βΣio=1NXioβ1λβ+1=0-β1λN+β1λΣio=1NXioβ1λβ=0-1+1NΣio=1NXioβ1λβ=01NΣio=1NXioβ=λβ
λ*=(1NΣio=1NXioβ*)1β*

Collegare nella seconda condizione con gradiente 0:λ*

β*=[Σio=1NXioβ*lnXioΣio=1NXioβ*-lnX¯]-1

Questa equazione è solo numericamente risolvibile, ad esempio l'algoritmo di Newton-Raphson. può quindi essere inserito in per completare lo stimatore ML per la distribuzione di Weibull.λ*β^*λ*


11
Sfortunatamente, questo non sembra rispondere alla domanda in alcun modo riconoscibile. L'OP è ben consapevole di Newton-Raphson e dei relativi approcci. La fattibilità di NR non preclude in alcun modo l'esistenza di una rappresentazione a variabile mancante o dell'algoritmo EM associato. Secondo la mia valutazione, la domanda non riguarda affatto le soluzioni numeriche, ma piuttosto sta cercando un'intuizione che potrebbe diventare evidente se fosse dimostrato un interessante approccio a variabili mancanti.
cardinale il

@cardinale Una cosa è dire che esisteva solo una soluzione numerica, ed un'altra cosa è mostrare che esiste solo una soluzione numerica.
emcor,

5
Caro @emcor, penso che potresti fraintendere ciò che la domanda sta ponendo. Forse rivedere l'altra risposta e il flusso di commenti associato sarebbe utile. Saluti.
cardinale il

@cardinal Sono d'accordo che non è una risposta diretta, ma sono le espressioni esatte per gli MLE, ad esempio possono essere utilizzate per verificare l'EM.
emcor,

4

Sebbene questa sia una vecchia domanda, sembra che ci sia una risposta in un documento pubblicato qui: http://home.iitk.ac.in/~kundu/interval-censoring-REVISED-2.pdf

In questo lavoro è stata presa in considerazione l'analisi dei dati censurati per intervallo, con la distribuzione di Weibull come distribuzione di durata sottostante. Si presume che il meccanismo di censura sia indipendente e non informativo. Come previsto, gli stimatori della massima verosimiglianza non possono essere ottenuti in forma chiusa. Nei nostri esperimenti di simulazione si osserva che il metodo Newton-Raphson potrebbe non convergere molte volte. È stato suggerito un algoritmo di massimizzazione delle aspettative per calcolare gli stimatori della massima verosimiglianza e converge quasi sempre.


1
Puoi pubblicare una citazione completa per il documento al link, nel caso in cui si spenga?
gung - Ripristina Monica

1
Questo è un algoritmo EM, ma non fa ciò che credo l'OP voglia. Piuttosto, l'E-step imputa i dati censurati, dopodiché il M-step utilizza un algoritmo a punto fisso con il set di dati completo. Quindi l'M-step non è in forma chiusa (che penso sia ciò che l'OP sta cercando).
Cliff AB,

1
@CliffAB: grazie per il link (+1) ma in effetti la EM è indotta naturalmente in questo articolo dalla parte censura. Il mio ex studente era alla ricerca di una semplice e senza censure grazie all'ottimizzazione della probabilità di Weibull tramite EM.
Xi'an,

-1

In questo caso gli stimatori MLE ed EM sono equivalenti, poiché lo stimatore MLE è in realtà solo un caso speciale dello stimatore EM. (Sto assumendo un quadro frequentista nella mia risposta; questo non è vero per EM in un contesto bayesiano in cui stiamo parlando di MAP). Poiché non vi sono dati mancanti (solo un parametro sconosciuto), il passaggio E restituisce semplicemente la probabilità del log, indipendentemente dalla scelta di . Il passaggio M massimizza quindi la probabilità di log, producendo il MLE.K(t)

EM sarebbe applicabile, ad esempio, se avessi osservato dati da una miscela di due distribuzioni di Weibull con i parametri e , ma non sapevi da quale di queste due distribuzioni provenisse ciascuna osservazione.k 2K1K2


6
Penso che potresti aver frainteso il punto della domanda, che è: esiste qualche interpretazione a variabile mancante da cui si otterrebbe la data probabilità di Weibull (e che consentirebbe l'applicazione di un algoritmo simile a EM)?
cardinale il

4
La dichiarazione della domanda nel post di @ Xi'an è abbastanza chiara. Penso che il motivo per cui non è stata data risposta è perché qualsiasi risposta è probabilmente non banale. (È interessante, quindi vorrei avere più tempo per pensarci.) Ad ogni modo, il tuo commento sembra tradire un malinteso sull'algoritmo EM. Forse il seguente fungerà da antidoto:
cardinale il

6
Sia dove è la funzione di densità normale standard. Lascia che . Con iid uniform uniform, prendi . Quindi, è un campione da un modello di miscela gaussiana. Possiamo stimare i parametri con la massima probabilità (forza bruta). Ci sono dei dati mancanti nel nostro processo di generazione dei dati? No . Ha una rappresentazione a variabile latente che consente l'uso di un algoritmo EM? Sì assolutamente . f(X)=πφ(X-μ1)+(1-π)φ(X-μ2)φF(X)=-Xf(u)duU1,...,UnXio=F-1(Uio)X1,...,Xn
cardinale il

4
Le mie scuse @cardinal; Penso di aver frainteso due cose sul tuo ultimo post. Sì, nel problema GMM è possibile cercare tramite un approccio ML a forza bruta. Inoltre, ora vedo che il problema originale cerca una soluzione che implichi l'introduzione di una variabile latente che consenta un approccio EM per stimare il parametro nella data densità . Un problema interessante Ci sono esempi di utilizzo di EM in questo modo in un contesto così semplice? Gran parte della mia esposizione a EM è stata nel contesto di problemi di miscela e imputazione dei dati. kk x k - 1 e - x kR2×[0,1]KKXK-1e-XK
Ah,

3
@ahfoss: (+1) al tuo ultimo commento. Sì! Avete capito bene. Come per esempio: (i) si presenta in problemi di dati censurati, (ii) applicazioni classiche come modelli Markov nascosti, (iii) modelli a soglia semplice come modelli probit (ad esempio, immagina di osservare la latente invece di Bernoulli ), (iv) stimare componenti di varianza in modelli a effetti casuali a senso unico (e modelli misti molto più complessi) e (v) trovare la modalità posteriore in un modello gerarchico bayesiano. Il più semplice è probabilmente (i) seguito da (iii). X i = 1 ( Z i > μ )ZioXio=1(Zio>μ)
cardinale il
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.