Stima della massima verosimiglianza per la distribuzione binomiale negativa


11

La domanda è la seguente:

Un campione casuale di n valori viene raccolto da una distribuzione binomiale negativa con il parametro k = 3.

  1. Trova lo stimatore di massima verosimiglianza del parametro π.
  2. Trova una formula asintotica per l'errore standard di questo stimatore.
  3. Spiega perché la distribuzione binomiale negativa sarà approssimativamente normale se il parametro k è abbastanza grande. Quali sono i parametri di questa normale approssimazione?

Il mio lavoro è stato il seguente:
1. Sento che questo è ciò che si desidera, ma non sono sicuro che io sia accurato qui o se posso eventualmente approfondirlo, date le informazioni fornite?

p(x)=(x1k1)πk(1π)xkL(π)=Πinp(xn|π)(π)=Σinln(p(xn|π))(π)=Σinkπ(xk)(1π)
  1. Penso che quanto segue sia ciò che viene richiesto. Per la parte finale sento di dover sostituire π^ con kx

    (π^)=kπ^2+x(1π^)2se(π^)=1(π^)se(π^)=π^2k(1π^)2x
  2. Non sono davvero sicuro di come provare questo e lo sto ancora cercando. Eventuali suggerimenti o collegamenti utili sarebbero molto apprezzati. Sento che sia collegato al fatto che una distribuzione binomiale negativa può essere vista come una raccolta di distribuzioni geometriche o l'inverso di una distribuzione binomiale, ma non sono sicuro di come affrontarla.

Qualsiasi aiuto sarebbe molto apprezzato


(1) Per trovare la stima della massima verosimiglianza devi trovare dove la funzione log-verosimiglianza raggiunge il suo massimo. Il calcolo del punteggio (la prima derivata della funzione log-verosimiglianza rispetto a ) è un inizio: quale valore avrà questo al massimo? (E ricorda che non è necessario stimare .)π^πk
Scortchi - Ripristina Monica

Ho dimenticato di aggiungere la derivata del log-verksity = 0 ai fini della determinazione del massimo. Se l'ho capito correttamente (ci sto lavorando ancora dalla pubblicazione), quello che ho èkπΣi=0n(xik)(1π)=0
Syzorr

Fai attenzione:Si noti inoltre che parte da 1.i=1nkπi=1n(xik)(1π)= ?i
Scortchi - Ripristinare Monica

In (2), raramente accade che il reciproco di una differenza sia la differenza dei reciproci. Questo errore influisce enormemente sulla formula finale per . se(π^)
whuber

Risposte:


6

1.

p(x)=(xi1k1)πk(1π)xik

L(π;xi)=i=1n(xi1k1)πk(1π)xik

(π;xi)=i=1n[log(xi1k1)+klog(π)+(xik)log(1π)]d(π;xi)dπ=i=1n[kπ(xik)(1π)]

Impostalo a zero,

nkπ=i=1nxink1π

π^=nki=1nx

    2.

Per la seconda parte devi usare il teorema che , è l'informazione del pescatore qui. Pertanto, la deviazione standard di sarà . Oppure lo chiami come errore standard poiché usi CLT qui.n(θ^θ)DN(0,1I(θ))I(θ)θ^[nI(θ)]1/2

Quindi dobbiamo calcolare le informazioni di Fisher per la distribuzione binomiale negativa.

2log(P(x;π))π2=kπ2xk(1π)2

I(θ)=E(kπ2xk(1π)2)=kπ2+k(1π)(1π)2π

Nota: per il binomio pmf negativoE(x)=kπ

Pertanto, l'errore standard per èπ^[n(kπ2+k(1π)(1π)2π)]1/2

Semplifichiamo otteniamose(π)=π2(π1)kn

    3.

La distribuzione geometrica è un caso speciale di distribuzione binomiale negativa quando k = 1. Nota è una distribuzione geometricaπ(1π)x1

Pertanto, la variabile binomiale negativa può essere scritta come una somma di k variabili casuali indipendenti, identicamente distribuite (geometriche).

Quindi per CLT la distribuzione binomiale negativa sarà approssimativamente normale se il parametro k è abbastanza grande


1
Per favore leggi quali argomenti posso chiedere qui? su domande di autoapprendimento: piuttosto che fare i compiti delle persone per loro, cerchiamo di aiutarli a farlo da soli.
Scortchi - Ripristina Monica

2
Si fa necessario considerare la dimensione del campione nel calcolo della MLE. Potresti confondere un resoconto di osservazioni indipendenti, ciascuna delle no. delle prove richieste per raggiungere guasti ( ) con un resoconto di una singola osservazione del n. delle prove richieste per raggiungere guasti ( ). Il primo dà una probabilità di ; quest'ultimo, . nnkx1,x2,,xnkni=1nπ(1π)xikπk(1π)nk
Scortchi - Ripristina Monica

1
Hai ragione, sono sempre confuso su questa parte. Grazie mille. Faccio anche molte domande su questo forum, ma spero davvero che le persone possano darmi una risposta molto dettagliata, quindi posso studiarlo da solo passo dopo passo.
Deep North

Si. Capisco perché la regola di non fornire troppi dettagli, ma questa risposta combinata con i miei appunti della lezione mi hanno permesso di legare un sacco di cose in sospeso. Ho intenzione di andare e parlare con il mio docente oggi su questo in modo da poter ottenere chiarimenti da lui. È venerdì qui adesso. Cessione in scadenza lunedì come sopra indicato. Lo abbiamo imparato mercoledì e abbiamo un solo esempio usando una distribuzione binomiale. Grazie mille per il dettaglio.
Syzorr,

Ci sono alcuni difetti nel tuo lavoro lì perché I (θ) = E [] non -E [] (che mi ha confuso fino a quando non sono andato a cercare le equazioni che hai usato) Alla fine ho finito conse(π)=π2(π1)kn
Syzorr
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.