Domande taggate «maximum-likelihood»

un metodo per stimare i parametri di un modello statistico scegliendo il valore del parametro che ottimizza la probabilità di osservare il campione dato.


1
simulazione di campioni casuali con un dato MLE
Questa domanda con convalida incrociata che chiedeva di simulare un campione subordinato a una somma fissa mi ha ricordato un problema che mi è stato posto da George Casella . f(x|θ)f(x|θ)f(x|\theta)(X1,…,Xn)(X1,…,Xn)(X_1,\ldots,X_n)θθ\thetaθ^(x1,…,xn)=argmin∑i=1nlogf(xi|θ)θ^(x1,…,xn)=arg⁡min∑i=1nlog⁡f(xi|θ)\hat{\theta}(x_1,\ldots,x_n)=\arg\min \sum_{i=1}^n \log f(x_i|\theta)θθ\theta θ (X1,...,Xn)(X1,…,Xn)(X1,…,Xn)(X_1,\ldots,X_n)θ^(X1,…,Xn)θ^(X1,…,Xn)\hat{\theta}(X_1,\ldots,X_n) Ad esempio, prendi una distribuzione , con parametro di posizione , la cui densità …

2
Un problema di stima impossibile?
Domanda La varianza di una distribuzione binomiale negativa (NB) è sempre maggiore della sua media. Quando la media di un campione è maggiore della sua varianza, il tentativo di adattare i parametri di un NB con la massima probabilità o con la stima del momento fallirà (non esiste una soluzione …



3
Idea e intuizione dietro la stima della probabilità quasi massima (QMLE)
Domande: qual è l'idea e l'intuizione alla base della stima della massima verosimiglianza (QMLE; noto anche come stima della pseudo massima verosimiglianza, PMLE)? Cosa fa funzionare lo stimatore quando la distribuzione dell'errore effettiva non corrisponde alla distribuzione dell'errore ipotizzata? Il sito di Wikipedia per QMLE va bene (breve, intuitivo, al …

2
Perché vengono utilizzate esattamente le informazioni Fisher osservate?
Nell'impostazione della probabilità massima standard (tra il campione da una distribuzione con densità )) e nel caso di un modello correttamente specificato, il Fisher le informazioni sono fornite daY1,…,YnY1,…,YnY_{1}, \ldots, Y_{n}fy(y|θ0fy(y|θ0f_{y}(y|\theta_{0} I(θ)=−Eθ0[∂2θ2lnfy(θ)]I(θ)=−Eθ0[∂2θ2ln⁡fy(θ)]I(\theta) = -\mathbb{E}_{\theta_{0}}\left[\frac{\partial^{2}}{\theta^{2}}\ln f_{y}(\theta) \right] dove viene presa l'aspettativa rispetto alla densità reale che ha generato i dati. Ho …



2
La matrice di informazioni osservate è uno stimatore coerente della matrice di informazioni prevista?
Sto cercando di dimostrare che la matrice di informazioni osservate valutata allo stimatore della massima verosimiglianza debolmente coerente (MLE) è uno stimatore debolmente coerente della matrice di informazioni attesa. Questo è un risultato ampiamente citato ma nessuno fornisce un riferimento o una prova (ho esaurito penso che le prime 20 …

3
MLE richiede dati iid? O solo parametri indipendenti?
La stima dei parametri utilizzando la stima della massima verosimiglianza (MLE) implica la valutazione della funzione di verosimiglianza, che mappa la probabilità che il campione (X) si verifichi ai valori (x) sullo spazio dei parametri (θ) data una famiglia di distribuzione (P (X = x | θ ) su possibili …

3
Trovare il MLE per un processo esponenziale univariato di Hawkes
Il processo esponenziale univariato di Hawkes è un processo a punti autoeccitante con un tasso di arrivo dell'evento di: λ(t)=μ+∑ti&lt;tαe−β(t−ti)λ(t)=μ+∑ti&lt;tαe−β(t−ti) \lambda(t) = \mu + \sum\limits_{t_i<t}{\alpha e^{-\beta(t-t_i)}} dove sono gli orari di arrivo dell'evento.t1,..tnt1,..tn t_1,..t_n La funzione di verosimiglianza log è −tnμ+αβ∑(e−β(tn−ti)−1)+∑i&lt;jln(μ+αe−β(tj−ti))−tnμ+αβ∑(e−β(tn−ti)−1)+∑i&lt;jln⁡(μ+αe−β(tj−ti)) - t_n \mu + \frac{\alpha}{\beta} \sum{( e^{-\beta(t_n-t_i)}-1 )} + …




Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.