Domande taggate «gibbs»

Il campionatore Gibbs è una semplice forma di simulazione di Markov Chain Monte Carlo, ampiamente utilizzata nelle statistiche bayesiane, basata sul campionamento da distribuzioni condizionali complete per ogni variabile o gruppo di variabili. Il nome deriva dal metodo utilizzato per la prima volta sulla modellazione a campi casuali di Gibbs di immagini di Geman e Geman (1984).

4
OpenBugs vs. JAGS
Sto per provare un ambiente in stile BUGS per stimare i modelli bayesiani. Ci sono dei vantaggi importanti da considerare nella scelta tra OpenBugs o JAGS? È probabile che uno sostituisca l'altro nel prossimo futuro? Userò il Gibbs Sampler scelto con R. Non ho ancora un'applicazione specifica, ma piuttosto sto …
41 r  software  bugs  jags  gibbs 

1
Qual è la differenza tra i campionamenti di Metropolis Hastings, Gibbs, Importance e Rejection?
Ho cercato di apprendere i metodi MCMC e mi sono imbattuto nel campionamento di Metropolis Hastings, Gibbs, Importance e Rejection. Mentre alcune di queste differenze sono ovvie, cioè come Gibbs sia un caso speciale di Metropolis Hastings quando abbiamo i condizionali completi, le altre sono meno ovvie, come quando vogliamo …


1
Quali sono alcuni miglioramenti ben noti rispetto agli algoritmi MCMC del libro di testo che le persone usano per l'inferenza bayesiana?
Quando sto codificando una simulazione Monte Carlo per qualche problema, e il modello è abbastanza semplice, utilizzo un campionario Gibbs molto semplice. Quando non è possibile utilizzare il campionamento di Gibbs, codifico il libro di testo Metropolis-Hastings che ho imparato anni fa. L'unico pensiero che ci faccio è scegliere la …



1
L'algoritmo Gibbs Sampling garantisce un equilibrio dettagliato?
Secondo l'autorità suprema 1, Gibbs Sampling è un caso speciale dell'algoritmo Metropolis-Hastings per il campionamento di Markov Chain Monte Carlo. L'algoritmo MH fornisce sempre una probabilità di transizione con la proprietà di bilanciamento dettagliata; Mi aspetto che anche Gibbs dovrebbe. Quindi, dove nel seguente semplice caso ho sbagliato? Per la …
17 mcmc  gibbs 

1
Stan
Stavo esaminando la documentazione di Stan che può essere scaricata da qui . Ero particolarmente interessato alla loro implementazione della diagnostica Gelman-Rubin. Il documento originale Gelman & Rubin (1992) definisce il potenziale fattore di riduzione della scala (PSRF) come segue: Let sia la i esima catena di Markov campionata, e …

2
Da dove provengono i condizionali completi nel campionamento di Gibbs?
Gli algoritmi MCMC come Metropolis-Hastings e il campionamento di Gibbs sono metodi di campionamento dalle distribuzioni posteriori articolari. Penso di capire e di implementare abbastanza velocemente la metropoli: basta semplicemente scegliere i punti di partenza in qualche modo e "camminare nello spazio dei parametri" in modo casuale, guidato dalla densità …
15 bayesian  mcmc  gibbs 

1
Probabilità marginale dall'output di Gibbs
Sto riproducendo da zero i risultati nella Sezione 4.2.1 di Probabilità marginale dall'output di Gibbs Siddhartha Chib Journal of American Statistical Association, Vol. 90, n. 432. (dicembre 1995), pagg. 1313-1321. È una miscela di modello normale con numero noto k≥1k≥1k\geq 1 di componenti. f(x∣w,μ,σ2)=∏i=1n∑j=1kN(xi∣μj,σ2j).(∗)f(x∣w,μ,σ2)=∏i=1n∑j=1kN(xi∣μj,σj2).(∗) f(x\mid w,\mu,\sigma^2) =\prod_{i=1}^n\sum_{j=1}^k \mathrm{N}(x_i\mid\mu_j,\sigma_j^2) \, . …


2
Il campionamento di Gibbs è un metodo MCMC?
Per quanto ho capito, è (almeno, così è come lo definisce Wikipedia ). Ma ho trovato questa affermazione di Efron * (enfasi aggiunta): La catena di Markov Monte Carlo (MCMC) è la grande storia di successo delle moderne statistiche bayesiane. MCMC, e il suo metodo gemello "Gibbs sampling", consentono il …
11 mcmc  gibbs 


1
Come derivare il campionamento di Gibbs?
In realtà esito a chiedere questo, perché temo che mi verranno indirizzate ad altre domande o Wikipedia sul campionamento di Gibbs, ma non ho la sensazione che descrivano ciò che è a portata di mano. Data una probabilità condizionale : p ( x | y ) y = y 0 …
11 sampling  mcmc  gibbs 

1
Modellistica bayesiana mediante multivariata normale con covariata
Supponiamo di avere una variabile esplicativa X=(X(s1),…,X(sn))X=(X(s1),…,X(sn)){\bf{X}} = \left(X(s_{1}),\ldots,X(s_{n})\right) dove sss rappresenta una data coordinata. Hai anche una variabile di risposta Y=(Y(s1),…,Y(sn))Y=(Y(s1),…,Y(sn)){\bf{Y}} = \left(Y(s_{1}),\ldots,Y(s_{n})\right) . Ora, possiamo combinare entrambe le variabili come: W(s)=(X(s)Y(s))∼N(μ(s),T)W(s)=(X(s)Y(s))∼N(μ(s),T){\bf{W}}({\bf{s}}) = \left( \begin{array}{ccc}X(s) \\ Y(s) \end{array} \right) \sim N(\boldsymbol{\mu}(s), T) In questo caso, scegliamo semplicemente e è …

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.