Domande taggate «mcmc»

Catena di Markov Monte Carlo (MCMC) si riferisce a una classe di metodi per generare campioni da una distribuzione target generando numeri casuali da una catena Markov la cui distribuzione stazionaria è la distribuzione target. I metodi MCMC sono in genere utilizzati quando sono impossibili metodi più diretti per la generazione di numeri casuali (ad esempio il metodo di inversione). Il primo metodo MCMC era l'algoritmo Metropolis, successivamente modificato con l'algoritmo Metropolis-Hastings.



1
Come posso ottimizzare l'efficienza computazionale quando si adatta ripetutamente un modello complesso a un set di dati di grandi dimensioni?
Sto MCMCglmmriscontrando problemi di prestazioni utilizzando il pacchetto in R per eseguire un modello di effetti misti. Il codice è simile al seguente: MC1<-MCMCglmm(bull~1,random=~school,data=dt,family="categorical" , prior=list(R=list(V=1,fix=1), G=list(G1=list(V=1, nu=0))) , slice=T, nitt=iter, ,burnin=burn, verbose=F) Ci sono circa 20.000 osservazioni nei dati e sono raggruppate in circa 200 scuole. Ho eliminato tutte …

2
Metodi MCMC: masterizzazione di campioni?
Nei metodi MCMC , continuo a leggere sul burn-intempo o sul numero di campioni da "burn". Che cos'è esattamente e perché è necessario? Aggiornare: Una volta che MCMC si stabilizza, rimane stabile? In che modo la nozione di burn-intempo è collegata a quella del tempo di miscelazione?
12 sampling  mcmc 




2
Principiante PyMC: come campionare effettivamente dal modello montato
Sto provando un modello molto semplice: adattare una Normale dove presumo di conoscere la precisione e voglio solo trovare la media. Il codice seguente sembra adattarsi correttamente al normale. Ma dopo il montaggio, voglio campionare dal modello, ovvero generare nuovi dati che sono simili alla mia datavariabile. So che posso …
12 mcmc  pymc 

2
I parametri di massima verosimiglianza si discostano dalle distribuzioni posteriori
Ho una funzione di verosimiglianza per la probabilità dei miei dati dati alcuni parametri del modello , che vorrei stimare. Assumendo priori piatti sui parametri, la probabilità è proporzionale alla probabilità posteriore. Uso un metodo MCMC per provare questa probabilità.L (d| θ)L(d|θ)\mathcal{L}(d | \theta)dddθ ∈ RNθ∈RN\theta \in \mathbf{R}^N Osservando la …

2
Il campionamento di Gibbs è un metodo MCMC?
Per quanto ho capito, è (almeno, così è come lo definisce Wikipedia ). Ma ho trovato questa affermazione di Efron * (enfasi aggiunta): La catena di Markov Monte Carlo (MCMC) è la grande storia di successo delle moderne statistiche bayesiane. MCMC, e il suo metodo gemello "Gibbs sampling", consentono il …
11 mcmc  gibbs 



1
Come derivare il campionamento di Gibbs?
In realtà esito a chiedere questo, perché temo che mi verranno indirizzate ad altre domande o Wikipedia sul campionamento di Gibbs, ma non ho la sensazione che descrivano ciò che è a portata di mano. Data una probabilità condizionale : p ( x | y ) y = y 0 …
11 sampling  mcmc  gibbs 

1
Campionamento Gibbs per modello Ising
Domanda a casa: Considera il modello Ising 1-d. Sia . è -1 o +1x ix=(x1,...xd)x=(x1,...xd)x = (x_1,...x_d)xixix_i π(x)∝e∑39i=1xixi+1π(x)∝e∑i=139xixi+1\pi(x) \propto e^{\sum_{i=1}^{39}x_ix_{i+1}} Progettare un algoritmo di campionamento gibbs per generare campioni approssimativamente dalla distribuzione target .π(x)π(x)\pi(x) Il mio tentativo: Scegli casualmente i valori (-1 o 1) per riempire il vettore x=(x1,...x40)x=(x1,...x40)x = …

2
Campionamento MCMC dello spazio dell'albero decisionale rispetto alla foresta casuale
Una foresta casuale è una raccolta di alberi decisionali formata selezionando casualmente solo alcune funzionalità con cui costruire ciascun albero (e talvolta inserendo i dati di addestramento). Apparentemente imparano e generalizzano bene. Qualcuno ha fatto il campionamento MCMC dello spazio dell'albero decisionale o li ha confrontati con foreste casuali? So …

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.