Domande taggate «mcmc»

Catena di Markov Monte Carlo (MCMC) si riferisce a una classe di metodi per generare campioni da una distribuzione target generando numeri casuali da una catena Markov la cui distribuzione stazionaria è la distribuzione target. I metodi MCMC sono in genere utilizzati quando sono impossibili metodi più diretti per la generazione di numeri casuali (ad esempio il metodo di inversione). Il primo metodo MCMC era l'algoritmo Metropolis, successivamente modificato con l'algoritmo Metropolis-Hastings.


2
Come campionare dalla distribuzione discreta sugli interi non negativi?
Ho la seguente distribuzione discreta, dove sono costanti conosciute:α,βα,β\alpha,\beta p(x;α,β)=Beta(α+1,β+x)Beta(α,β)for x=0,1,2,…p(x;α,β)=Beta(α+1,β+x)Beta(α,β)for x=0,1,2,… p(x;\alpha,\beta) = \frac{\text{Beta}(\alpha+1, \beta+x)}{\text{Beta}(\alpha,\beta)} \;\;\;\;\text{for } x = 0,1,2,\dots Quali sono alcuni approcci per campionare in modo efficiente da questa distribuzione?


1
Valore “nascosto” della variabile categoriale della regressione lineare
Questo è solo un esempio che ho riscontrato più volte, quindi non ho dati di esempio. Esecuzione di un modello di regressione lineare in R: a.lm = lm(Y ~ x1 + x2) x1è una variabile continua. x2è categorico e ha tre valori, ad esempio "Basso", "Medio" e "Alto". Tuttavia, l'output …
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 


1
Hamiltoniano Monte Carlo: come dare un senso alla proposta Metropolis-Hasting?
Sto cercando di capire il funzionamento interiore dell'Hamiltoniano Monte Carlo (HMC), ma non riesco a comprendere appieno la parte quando sostituiamo la deterministica integrazione temporale con una proposta di metropoli. Sto leggendo il fantastico documento introduttivo A Conceptual Introduction to Hamiltonian Monte Carlo di Michael Betancourt, quindi seguirò la stessa …
9 mcmc  monte-carlo  hmc 

1
Limitazioni MCMC / EM? MCMC over EM?
Attualmente sto imparando i modelli gerarchici bayesiani usando JAGS da R, e anche pymc usando Python ( "Metodi bayesiani per hacker" ). Da questo post posso trarre qualche intuizione : "finirai con un mucchio di numeri che sembrano" come se "tu fossi in qualche modo riuscito a prendere campioni indipendenti …

2
Il campionamento basato sulla catena Markov è il “migliore” per il campionamento Monte Carlo? Sono disponibili schemi alternativi?
Catena di Markov Monte Carlo è un metodo basato sulle catene di Markov che ci consente di ottenere campioni (in un'impostazione Monte Carlo) da distribuzioni non standard da cui non è possibile prelevare campioni direttamente. La mia domanda è: perché la catena Markov è "all'avanguardia" per il campionamento Monte Carlo. …


2
Confusione legata al campionamento di Gibbs
Mi sono imbattuto in questo articolo in cui si dice che nel campionamento di Gibbs ogni campione è accettato. Sono un po 'confuso. Come mai se ogni campione che ha accettato converge in una distribuzione stazionaria. In generale Metropolis Algorithm accettiamo come min (1, p (x *) / p (x)) …

4
(interagendo) MCMC per posteriore multimodale
Sto provando a campionare da un posteriore con molte modalità particolarmente distanti tra loro usando MCMC. Sembra che nella maggior parte dei casi, solo una di queste modalità contenga il 95% di hpd che sto cercando. Ho cercato di implementare soluzioni basate sulla simulazione temperata, ma ciò non fornisce risultati …



2
Calcola la curva ROC per i dati
Quindi, ho 16 prove in cui sto cercando di autenticare una persona da un tratto biometrico usando Hamming Distance. La mia soglia è impostata su 3,5. I miei dati sono di seguito e solo la versione di prova 1 è un vero positivo: Trial Hamming Distance 1 0.34 2 0.37 …
9 mathematical-statistics  roc  classification  cross-validation  pac-learning  r  anova  survival  hazard  machine-learning  data-mining  hypothesis-testing  regression  random-variable  non-independent  normal-distribution  approximation  central-limit-theorem  interpolation  splines  distributions  kernel-smoothing  r  data-visualization  ggplot2  distributions  binomial  random-variable  poisson-distribution  simulation  kalman-filter  regression  lasso  regularization  lme4-nlme  model-selection  aic  r  mcmc  dlm  particle-filter  r  panel-data  multilevel-analysis  model-selection  entropy  graphical-model  r  distributions  quantiles  qq-plot  svm  matlab  regression  lasso  regularization  entropy  inference  r  distributions  dataset  algorithms  matrix-decomposition  regression  modeling  interaction  regularization  expected-value  exponential  gamma-distribution  mcmc  gibbs  probability  self-study  normality-assumption  naive-bayes  bayes-optimal-classifier  standard-deviation  classification  optimization  control-chart  engineering-statistics  regression  lasso  regularization  regression  references  lasso  regularization  elastic-net  r  distributions  aggregation  clustering  algorithms  regression  correlation  modeling  distributions  time-series  standard-deviation  goodness-of-fit  hypothesis-testing  statistical-significance  sample  binary-data  estimation  random-variable  interpolation  distributions  probability  chi-squared  predictor  outliers  regression  modeling  interaction 


Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.