Domande taggate «bayesian»

L'inferenza bayesiana è un metodo di inferenza statistica che si basa sul trattamento dei parametri del modello come variabili casuali e sull'applicazione del teorema di Bayes per dedurre dichiarazioni di probabilità soggettive sui parametri o ipotesi, subordinatamente al set di dati osservato.


3
Stima del parametro di una distribuzione uniforme: prima impropria?
Abbiamo N campioni, , da una distribuzione uniforme dove \ theta è sconosciuta. Stimare \ theta dai dati.XiXiX_i[0,θ][0,θ][0,\theta]θθ\thetaθθ\theta Quindi, la regola di Bayes ... f(θ|Xi)=f(Xi|θ)f(θ)f(Xi)f(θ|Xi)=f(Xi|θ)f(θ)f(Xi)f(\theta | {X_i}) = \frac{f({X_i}|\theta)f(\theta)}{f({X_i})} e la probabilità è: f(Xi|θ)=∏Ni=11θf(Xi|θ)=∏i=1N1θf({X_i}|\theta) = \prod_{i=1}^N \frac{1}{\theta} (modifica: quando 0≤Xi≤θ0≤Xi≤θ0 \le X_i \le \theta per tutti iii , e 0 …

3
Esercizio 2.2 di Gli elementi dell'apprendimento statistico
Il libro di testo genera prima alcuni dati di 2 classi tramite: che dà: e poi chiede: Cerco di risolverlo modellando prima questo con questo modello grafico: dove è l'etichetta, è l'indice della media selezionata e è il punto dati. Questo daràhcccm c h xh(1≤h≤10)h(1≤h≤10)h\,(1\le h \le 10)mchmhcm_h^cxxx Pr ( …


4
Modello di storia degli eventi a tempo discreto (Sopravvivenza) in R
Sto cercando di adattare un modello a tempo discreto in R, ma non sono sicuro di come farlo. Ho letto che puoi organizzare la variabile dipendente in diverse righe, una per ogni osservazione temporale e utilizzare la glmfunzione con un collegamento logit o cloglog. In questo senso, ho tre colonne: …
10 r  survival  pca  sas  matlab  neural-networks  r  logistic  spatial  spatial-interaction-model  r  time-series  econometrics  var  statistical-significance  t-test  cross-validation  sample-size  r  regression  optimization  least-squares  constrained-regression  nonparametric  ordinal-data  wilcoxon-signed-rank  references  neural-networks  jags  bugs  hierarchical-bayesian  gaussian-mixture  r  regression  svm  predictive-models  libsvm  scikit-learn  probability  self-study  stata  sample-size  spss  wilcoxon-mann-whitney  survey  ordinal-data  likert  group-differences  r  regression  anova  mathematical-statistics  normal-distribution  random-generation  truncation  repeated-measures  variance  variability  distributions  random-generation  uniform  regression  r  generalized-linear-model  goodness-of-fit  data-visualization  r  time-series  arima  autoregressive  confidence-interval  r  time-series  arima  autocorrelation  seasonality  hypothesis-testing  bayesian  frequentist  uninformative-prior  correlation  matlab  cross-correlation 




1
Valore “nascosto” della variabile categoriale della regressione lineare
Questo è solo un esempio che ho riscontrato più volte, quindi non ho dati di esempio. Esecuzione di un modello di regressione lineare in R: a.lm = lm(Y ~ x1 + x2) x1è una variabile continua. x2è categorico e ha tre valori, ad esempio "Basso", "Medio" e "Alto". Tuttavia, l'output …
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 



1
Perché il posteriore bayesiano si concentra attorno al minimizzatore della divergenza di KL?
Si consideri il Bayesiano posteriore θ ∣ Xθ∣X\theta\mid X . Asintoticamente, il suo massimo si verifica alla stima MLE θ , che appena massimizza la probabilità argmin θθ^θ^\hat \thetaargminθfθ( X)argminθfθ(X)\operatorname{argmin}_\theta\, f_\theta(X) . Tutti questi concetti - priori bayesiani, che massimizzano la probabilità - sembrano superprotesi e per nulla arbitrari. Non …



3
Uno stimatore di Bayes richiede che il vero parametro sia una possibile variabile del precedente?
Potrebbe trattarsi di una domanda filosofica, ma qui andiamo: nella teoria delle decisioni, il rischio di uno stimatore di Bayes per è definito rispetto a una distribuzione precedente su .θ∈Θ¸Θθ^( x )θ^(x)\hat\theta(x)θ ∈ Θθ∈Θ\theta\in\Thetaππ\piΘΘ\Theta Ora, da un lato, affinché il vero abbia generato i dati (cioè "esista"), deve essere una …

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.