Domande taggate «kullback-leibler»

Una misura asimmetrica della distanza (o dissomiglianza) tra le distribuzioni di probabilità. Potrebbe essere interpretato come il valore atteso del rapporto di verosimiglianza secondo l'ipotesi alternativa.

1
Valore “nascosto” della variabile categoriale della regressione lineare
Questo è solo un esempio che ho riscontrato più volte, quindi non ho dati di esempio. Esecuzione di un modello di regressione lineare in R: a.lm = lm(Y ~ x1 + x2) x1è una variabile continua. x2è categorico e ha tre valori, ad esempio "Basso", "Medio" e "Alto". Tuttavia, l'output …
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 

1
Perché il posteriore bayesiano si concentra attorno al minimizzatore della divergenza di KL?
Si consideri il Bayesiano posteriore θ ∣ Xθ∣X\theta\mid X . Asintoticamente, il suo massimo si verifica alla stima MLE θ , che appena massimizza la probabilità argmin θθ^θ^\hat \thetaargminθfθ( X)argminθfθ(X)\operatorname{argmin}_\theta\, f_\theta(X) . Tutti questi concetti - priori bayesiani, che massimizzano la probabilità - sembrano superprotesi e per nulla arbitrari. Non …

2
Indice di stabilità della popolazione - divisione per zero
L'indice di stabilità della popolazione quantifica il cambiamento di una distribuzione di una variabile confrontando i campioni di dati in due periodi di tempo. È molto comunemente usato per misurare i cambiamenti nei punteggi. Viene calcolato come segue: 1) Il campione del periodo base viene discretizzato. Di solito è partizionato …
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.