Domande taggate «likelihood»

Data una variabile casuale derivante da una distribuzione parametrizzata F (X; θ) , la probabilità è definita come la probabilità di dati osservati in funzione di θ: \ text {L} (θ) = \ text {P} (θ ; x = x)XF(X;θ)θ:L(θ)=P(θ;X=x)


2
Comprensione della regressione logistica e della probabilità
Come funziona davvero la stima dei parametri / Formazione della regressione logistica? Proverò a mettere quello che ho finora. L'output è y l'output della funzione logistica in forma di probabilità a seconda del valore di x: P(y=1|x)=11+e−ωTx≡σ(ωTx)P(y=1|x)=11+e−ωTx≡σ(ωTx)P(y=1|x)={1\over1+e^{-\omega^Tx}}\equiv\sigma(\omega^Tx) P(y=0|x)=1−P(y=1|x)=1−11+e−ωTxP(y=0|x)=1−P(y=1|x)=1−11+e−ωTxP(y=0|x)=1-P(y=1|x)=1-{1\over1+e^{-\omega^Tx}} Per una dimensione le cosiddette quote sono definite come segue: p(y=1|x)1−p(y=1|x)=p(y=1|x)p(y=0|x)=eω0+ω1xp(y=1|x)1−p(y=1|x)=p(y=1|x)p(y=0|x)=eω0+ω1x{{p(y=1|x)}\over{1-p(y=1|x)}}={{p(y=1|x)}\over{p(y=0|x)}}=e^{\omega_0+\omega_1x} Ora …

5
Come eseguire l'imputazione dei valori in un numero molto elevato di punti dati?
Ho un set di dati molto grande e mancano circa il 5% di valori casuali. Queste variabili sono correlate tra loro. Il seguente set di dati R è solo un esempio di giocattolo con dati correlati fittizi. set.seed(123) # matrix of X variable xmat <- matrix(sample(-1:1, 2000000, replace = TRUE), …
12 r  random-forest  missing-data  data-imputation  multiple-imputation  large-data  definition  moving-window  self-study  categorical-data  econometrics  standard-error  regression-coefficients  normal-distribution  pdf  lognormal  regression  python  scikit-learn  interpolation  r  self-study  poisson-distribution  chi-squared  matlab  matrix  r  modeling  multinomial  mlogit  choice  monte-carlo  indicator-function  r  aic  garch  likelihood  r  regression  repeated-measures  simulation  multilevel-analysis  chi-squared  expected-value  multinomial  yates-correction  classification  regression  self-study  repeated-measures  references  residuals  confidence-interval  bootstrap  normality-assumption  resampling  entropy  cauchy  clustering  k-means  r  clustering  categorical-data  continuous-data  r  hypothesis-testing  nonparametric  probability  bayesian  pdf  distributions  exponential  repeated-measures  random-effects-model  non-independent  regression  error  regression-to-the-mean  correlation  group-differences  post-hoc  neural-networks  r  time-series  t-test  p-value  normalization  probability  moments  mgf  time-series  model  seasonality  r  anova  generalized-linear-model  proportion  percentage  nonparametric  ranks  weighted-regression  variogram  classification  neural-networks  fuzzy  variance  dimensionality-reduction  confidence-interval  proportion  z-test  r  self-study  pdf 


3
Probabilità rispetto alla distribuzione condizionale per l'analisi bayesiana
Possiamo scrivere il teorema di Bayes come p(θ|x)=f(X|θ)p(θ)∫θf(X|θ)p(θ)dθp(θ|x)=f(X|θ)p(θ)∫θf(X|θ)p(θ)dθp(\theta|x) = \frac{f(X|\theta)p(\theta)}{\int_{\theta} f(X|\theta)p(\theta)d\theta} dove è il posteriore, è la distribuzione condizionale e è il precedente.f ( X | θ ) p ( θ )p(θ|x)p(θ|x)p(\theta|x)f(X|θ)f(X|θ)f(X|\theta)p(θ)p(θ)p(\theta) o p(θ|x)=L(θ|x)p(θ)∫θL(θ|x)p(θ)dθp(θ|x)=L(θ|x)p(θ)∫θL(θ|x)p(θ)dθp(\theta|x) = \frac{L(\theta|x)p(\theta)}{\int_{\theta} L(\theta|x)p(\theta)d\theta} dove è il posteriore, è la funzione di probabilità e è il precedente.p(θ|x)p(θ|x)p(\theta|x)L(θ|x)L(θ|x)L(\theta|x)p(θ)p(θ)p(\theta) …

3
Perché la probabilità nel filtro Kalman viene calcolata utilizzando i risultati del filtro anziché i risultati più fluidi?
Sto usando il filtro Kalman in un modo molto standard. Il sistema è rappresentato dall'equazione di stato e dall'equazione di osservazione .xt+1=Fxt+vt+1xt+1=Fxt+vt+1x_{t+1}=Fx_{t}+v_{t+1}yt=Hxt+Azt+wtyt=Hxt+Azt+wty_{t}=Hx_{t}+Az_{t}+w_{t} I libri di testo insegnano che dopo aver applicato il filtro Kalman e aver ottenuto le "previsioni a un passo" (o "stima filtrata"), dovremmo usarli per calcolare la …




1
Valori P e principio di probabilità
Questa domanda è emersa in classe: se utilizziamo i valori p per valutare le ipotesi su un esperimento, a quale parte del Principio di verosimiglianza non stiamo obbedendo: sufficienza o condizionalità ? La mia intuizione sarebbe quella di dire Sufficienza , dal momento che il calcolo di un valore p …

4
Come interpretare una curva di sopravvivenza del modello di rischio Cox?
Come si interpreta una curva di sopravvivenza dal modello di rischio proporzionale cox? In questo esempio di giocattolo, supponiamo di avere un modello di rischio proporzionale cox su agevariabile nei kidneydati e generare la curva di sopravvivenza. library(survival) fit <- coxph(Surv(time, status)~age, data=kidney) plot(conf.int="none", survfit(fit)) grid() Ad esempio, al momento …

1
Una stima bayesiana con un "precedente piatto" equivale a una stima della massima verosimiglianza?
In filogenetica, gli alberi filogenetici sono spesso costruiti utilizzando MLE o analisi bayesiana. Spesso, nella stima bayesiana viene utilizzato un precedente piatto. A quanto ho capito, una stima bayesiana è una stima della probabilità che incorpora un precedente. La mia domanda è, se usi un flat flat, è diverso dal …


2
Stimatore MCMC robusto della probabilità marginale?
Sto cercando di calcolare la probabilità marginale per un modello statistico con i metodi Monte Carlo: f( x ) = ∫f( x ∣ θ ) π( θ )dθf(X)=∫f(X|θ)π(θ)dθf(x) = \int f(x\mid\theta) \pi(\theta)\, d\theta La probabilità è ben educata - liscia, concava - ma ad alta dimensione. Ho provato il campionamento …

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.