Quando si ottengono campioni MCMC per fare deduzione su un particolare parametro, quali sono le buone guide per il numero minimo di campioni efficaci a cui si dovrebbe puntare? E questo consiglio cambia man mano che il modello diventa più o meno complesso?
Supponiamo di avere un insieme di punti y={y1,y2,…,yN}y={y1,y2,…,yN}\mathbf{y} = \{y_1, y_2, \ldots, y_N \} . Ogni punto yiyiy_i viene generato usando la distribuzione p(yi|x)=12N(x,1)+12N(0,10).p(yi|x)=12N(x,1)+12N(0,10). p(y_i| x) = \frac12 \mathcal{N}(x, 1) + \frac12 \mathcal{N}(0, 10). Per ottenere posteriore perxxxscriviamo p(x|y)∝p(y|x)p(x)=p(x)∏i=1Np(yi|x).p(x|y)∝p(y|x)p(x)=p(x)∏i=1Np(yi|x). p(x| \mathbf{y}) \propto p(\mathbf{y}| x) p(x) = p(x) \prod_{i = 1}^N …
Quando si deduce la matrice di precisione ΛΛ\boldsymbol{\Lambda} di una distribuzione normale utilizzata per generare vettori D-dimensionali N \ mathbf {x_1}, .., \ mathbf {x_N} \ begin {align} \ mathbf {x_i} & \ sim \ mathcal {N} (\ boldsymbol {\ mu, \ Lambda ^ {- 1}}) \\ \ end {align} …
Questo è stato anche chiesto a Computational Science. Sto cercando di calcolare una stima bayesiana di alcuni coefficienti per un'autoregressione, con 11 campioni di dati: where è gaussiano con media 0 e varianza La distribuzione precedente sul vettore è gaussiana con media e una matrice di covarianza diagonale con voci …
Nell'analisi coniugale bayesiana di Kevin Murphy della distribuzione gaussiana , scrive che la distribuzione predittiva posteriore è p ( x ∣ D ) = ∫p ( x ∣ θ ) p ( θ ∣ D ) dθp(x∣D)=∫p(x∣θ)p(θ∣D)dθ p(x \mid D) = \int p(x \mid \theta) p(\theta \mid D) d \theta …
(Questa domanda è ispirata da questo commento di Xi'an .) È noto che se la distribuzione precedente è corretta e la probabilità è ben definita, allora la distribuzione posteriore è corretto quasi sicuramente.π(θ)π(θ)\pi(\theta)L(θ|x)L(θ|x)L(\theta | x)π(θ|x)∝π(θ)L(θ|x)π(θ|x)∝π(θ)L(θ|x)\pi(\theta|x)\propto \pi(\theta) L(\theta|x) In alcuni casi, utilizziamo invece una probabilità temperata o esponenziale, portando a uno …
Sto lavorando alla derivazione di un posteriore di Normal-Wishart ma sono bloccato su uno dei parametri (il posteriore della matrice della scala, vedi in basso). Solo per contesto e completezza, ecco il modello e il resto delle derivazioni: xiμΛ∼N(μ,Λ)∼N(μ0,(κ0Λ)−1)∼W(υ0,W0)xi∼N(μ,Λ)μ∼N(μ0,(κ0Λ)−1)Λ∼W(υ0,W0)\begin{align} x_i &\sim \mathcal{N}(\boldsymbol{\mu}, \boldsymbol{\Lambda})\\ \boldsymbol{\mu} &\sim \mathcal{N}(\boldsymbol{\mu_0}, (\kappa_0 \boldsymbol{\Lambda})^{-1})\\ \boldsymbol{\Lambda} &\sim …
Ho letto della stima della massima verosimiglianza e della massima stima a posteriori e finora ho incontrato esempi concreti solo con la stima della massima verosimiglianza. Ho trovato alcuni esempi astratti di massima stima a posteriori, ma nulla di concreto ancora con numeri su di esso: S Può essere molto …
Le mie attuali domande sono negli ultimi due paragrafi, ma per motivarle: Se sto tentando di stimare la media di una variabile casuale che segue una distribuzione normale con una varianza nota, ho letto che mettere una divisa prima della media si traduce in una distribuzione posteriore che è proporzionale …
Sono confuso su come valutare la distribuzione predittiva posteriore per la regressione lineare bayesiana, oltre il caso di base descritto qui a pagina 3 e copiato di seguito. p ( y~∣ y) = ∫p ( y~∣ β, σ2) p ( β, σ2∣ y)p(y~∣y)=∫p(y~∣β,σ2)p(β,σ2∣y) p(\tilde y \mid y) = \int p(\tilde …
Stan (in particolare, Iran) ha strutture integrate per generare distribuzioni posteriori predittive? Non è difficile generare la distribuzione dall'innesto standard, ma preferirei non reinventare la ruota.
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.