Domande taggate «prior»

Nelle statistiche bayesiane una distribuzione precedente formalizza informazioni o conoscenze (spesso soggettive), disponibili prima che un campione venga visualizzato, sotto forma di una distribuzione di probabilità. Una distribuzione con ampia diffusione viene utilizzata quando si sa poco sui parametri, mentre una distribuzione precedente più ristretta rappresenta un maggior grado di informazione.


3
Come può un precedente improprio portare a una corretta distribuzione posteriore?
Sappiamo che nel caso di un'adeguata distribuzione precedente, P(θ∣X)=P(X∣θ)P(θ)P(X)P(θ∣X)=P(X∣θ)P(θ)P(X)P(\theta \mid X) = \dfrac{P(X \mid \theta)P(\theta)}{P(X)} ∝P(X∣θ)P(θ)∝P(X∣θ)P(θ) \propto P(X \mid \theta)P(\theta) . La solita giustificazione per questo passaggio è che la distribuzione marginale di , , è costante rispetto a e può quindi essere ignorata quando si ottiene la distribuzione posteriore.XXXP(X)P(X)P(X)θθ\theta …



2
Interpretazione naturale per iperparametri LDA
Qualcuno può spiegare qual è la naturale interpretazione degli iperparametri LDA? ALPHAe BETAsono parametri delle distribuzioni di Dirichlet rispettivamente per (per documento) argomento e (per argomento). Tuttavia qualcuno può spiegare cosa significa scegliere valori più grandi di questi iperparametri rispetto a valori più piccoli? Ciò significa mettere delle credenze precedenti …

2
Perché una
sfondo Uno dei punti deboli più comunemente usati prima della varianza è la gamma inversa con i parametri (Gelman 2006) .α = 0,001 , β= 0,001α=0.001,β=0.001\alpha =0.001, \beta=0.001 Tuttavia, questa distribuzione ha un IC al 90% di circa .[ 3 × 1019, ∞ ][3×1019,∞][3\times10^{19},\infty] library(pscl) sapply(c(0.05, 0.95), function(x) qigamma(x, 0.001, …




1
Esiste un'interpretazione bayesiana della regressione lineare con la regolarizzazione simultanea L1 e L2 (nota anche come rete elastica)?
È noto che la regressione lineare con una penalità equivale a trovare la stima MAP data un precedente gaussiano sui coefficienti. Allo stesso modo, usare una penalità l 1 equivale a usare una distribuzione di Laplace come precedente.l2l2l^2l1l1l^1 Non è raro usare una combinazione ponderata di e l 2 regolarizzazione. …



2
Frequentismo e priori
Robby McKilliam dice in un commento a questo post: Va sottolineato che, dal punto di vista dei frequentisti, non vi è alcun motivo per cui non è possibile incorporare le conoscenze precedenti nel modello. In questo senso, la visione frequentista è più semplice, hai solo un modello e alcuni dati. …


2
Quali distribuzioni precedenti potrebbero / dovrebbero essere utilizzate per la varianza in un modello gerarchico bayesisan quando la varianza media è interessante?
Nel suo ampiamente citato documento Distribuzioni precedenti per parametri di varianza in modelli gerarchici (916 citazione finora su Google Scholar) Gelman propone che buone distribuzioni precedenti non informative per la varianza in un modello bayesiano gerarchico siano la distribuzione uniforme e la distribuzione della mezza t. Se capisco bene le …

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.