In un gruppo di studenti, ci sono 2 su 18 che sono mancini. Trova la distribuzione posteriore degli studenti mancini nella popolazione assumendo un precedente non informativo. Riassumi i risultati. Secondo la letteratura, il 5-20% delle persone è mancino. Prendi in considerazione queste informazioni nel tuo precedente e calcola il …
Capisco qual è la distribuzione predittiva posteriore e ho letto dei controlli predittivi posteriori , anche se non mi è ancora chiaro cosa faccia. Che cos'è esattamente il controllo predittivo posteriore? Perché alcuni autori affermano che eseguire controlli predittivi posteriori sta "utilizzando i dati due volte" e non dovrebbero essere …
Capisco cos'è un posteriore, ma non sono sicuro di cosa significhi quest'ultimo? In che modo i 2 sono diversi? Kevin P Murphy ha indicato nel suo libro di testo, Machine Learning: a Probabilistic Perspective , che si tratta di "uno stato di convinzione interno". Cosa significa veramente? Avevo l'impressione che …
Sappiamo che nel caso di un'adeguata distribuzione precedente, P(θ∣X)=P(X∣θ)P(θ)P(X)P(θ∣X)=P(X∣θ)P(θ)P(X)P(\theta \mid X) = \dfrac{P(X \mid \theta)P(\theta)}{P(X)} ∝P(X∣θ)P(θ)∝P(X∣θ)P(θ) \propto P(X \mid \theta)P(\theta) . La solita giustificazione per questo passaggio è che la distribuzione marginale di , , è costante rispetto a e può quindi essere ignorata quando si ottiene la distribuzione posteriore.XXXP(X)P(X)P(X)θθ\theta …
Se la priorità e la probabilità sono molto diverse tra loro, a volte si verifica una situazione in cui il posteriore è simile a nessuno dei due. Vedi ad esempio questa immagine, che utilizza distribuzioni normali. Anche se questo è matematicamente corretto, non sembra concordare con la mia intuizione - …
So che i priori non hanno bisogno di essere propri e che neanche la funzione di verosimiglianza si integra con 1. Ma il posteriore deve essere una distribuzione adeguata? Quali sono le implicazioni se è / non è?
Ho sentito l'idea che Jaynes afferma che i frequentatori operano con un "precedente implicito". Che cosa sono o sono questi priori impliciti? Questo significa che i modelli frequentisti sono tutti casi speciali di modelli bayesiani che aspettano di essere trovati?
L'articolo The Odds, continuamente aggiornato menziona la storia di un pescatore di Long Island che deve letteralmente la sua vita alle statistiche bayesiane. Ecco la versione breve: Ci sono due pescatori su una barca nel cuore della notte. Mentre uno dorme, l'altro cade nell'oceano. La barca continua a trollare con …
La mia comprensione è che quando si utilizza un approccio bayesiano per stimare i valori dei parametri: La distribuzione posteriore è la combinazione della distribuzione precedente e della distribuzione di probabilità. Simuliamo questo generando un campione dalla distribuzione posteriore (ad esempio, usando un algoritmo Metropolis-Hasting per generare valori e li …
Si sostiene spesso che il framework bayesiano abbia un grande vantaggio nell'interpretazione (rispetto al frequentista), perché calcola la probabilità di un parametro dati i dati - invece di p ( x | θ ) come nel quadro frequentista . Fin qui tutto bene.p ( θ | x )p(θ|X)p(\theta|x)p ( x …
Questa è una domanda molto semplice ma non riesco a trovare la derivazione da nessuna parte su Internet o in un libro. Vorrei vedere la derivazione di come un bayesiano aggiorna una distribuzione normale multivariata. Ad esempio: immagina P(x|μ,Σ)P(μ)==N(μ,Σ)N(μ0,Σ0).P(x|μ,Σ)=N(μ,Σ)P(μ)=N(μ0,Σ0). \begin{array}{rcl} \mathbb{P}({\bf x}|{\bf μ},{\bf Σ}) & = & N({\bf \mu}, {\bf …
Ho la seguente immagine che mi è stata raccontata è un'illustrazione di come la distribuzione di probabilità posteriore è una combinazione delle distribuzioni precedenti e di probabilità. Mi è stato detto che c'è qualcosa di sbagliato nell'immagine, vale a dire che la distribuzione posteriore non può avere la forma che …
Devo "imparare" la distribuzione di un gaussiano bivariato con pochi campioni, ma una buona ipotesi sulla distribuzione precedente, quindi vorrei usare l'approccio bayesiano. Ho definito il mio precedente: P(μ)∼N(μ0,Σ0)P(μ)∼N(μ0,Σ0) \mathbf{P}(\mathbf{\mu}) \sim \mathcal{N}(\mathbf{\mu_0},\mathbf{\Sigma_0}) μ0=[00] Σ0=[160027]μ0=[00] Σ0=[160027] \mathbf{\mu_0} = \begin{bmatrix} 0 \\ 0 \end{bmatrix} \ \ \ \mathbf{\Sigma_0} = \begin{bmatrix} 16 & …
Sto analizzando un set di dati usando un modello di effetti misti con un effetto fisso (condizione) e due effetti casuali (partecipante a causa del disegno e della coppia all'interno del soggetto). Il modello è stato generato conlme4 pacchetto: exp.model<-lmer(outcome~condition+(1|participant)+(1|pair),data=exp). Successivamente, ho eseguito un test del rapporto di verosimiglianza di …
Ho notato che in molte applicazioni pratiche, i metodi basati su MCMC vengono utilizzati per stimare un parametro anche se il posteriore è analitico (ad esempio perché i priori erano coniugati). Per me ha più senso usare stimatori MAP piuttosto che stimatori basati su MCMC. Qualcuno potrebbe sottolineare perché MCMC …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.