Domande taggate «monte-carlo»

Usare numeri (pseudo-) casuali e la Legge dei Grandi Numeri per simulare il comportamento casuale di un sistema reale.

1
Come distribuire in modo ottimale i disegni quando si calcolano più aspettative
Supponiamo di voler calcolare alcune aspettative: EYEX| Y[ f( X, Y) ]EYEX|Y[f(X,Y)]E_YE_{X|Y}[f(X,Y)] Supponiamo di voler approssimare questo usando la simulazione Monte Carlo. EYEX| Y[ f( X, Y) ] ≈ 1R SΣr = 1RΣs = 1Sf( xr , s, yr)EYEX|Y[f(X,Y)]≈1RS∑r=1R∑s=1Sf(xr,s,yr)E_YE_{X|Y}[f(X,Y)] \approx \frac1{RS}\sum_{r=1}^R\sum_{s=1}^Sf(x^{r,s},y^r) Ma supponiamo che è costoso per prelevare dei campioni …

1
Monte Carlo == applica un processo casuale?
Non ho mai avuto un corso di statistica formale, ma a causa della mia linea di ricerca mi imbatto costantemente in articoli che applicano diversi concetti statistici. Spesso vedrò una descrizione di un processo di Monte Carlo applicato a una data situazione, e per quello che posso raccogliere 9 su …

2
Il campionamento basato sulla catena Markov è il “migliore” per il campionamento Monte Carlo? Sono disponibili schemi alternativi?
Catena di Markov Monte Carlo è un metodo basato sulle catene di Markov che ci consente di ottenere campioni (in un'impostazione Monte Carlo) da distribuzioni non standard da cui non è possibile prelevare campioni direttamente. La mia domanda è: perché la catena Markov è "all'avanguardia" per il campionamento Monte Carlo. …

3
Incomprensione della stima di Monte Carlo Pi
Sono abbastanza sicuro di capire come funziona l'integrazione Monte Carlo ma non capisco la formulazione di come viene utilizzata per stimare Pi. Seguirò la procedura descritta nella quinta diapositiva di questa presentazione http://homepages.inf.ed.ac.uk/imurray2/teaching/09mlss/slides.pdf Comprendo i passaggi preliminari. Pi è uguale a 4 volte l'area di un quarto del cerchio unitario. …



2
Stimatore MCMC robusto della probabilità marginale?
Sto cercando di calcolare la probabilità marginale per un modello statistico con i metodi Monte Carlo: f( x ) = ∫f( x ∣ θ ) π( θ )dθf(X)=∫f(X|θ)π(θ)dθf(x) = \int f(x\mid\theta) \pi(\theta)\, d\theta La probabilità è ben educata - liscia, concava - ma ad alta dimensione. Ho provato il campionamento …

2
Campionamento dalla distribuzione bivariata con densità nota usando MCMC
Ho provato a simulare da una densità bivariata usando gli algoritmi Metropolis in R e non ho avuto fortuna. La densità può essere espressa come , dove è distribuzione Singh-Maddalap(x,y)p(x,y)p(x,y)p(y|x)p(x)p(y|x)p(x)p(y|x)p(x)p(x)p(x)p(x) p(x)=aqxa−1ba(1+(xb)a)1+qp(x)=aqxa−1ba(1+(xb)a)1+qp(x)=\dfrac{aq x^{a-1}}{b^a (1 + (\frac{x}{b})^a)^{1+q}} con i parametri , , e è log-normale con log-mean come una frazione diaaaqqqbbbp(y|x)p(y|x)p(y|x)xxx e …
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.