L'algoritmo Monte Carlo ideale utilizza valori casuali successivi indipendenti . In MCMC, i valori successivi non sono indipendenti, il che rende il metodo più convergente del Monte Carlo ideale; tuttavia, più velocemente si mescola, più velocemente la dipendenza decade in iterazioni successive¹ e più velocemente converge.
¹ intendo qui che i valori successivi sono rapidamente "quasi indipendente" dello stato iniziale, ovvero che, dato il valore in un punto, i valori X ñ + k diventa rapidamente "quasi indipendente" X n come k cresce; così, come dice qkhhly nei commenti, "la catena non rimane bloccata in una certa regione dello spazio degli stati".XnXń+kXnk
Modifica: penso che il seguente esempio possa essere d'aiuto
Immagina di voler stimare la media della distribuzione uniforme su di MCMC. Si inizia con la sequenza ordinata ( 1 , … , n ) ; ad ogni passaggio, hai scelto k > 2 elementi nella sequenza e li mescoli casualmente. Ad ogni passo, l'elemento nella posizione 1 viene registrato; questo converge alla distribuzione uniforme. Il valore di k controlla la rapidità di miscelazione: quando k = 2 , è lento; quando k = n , gli elementi successivi sono indipendenti e la miscelazione è veloce.{1,…,n}(1,…,n)k>2kk=2k=n
Ecco una funzione R per questo algoritmo MCMC:
mcmc <- function(n, k = 2, N = 5000)
{
x <- 1:n;
res <- numeric(N)
for(i in 1:N)
{
swap <- sample(1:n, k)
x[swap] <- sample(x[swap],k);
res[i] <- x[1];
}
return(res);
}
Appliciamolo per e tracciamo la stima successiva della media μ = 50 lungo le iterazioni MCMC:n=99μ=50
n <- 99; mu <- sum(1:n)/n;
mcmc(n) -> r1
plot(cumsum(r1)/1:length(r1), type="l", ylim=c(0,n), ylab="mean")
abline(mu,0,lty=2)
mcmc(n,round(n/2)) -> r2
lines(1:length(r2), cumsum(r2)/1:length(r2), col="blue")
mcmc(n,n) -> r3
lines(1:length(r3), cumsum(r3)/1:length(r3), col="red")
legend("topleft", c("k = 2", paste("k =",round(n/2)), paste("k =",n)), col=c("black","blue","red"), lwd=1)
Puoi vedere qui che per (in nero), la convergenza è lenta; per k = 50 (in blu), è più veloce, ma ancora più lento rispetto a k = 99 (in rosso).k=2k=50k=99
È inoltre possibile tracciare un istogramma per la distribuzione della media stimata dopo un numero fisso di iterazioni, ad esempio 100 iterazioni:
K <- 5000;
M1 <- numeric(K)
M2 <- numeric(K)
M3 <- numeric(K)
for(i in 1:K)
{
M1[i] <- mean(mcmc(n,2,100));
M2[i] <- mean(mcmc(n,round(n/2),100));
M3[i] <- mean(mcmc(n,n,100));
}
dev.new()
par(mfrow=c(3,1))
hist(M1, xlim=c(0,n), freq=FALSE)
hist(M2, xlim=c(0,n), freq=FALSE)
hist(M3, xlim=c(0,n), freq=FALSE)
k=2k=50k=99
> mean(M1)
[1] 19.046
> mean(M2)
[1] 49.51611
> mean(M3)
[1] 50.09301
> sd(M2)
[1] 5.013053
> sd(M3)
[1] 2.829185