Sto cercando metodi che consentano di stimare l'entropia delle informazioni di una distribuzione quando le uniche modalità pratiche di campionamento da quella distribuzione sono i metodi Monte Carlo.
Il mio problema non è diverso dal modello Ising standard che viene generalmente utilizzato come esempio introduttivo per il campionamento di Metropolis-Hastings. Ho una distribuzione di probabilità su un insieme , vale a dire ho p ( una ) per ogni un ∈ A . Gli elementi a ∈ A sono di natura combinatoria, come gli stati di Ising, e ne esiste un numero molto elevato. Ciò significa che in pratica non ricevo mai lo stesso campione due volte durante il campionamento da questa distribuzione su un computer. p ( a ) non può essere calcolato direttamente (a causa della non conoscenza del fattore di normalizzazione), ma il rapporto p ( a è facile da calcolare.
Voglio stimare l'entropia informativa di questa distribuzione,
In alternativa, voglio stimare la differenza di entropia tra questa distribuzione e quella ottenuta restringendola a un sottoinsieme (e ovviamente ri-normalizzando).