Da qualsiasi algoritmo di campionamento generico, si può derivare un algoritmo di ottimizzazione.
Infatti, per massimizzare una funzione arbitraria , è sufficiente estrarre campioni da . Per abbastanza piccolo, questi campioni cadranno vicino al massimo globale (o ai massimi locali in pratica) della funzione .g ∼ e f / Tf
Con "campionamento" intendo, estrarre un campione pseudo-casuale da una distribuzione data una funzione di verosimiglianza nota fino a una costante. Ad esempio, campionamento MCMC, campionamento Gibbs, campionamento Beam, ecc. Per "ottimizzazione" intendo il tentativo di trovare parametri che massimizzino il valore di una determinata funzione.
È possibile il contrario? Data un'euristica per trovare il massimo di una funzione o di un'espressione combinatoria, possiamo estrarre una procedura di campionamento efficiente?
HMC ad esempio sembra sfruttare le informazioni sul gradiente. Possiamo costruire una procedura di campionamento che sfrutti un'approssimazione simile alla BFGS dell'Assia? (modifica: apparentemente sì: http://papers.nips.cc/paper/4464-quasi-newton-methods-for-markov-chain-monte-carlo.pdf ) Possiamo usare MCTS in problemi combinatori, possiamo tradurre che in una procedura di campionamento?
Contesto: una difficoltà nel campionamento è spesso che la maggior parte della massa della distribuzione di probabilità risiede in una regione molto piccola. Esistono tecniche interessanti per trovare tali regioni, ma non si traducono direttamente in procedure di campionamento imparziali.
Modifica: ora ho la sensazione persistente che la risposta a questa domanda sia in qualche modo equivalente all'uguaglianza delle classi di complessità #P e NP, rendendo la risposta un probabile "no". Spiega perché ogni tecnica di campionamento produce una tecnica di ottimizzazione ma non viceversa.