MCTS / UCT è un metodo di ricerca dell'albero dei giochi che utilizza un algoritmo bandito per selezionare nodi promettenti da esplorare. I giochi vengono giocati fino al loro completamento in modo casuale e i nodi che portano a più vittorie vengono esplorati più pesantemente. L'algoritmo del bandito mantiene un equilibrio tra l'esplorazione di nodi con alte percentuali di vincita e l'esplorazione di nodi sconosciuti (e nella sua forma pura non utilizza necessariamente una funzione di valutazione euristica). I programmi basati su questa tecnica generale hanno ottenuto risultati sorprendenti in Computer Go .
Le ricerche MonteClolo basate sul bandito sono state applicate ad altri problemi di ricerca? Ad esempio, sarebbe un approccio utile per approssimare le soluzioni a MAX-SAT, BKP o altri problemi di ottimizzazione combinatoria? Ci sono delle caratteristiche particolari di un problema (strutturale / statistico / ecc.) Che suggerirebbero se un approccio stile bandito sarebbe efficace?
Esistono problemi deterministici noti che sarebbero totalmente resistenti ai metodi del bandito, a causa della natura dello spazio della soluzione?