La maggior parte delle descrizioni dei metodi di rendering di Monte Carlo, come la traccia del percorso o la traccia del percorso bidirezionale, presuppongono che i campioni vengano generati in modo indipendente; vale a dire, viene utilizzato un generatore di numeri casuali standard che genera un flusso di numeri indipendenti, distribuiti uniformemente.
Sappiamo che i campioni che non sono stati scelti indipendentemente possono essere utili in termini di rumore. Ad esempio, il campionamento stratificato e le sequenze a bassa discrepanza sono due esempi di schemi di campionamento correlati che quasi sempre migliorano i tempi di rendering.
Tuttavia, ci sono molti casi in cui l'impatto della correlazione del campione non è così chiaro. Ad esempio, i metodi Markov Chain Monte Carlo come Metropolis Light Transport generano un flusso di campioni correlati utilizzando una catena Markov; i metodi a molte luci riutilizzano un piccolo insieme di percorsi di luce per molti percorsi di telecamere, creando molte connessioni d'ombra correlate; anche la mappatura dei fotoni ottiene la sua efficienza dal riutilizzo di percorsi di luce attraverso molti pixel, aumentando anche la correlazione del campione (sebbene in modo distorto).
Tutti questi metodi di rendering possono rivelarsi utili in alcune scene, ma sembrano peggiorare le cose in altre. Non è chiaro come quantificare la qualità dell'errore introdotto da queste tecniche, a parte il rendering di una scena con diversi algoritmi di rendering e il bulbo oculare se uno ha un aspetto migliore dell'altro.
Quindi la domanda è: in che modo la correlazione del campione influenza la varianza e la convergenza di uno stimatore Monte Carlo? Possiamo in qualche modo quantificare matematicamente quale tipo di correlazione del campione è migliore di altri? Ci sono altre considerazioni che potrebbero influenzare se la correlazione del campione sia benefica o dannosa (ad esempio errore percettivo, sfarfallio dell'animazione)?