Con alcuni algoritmi randomizzati è possibile derandomizzare l'algoritmo, rimuovendo (a un possibile costo in tempo di esecuzione) l'uso di bit casuali e massimizzando un limite inferiore sull'obiettivo (di solito calcolato utilizzando il fatto che i teoremi riguardano le prestazioni attese del casuale algoritmo). Esiste un equivalente per algoritmi quantistici? Ci sono risultati ben noti di "dequantizzazione"? O lo spazio di stato sottostante è troppo grande per questo tipo di tecnica?