Per quanto ne so, la maggior parte delle implementazioni della generazione di numeri pseudocasuali in pratica utilizza metodi come i registri di feedback a spostamento lineare (LSFR) o questi algoritmi "Mersenne Twister". Mentre superano molti test statistici (euristici), non ci sono garanzie teoriche che sembrino pseudocasuali, per esempio, tutti i test statistici calcolabili in modo efficiente. Eppure questi metodi sono usati indiscriminatamente in tutti i tipi di applicazioni, che vanno dai protocolli crittografici al calcolo scientifico al settore bancario (probabilmente). Trovo un po 'preoccupante che non abbiamo quasi nessuna garanzia sul fatto che queste applicazioni funzionino come previsto (perché qualsiasi tipo di analisi avrebbe probabilmente assunto la vera casualità come input).
D'altra parte, la teoria della complessità e la crittografia forniscono una teoria molto ricca di pseudo-casualità, e abbiamo persino costruzioni candidate di generatori pseudocasuali che potrebbero ingannare QUALSIASI test statistico efficiente che potresti realizzare, usando le funzioni candidate one-way.
La mia domanda è: questa teoria è diventata pratica? Spero che per importanti usi della casualità, come la crittografia o il calcolo scientifico, vengano usati teoricamente PRG.
A parte questo, ho potuto trovare alcune analisi limitate di quanto bene gli algoritmi popolari come quicksort funzionano quando si usano gli LSFR come fonte di casualità, e apparentemente funzionano bene. Vedi "Algoritmi randomizzati e numeri pseudocasuali" di Karloff e Raghavan .