Ci sono molti, molti esempi. Troppi da elencare e probabilmente troppi per chiunque ne sappia completamente (oltre forse a @whuber, che non dovrebbe mai essere sottovalutato).
Come accennato, negli esperimenti controllati evitiamo il bias di campionamento suddividendo casualmente i soggetti in gruppi di trattamento e controllo.
Nel bootstrap approssimiamo il campionamento ripetuto da una popolazione campionando casualmente con la sostituzione da un campione fisso. Questo ci consente di stimare la varianza delle nostre stime, tra le altre cose.
Nella convalida incrociata stimiamo l'errore fuori campione di una stima suddividendo casualmente i nostri dati in sezioni e assemblando set di test e training casuali.
Nei test di permutazione utilizziamo permutazioni casuali per campionare sotto l'ipotesi nulla, permettendo di eseguire test di ipotesi non parametrici in un'ampia varietà di situazioni.
Nel bagging controlliamo la varianza di una stima eseguendo ripetutamente la stima su campioni bootstrap di dati di allenamento e quindi calcolando la media dei risultati.
Nelle foreste casuali controlliamo ulteriormente la varianza di una stima anche campionando casualmente dai predittori disponibili in ogni punto di decisione.
Nella simulazione chiediamo a un modello di adattamento di generare casualmente nuovi set di dati che possiamo confrontare con i dati di addestramento o test, aiutando a convalidare l'adattamento e le ipotesi in un modello.
Nella catena di Markov Monte Carlo proviamo da una distribuzione esplorando lo spazio dei possibili risultati usando una catena di Markov (grazie a @Ben Bolker per questo esempio).
Queste sono solo le comuni applicazioni quotidiane che vengono subito in mente. Se scavassi in profondità, probabilmente avrei potuto raddoppiare la lunghezza di quella lista. La casualità è sia un importante oggetto di studio, sia uno strumento importante da maneggiare.