Quali sono alcuni esempi importanti di derandomizzazione riuscita o almeno progressi nel mostrare prove concrete verso l' obiettivo (non la connessione della casualità della durezza)?
L'unico esempio che mi viene in mente è il test deterministico della primalità temporale polinomiale dell'AKS (anche per questo c'era una metodologia che presupponeva GRH). Quindi quali prove specifiche attraverso l'esempio abbiamo per la derandomizzazione (di nuovo non la durezza o la connessione dell'oracolo)?
Conservare esempi solo in cui è stato mostrato un miglioramento della complessità temporale da poli randomizzati a poli deterministici o qualcosa che è molto vicino per problemi specifici.
Di seguito è più di un commento e non so molto che aiuterà questa query.
Chazelle ha una dichiarazione molto intrigante in http://www.cs.princeton.edu/~chazelle/linernotes.html sotto "Il metodo di discrepanza: casualità e complessità (Cambridge University Press, 2000)".
'Per me è stata una fonte infinita di fascino che una comprensione più profonda del calcolo deterministico dovrebbe richiedere la padronanza della randomizzazione. Ho scritto questo libro per illustrare questa potente connessione. Dagli alberi minimi che vanno dalla programmazione lineare alla triangolazione di Delaunay, gli algoritmi più efficienti sono spesso derandomizzazioni di soluzioni probabilistiche. Il metodo della discrepanza pone i riflettori su una delle domande più fruttuose in tutta l'informatica: se pensi di aver bisogno di bit casuali, ti preghiamo di dirci perché? '