Noi sappiamo (per ora circa 40 anni, grazie Adleman, Bennet e Gill) che l'inclusione BPP P / poly, e uno ancora più forte BPP / poly P / hold poli. "/ Poli" significa che lavoriamo in modo non uniforme (un circuito separato per ogni lunghezza di ingresso ), mentre P senza questo "/ poli" significa che abbiamo una macchina di Turing per tutte le possibili lunghezze di ingresso , anche più lunghe di, diciamo, = il numero di secondi al prossimo "Big Bang".
Domanda 1: Quale novità una prova (o una confutazione) di BPP = P contribuirebbe alla nostra conoscenza dopo aver conosciuto BPP P / poly?
Con "nuovo" intendo qualsiasi conseguenza davvero sorprendente, come il collasso / la separazione di altre classi di complessità. Confrontalo con le conseguenze che la prova / disinformazione di NP P / poly offrirebbe.
[AGGIUNTO l'8.10.2017]: Una conseguenza davvero sorprendente di BPP P sarebbe che, come dimostrato da Impagliazzo e Wigderson , tutti i problemi (!) In E = DTIME avrebbero circuiti di dimensione . Grazie a Ryan per aver ricordato questo risultato.
Domanda 2: Perché non possiamo provare BPP = P lungo linee simili come la prova di BPP / poli P / poli?
Un ostacolo "ovvio" è la questione dei domini finiti contro infiniti: i circuiti booleani lavorano su domini finiti , mentre le macchine di Turing lavorano su tutto l'insieme di 0 - 1 stringhe di qualsiasi lunghezza. Quindi, per derandomizzare i circuiti booleani probabilistici, è sufficiente prendere la maggior parte delle copie indipendenti di un circuito probabilistico e applicare la disuguaglianza di Chernoff, insieme al limite sindacale. Naturalmente, su infiniti domini, questa semplice regola della maggioranza non funzionerà.
Ma questo (dominio infinito) è un vero "ostacolo"? Utilizzando i risultati di teoria dell'apprendimento statistico (VC dimensione), siamo già in grado di dimostrare che BPP / poly P / poly vale anche per i circuiti lavorano su infiniti domini, come i circuiti aritmetici (che lavorano su tutti i numeri reali); vedi ad esempio questo articolo di Cucker ad al. Quando si utilizza un approccio simile, tutto ciò di cui avremmo bisogno è dimostrare che la dimensione VC delle macchine Turing poli-tempo non può essere troppo grande. Qualcuno ha visto qualche tentativo di fare questo ultimo passo?
NOTA [aggiunto il 07.10.2017]: nel contesto della derandomizzazione, la dimensione VC di una classe di funzioni f : X → Y è definita come il numero massimo v per il quale ci sono funzioni f 1 , … , f v in F tale che per ogni S ⊆ { 1 , … , v } esiste un punto ( x , y ) ∈ X × Y con f i ( x sse i ∈ S . Cioè non frantumiamo gli insiemi di punti tramite funzioni ma piuttosto insiemi di funzioni tramite punti. (Le due definizioni risultanti della dimensione VC sono correlate, ma in modo esponenziale.)
I risultati (noti come convergenza uniforme nella probabilità ) implicano quindi quanto segue: se per ogni input , una funzione scelta casualmente f ∈ F (sotto una certa distribuzione di probabilità su F ) soddisfa P r o b { f ( x ) = f ( x ) } ≥ 1 / 2 + c per una costante c > 0 , allora f ( x ) può essere calcolato in tuttiIngressi come una maggioranza di circa m = O ( v ) (fisso) funzioni da F . Vedi, ad esempio, Corollary 2 nel documento di Haussler . [Perché ciò valga, ci sono alcune lievi condizioni di misurabilità su F. ]
Ad esempio, se è l'insieme di tutti i polinomi f : R n → R calcolabile da circuiti aritmetici di dimensione ≤ s , allora tutti i polinomi in F hanno grado al massimo D = 2 s . Usando i limiti superiori noti sul numero di schemi zero di polinomi (vedi, ad esempio, questo documento ), si può mostrare che la dimensione VC di F è O ( n log D ) = O ( n s ) . Ciò implica l'inclusione BPP / poly P/ poli per circuiti aritmetici.