BPP vs. P è un vero problema dopo che sappiamo che BPP si trova in P / poly?


16

Noi sappiamo (per ora circa 40 anni, grazie Adleman, Bennet e Gill) che l'inclusione BPP P / poly, e uno ancora più forte BPP / poly P / hold poli. "/ Poli" significa che lavoriamo in modo non uniforme (un circuito separato per ogni lunghezza di ingresso n ), mentre P senza questo "/ poli" significa che abbiamo una macchina di Turing per tutte le possibili lunghezze di ingresso n , anche più lunghe di, diciamo, n = il numero di secondi al prossimo "Big Bang".

Domanda 1: Quale novità una prova (o una confutazione) di BPP = P contribuirebbe alla nostra conoscenza dopo aver conosciuto BPP P / poly?

Con "nuovo" intendo qualsiasi conseguenza davvero sorprendente, come il collasso / la separazione di altre classi di complessità. Confrontalo con le conseguenze che la prova / disinformazione di NP P / poly offrirebbe.

[AGGIUNTO l'8.10.2017]: Una conseguenza davvero sorprendente di BPP P sarebbe che, come dimostrato da Impagliazzo e Wigderson , tutti i problemi (!) In E = DTIME [2O(n)] avrebbero circuiti di dimensione 2o(n) . Grazie a Ryan per aver ricordato questo risultato.

Domanda 2: Perché non possiamo provare BPP = P lungo linee simili come la prova di BPP / poli P / poli?

Un ostacolo "ovvio" è la questione dei domini finiti contro infiniti: i circuiti booleani lavorano su domini finiti , mentre le macchine di Turing lavorano su tutto l'insieme di 0 - 1 stringhe di qualsiasi lunghezza. Quindi, per derandomizzare i circuiti booleani probabilistici, è sufficiente prendere la maggior parte delle copie indipendenti di un circuito probabilistico e applicare la disuguaglianza di Chernoff, insieme al limite sindacale. Naturalmente, su infiniti domini, questa semplice regola della maggioranza non funzionerà. {0,1}01

Ma questo (dominio infinito) è un vero "ostacolo"? Utilizzando i risultati di teoria dell'apprendimento statistico (VC dimensione), siamo già in grado di dimostrare che BPP / poly P / poly vale anche per i circuiti lavorano su infiniti domini, come i circuiti aritmetici (che lavorano su tutti i numeri reali); vedi ad esempio questo articolo di Cucker ad al. Quando si utilizza un approccio simile, tutto ciò di cui avremmo bisogno è dimostrare che la dimensione VC delle macchine Turing poli-tempo non può essere troppo grande. Qualcuno ha visto qualche tentativo di fare questo ultimo passo?


NOTA [aggiunto il 07.10.2017]: nel contesto della derandomizzazione, la dimensione VC di una classe di funzioni f : X Y è definita come il numero massimo v per il quale ci sono funzioni f 1 , , f v in F tale che per ogni S { 1 , , v } esiste un punto ( x , y ) X × Y con f i ( xFf:XYvf1,,fvFS{1,,v}(x,y)X×Y sse i S . Cioè non frantumiamo gli insiemi di punti tramite funzioni ma piuttosto insiemi di funzioni tramite punti. (Le due definizioni risultanti della dimensione VC sono correlate, ma in modo esponenziale.)fi(x)=yiS

I risultati (noti come convergenza uniforme nella probabilità ) implicano quindi quanto segue: se per ogni input , una funzione scelta casualmente fF (sotto una certa distribuzione di probabilità su F ) soddisfa P r o b { f ( x ) = f ( x ) } 1 / 2 + c per una costante c > 0 , allora f ( x ) può essere calcolato in tuttixXfFFProb{f(x)=f(x)}1/2+cc>0f(x)Ingressi come una maggioranza di circa m = O ( v ) (fisso) funzioni da F . Vedi, ad esempio, Corollary 2 nel documento di Haussler . [Perché ciò valga, ci sono alcune lievi condizioni di misurabilità su F. ] xXm=O(v)FF

Ad esempio, se è l'insieme di tutti i polinomi f : R nR calcolabile da circuiti aritmetici di dimensione s , allora tutti i polinomi in F hanno grado al massimo D = 2 s . Usando i limiti superiori noti sul numero di schemi zero di polinomi (vedi, ad esempio, questo documento ), si può mostrare che la dimensione VC di F è O ( n log D ) = O ( n s ) . Ciò implica l'inclusione BPP / polyFf:RnRsFD=2sFO(nlogD)=O(ns) P/ poli per circuiti aritmetici.


3
Riguardo a Q1: un disproof mostrerebbe circuiti sorprendentemente piccoli per ogni problema risolvibile in 2 ^ (O (n)) tempo, da Impagliazzo-Wigderson (come probabilmente sapete?)
Ryan Williams

1
Sono confuso da Q2. Sembra ovvio che la dimensione VC di un poly-time TM è infinita. Cioè per ogni insieme finito e ogni S X esiste una MT polytime che accetta gli elementi di S e respinge gli elementi di X S . La cosa fondamentale è che X è finito, quindi la restrizione del tempo polimerico è sostanzialmente irrilevante. X{0,1}SXSXSX
Sasho Nikolov,

1
Per quanto riguarda il secondo trimestre, l'inclusione non ha molto a che fare con la classe di complessità e il potere computazionale penso, si tratta della quantità di bit casuali rispetto alla quantità di consigli, quindi non penso che ci dia alcuna informazione sulla natura di calcolo efficiente.
Kaveh,

1
@Kaveh: vale la pena di pensare al suggerimento "quantità di bit casuali rispetto alla quantità di consigli"! Ma nella mia mente (laica), anche in domande come P vs. NP, in realtà non ci interessa una costruzione "esplicita" di una TM (uniforme). Tali domande fanno solo domande sull'esistenza di algoritmi efficienti. Naturalmente, una costruzione è una prova "senza dubbio" dell'esistenza. Ma ci possono essere anche alcune prove meno dirette . Quindi, le cose si riducono all'estensione di "esistenza per ogni " a mostrare "esistenza per tutto n ". Cioè, da a . nn
Stasys,

1
Anche se correggi il tempo di esecuzione, VC-dim sarà infinito. Ciò che si può sperare di fare è di limitare il VC-dim del tempo TM limitato in esecuzione su dimensione input n . Ma se poi pensi all'argomento, dovresti prendere la maggior parte delle TM potenzialmente diverse per ogni n : non uniformità. Tnn
Sasho Nikolov,

Risposte:


17

Non sono sicuro di quanto sia una risposta, mi sto solo concedendo un po 'di riflessione.

La domanda 1 potrebbe essere posta allo stesso modo su P NP e con una risposta simile: le tecniche / idee utilizzate per dimostrare il risultato sarebbero la grande svolta più della conclusione stessa.

Per la domanda 2 voglio condividere alcuni retroscena e un pensiero. Praticamente tutte le tecniche e le idee che abbiamo per BPP = P, per quanto ne sappia, passano attraverso la "derandomizzazione": dato qualsiasi Turing Machine probabilistico di Polytime, costruisci un PRG per alimentarlo un gruppo di bit scelti in modo deterministico anziché casuale quelli, in modo tale che il suo comportamento sia molto simile al suo comportamento su bit veramente casuali. Quindi, con generatori pseudocasuali abbastanza buoni, otteniamo BPP = P. (Il "World of BPP = P" di Goldreich dimostra che qualsiasi prova di BPP = P deve essere equivalente a questo.)

Questo è praticamente sulla falsariga di BPP P / poly, tranne lì, il PRG è la stringa di consigli prodotta dalla magia. Forse la migliore risposta alla tua domanda 2 è che in P non abbiamo magia e dobbiamo inventare noi stessi la stringa di consigli. La derandomizzazione è anche l'idea alla base del risultato 2004 SL = L, usando strumenti come i grafici di espansione.

Ora considera ciò che una tale prova implicherebbe solo per un particolare algoritmo, il test di primalità di Miller-Rabin. Mostrerebbe l'esistenza di un generatore deterministico che seleziona una sequenza di numeri interi da alimentare al test di primalità di Miller-Rabin in modo tale che, se e solo se tutti gli interi fossero passati, il numero originale era primo.

A quanto ho capito (anche se non sono un esperto), la domanda se esiste un elenco di questo tipo e quanto possano essere piccoli i numeri in esso contenuti (in particolare se è sufficiente controllare tutti i numeri sotto alcuni limiti) sembra una domanda abbastanza profonda in teoria dei numeri ed è strettamente correlato alle forme di prova dell'ipotesi di Riemann generalizzata. Vedere questa domanda . Non penso che ci sia un'implicazione formale qui, ma non sembra qualcosa che ci aspettiamo di ottenere la prossima settimana come un corollario in miniatura accidentale di una costruzione di PRG molto più generale.


Pensieri interessanti! L'articolo di Oded suggerisce che il Q2 in effetti si riduce a "esistenza vs. costruzione" di PRG. Nella derandomizzazione tramite dimensione VC, gli aspetti algoritmici vengono completamente ignorati.
Stasys,

2
Grazie a tutti (Kaveh, Ricky, Ryan, Sasho e "usul"): ho imparato molto dai tuoi commenti. L '"uniformità" non è mai stata un problema nella mia vita, quindi l'ingenuità delle mie domande. Accetto la risposta di "usul". Completato da osservazioni molto interessanti di Kaveh, Ricky, Ryan e Sasho, questo risponde a entrambe le mie domande.
Stasys,
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.