Qual è la simulazione più veloce conosciuta di BPP usando gli algoritmi di Las Vegas?


10

BPP eZPP sono due delle classi di complessità probabilistica di base.

BPP è la classe di linguaggi decisa da algoritmi probabilistici di Turing a tempo polinomiale in cui la probabilità che l'algoritmo restituisca una risposta errata è limitata, ovvero la probabilità di errore è al massimo13 (per entrambe le istanze SÌ e NO).

D'altra parte, gli algoritmi ZPP possono essere visti come quegli algoritmi probabilistici che non restituiscono mai una risposta errata, ogni volta che restituiscono una risposta è corretta. Tuttavia, il loro tempo di esecuzione non è limitato da un polinomio, ma corrono nel polinomio previsto.

Sia ZPTime(f) la classe di linguaggio decisa da algoritmi probabilistici con probabilità di errore zero e tempo di esecuzione previsto f . Questi sono anche chiamati algoritmi di Las Vegas e ZPP=ZPTime(nO(1)) .

La mia domanda è: cosa è meglio conoscere la simulazione degli algoritmi BPP usando gli algoritmi di Las Vegas? Possiamo simularli in tempi previsti poco esponenziali? C'è qualche miglioramento noto rispetto alla banale simulazione della forza bruta che richiede tempo esponenziale?

Più formalmente, sappiamo se BPPZPTime(2O(nϵ)) o BPPZPTime(2nnϵ) per alcuni ϵ>0 ?


3
Qual è n, la lunghezza dell'input? Perché possiamo accettare in ? 2n
domotorp,

1
è la stessa cosa di 2 p o l y ( n ) . 2poly(n)nϵ2poly(n)
Emil Jeřábek,

2
Trovo la domanda abbastanza interessante. Ho modificato la domanda per renderla più leggibile e precisa. Sentiti libero di modificare ulteriormente. ps: Immagino che tu abbia probabilmente voluto prendere in considerazione polinomialmente molti bit casuali usati dall'algoritmo BPP come parametro per il tempo di simulazione, ma come Emil sottolinea ciò che hai scritto da . Se vuoi che devi sostituire BPP con una particolare classe di algoritmi probabilistici di errore limitati che hanno un parametro per il numero di bit casuali usati dall'algoritmo. 2poly(n)
Kaveh,

Puoi chiedere se possiamo simulare un algoritmo BPP che utilizza bit casuali in Z P T i m e ( 2 r ( n ) - n ϵ n O ( 1 ) ) poiché la simulazione della forza bruta gira in 2 r ( n ) n O ( 1 ) tempo. r(n)ZPTime(2r(n)nϵnO(1))2r(n)nO(1)
Kaveh,

Risposte:


13

Innanzitutto, osserva che se per qualche costante c , allora B P PN E X P . (Prova di una gerarchia temporale non deterministica). Dimostrare che una tale inclusione sarebbe significativa, non solo perché è una simulazione migliorata, ma porterebbe anche i primi progressi su limiti di tempo randomizzati inferiori in decenni.BPPZPTIME[2nc]cBPPNEXP

Quindi, considera la classe PromiseBPP , per cui il seguente problema è " -hard":PromiseBPP

Circuito ravvicinamento Probabilità Problemi (CAPP): Dato un circuito , uscita la probabilità di accettazione C entro un 1 / 6 fattore additivo.CC1/6

I risultati di Impagliazzo, Kabanets e Wigderson 2002 implicano che un algoritmo di errore zero a tempo per CAPP (dove n è la dimensione di C ) implicherebbe N E X PP / p o l y . In STOC'10, ho esteso questo per mostrare: supponendo che per ogni C con k bit di input e n dimensioni, si possa calcolare CAPP in modo non deterministico (quindi, è sufficiente l'errore zero) in 2 k - ω ( log k ) p o l y (2nεnCNEXPP/polyCkn tempo, quindi N E X PP / p o l y . Cioè, ci sono certamente problemi calcolabili con la casualità degli errori su due lati, per i quali algoritmi a errore zero che anche leggermente battere la ricerca esaustiva implicherebbero limiti inferiori del circuito. Credo che questo dovrebbe essere interpretato come un possibile metodo per dimostrare limiti inferiori; il tuo chilometraggio può variare.2kω(logk)poly(n)NEXPP/poly

Si noti che anche dimostrando è anche aperto, e dimostrando che implicherebbe anche limiti inferiori: da Kabanets e Impagliazzo 2004, se il test di identità polinomiale (a c o R P problema) è in Z P T I M E [ 2 n ε ] per tutto ε > 0 , quindi abbiamo limiti inferiori per il permanente o N E X PRPZPTIME[2nε]coRPZPTIME[2nε]ε>0NEXP. Recentemente (prossimo a STOC'13), ho dimostrato incondizionatamente che o I M E [ 2 n ] dispone n c circuiti dimensioni, basandosi sul metodo "facile testimone" di Kabanets. Ciò implica due cose: o R TBPPioZPTIME[2nε]/nεRTIME[2n]nc

  1. C'è una tale che per tutti ε > 0 , R P è incondizionatamente in i o Z P T I M E [ 2 n ε ] / n c - si tratta della migliore derandomizzazione incondizionata dicε>0RPioZPTIME[2nε]/nc in Z P P che conosciamo finora.RP/BPPZPP

  2. Per iniziare a ottenere interessanti simulazioni subexponential di , devi "solo" assumere RBPP non abbia circuiti a dimensione polinomiale fissa.RTIME[2n]


Grazie a Niel per il tempo dedicato a rendere leggibile la mia risposta :)
Ryan Williams

2
Ryan, penso che sto per fare una domanda molto stupida, ma eccomi qui: nella tua prima frase, perché hai bisogno di "per tutti "? Il sottoinsieme BPP di ZPTIME (2 ^ (n ^ c)) per alcuni c fissi implica un sottoinsieme BPP di RTIME (2 ^ (n ^ c)) e quindi NTIME (2 ^ (n ^ c)), quindi BPP è non uguale a NEXP o altrimenti NTIME (2 ^ (2n ^ c)) è un sottoinsieme di NTIME (2 ^ (n ^ c))? ϵ
Sasho Nikolov,

1
Non è affatto stupido - anzi, per qualche c è abbastanza per B P P N E X P , grazie per averlo sottolineato. Tuttavia, per le altre conseguenze sono necessari algoritmi temporali subesponenziali. BPPNTIME(2nc)cBPPNEXP
Ryan Williams,

Ryan: Se volessi capire il tuo articolo con quale libro / articoli sulla complessità dei circuiti mi consiglia di conoscere?
T ....

Ciao Arul, per fortuna Bill Gasarch mi ha fatto questa domanda qualche tempo fa e ha messo la seguente pagina web di link: cs.umd.edu/~gasarch/ryan/ryan.html
Ryan Williams

8

Dipende dalle ipotesi che sei disposto a fare.

In determinate ipotesi di durezza, ovvero , si ottiene che P = B P P . Questo in particolare implica che B P P = Z P P , e quindi che ogni lingua L BESIZE(2εn)P=BPPBPP=ZPP è accettata da una macchina di Las Vegas (vedi "P = BPP a meno che E non abbia Circuiti subsponenziali: Derandomizzazione del Lemma XOR", di Impagliazzo e Wigderson).LBPP

Puoi anche fare un'ipotesi di durezza più lieve, vale a dire che , e ottenere quella B P P = Z P P (vedi Lemma 46 in "Alla ricerca di un testimone facile: tempo esponenziale vs. tempo polinomiale probabilistico "di Impagliazzo, Kabanets e Wigderson).ZPEioDTIME(2εn)BPP=ZPP


4

Escludendo eventuali progressi nella derandomizzazione, mi sembra che il requisito che la macchina di Las Vegas non commetta errori sia cruciale, quindi in questo caso non c'è alcun vantaggio nell'avere la casualità.

Per un linguaggio BPP deciso da un adeguato algoritmo A , che agisce sugli input x { 0 , 1 } n e una stringa casuale r { 0 , 1 } N ( n ) che rappresenta le sue scelte casuali, il criterio di errore zero implica che la macchina di Las Vegas deve accertare con certezza quale dei due casi Pr r ( A  accetta  ( x , r ) ) 2LAx{0,1}nr{0,1}N(n) prese. Se non ci vengono fornite ulteriori informazioni suA, questo è essenzialmente un problema di promessa dell'oracolo: dato un oracoloAcalcolandoA(r)=A(x,r), e data la promessa cheAproduce un outputa{0,1}per almeno il doppio degli ingressi rispetto all'uscita opposta1-a, determina quale uscita è più comune.

Prr(A accepts (x,r))23orPrr(A accepts (x,r))13
AAA(r)=A(x,r)Aa{0,1}1a

Sebbene la macchina di Las Vegas possa usare tecniche casuali, se siamo davvero costretti a trattare come un oracolo, possiamo vedere che l'unica strategia disponibile per una macchina di Las Vegas è fare un sondaggio relativamente approfondito (anche se non esaustivo) del stringhe casuali r , per vedere quale risposta viene data per ciascuna. Può essere sicuro solo se trova più di 2 N ( n )Ar stringhe distinte r che danno origine allo stesso output; altrimenti, con una probabilità piccola (ma diversa da zero!), potrebbe essere sfortunato e ottenere un campione non rappresentativo dei possibili output. Per ottenere zero errori, deve campionare almeno 2 N ( n )2N(n)/3r ingressi r .2N(n)/3r

Poiché la macchina di Las Vegas deve ispezionare almeno una frazione costante di tutte le possibili stringhe casuali , asintoticamente non siamo meglio di se siamo deterministico provato tutte le possibili stringhe casuali. Non otteniamo alcun vantaggio asintotico nella simulazione casuale degli algoritmi BPP in un'impostazione a zero errori, al di là di ciò che possiamo fare in modo deterministico con la forza bruta.r

Si noti che questo stesso argomento dà origine a una separazione dell'oracolo tra BPP e ZPP , ovvero  esiste un oracolo tale che Z P P AB P P A perché l' algoritmo ZPP richiede tempo esponenziale, mentre un algoritmo BPP può risolvere la domanda su l'oracolo in una singola query e riesce con errore limitato. Tuttavia, non ti dice niente di più di quello che sospettavi già (che il sovraccarico della simulazione potrebbe essere peggiore del polinomio) né che gli asintotici siano altrettanto cattivi di una ingenua simulazione deterministica.A

ZPPABPPA

correggimi se sbaglio: stai fornendo alcuni ragionamenti intuitivi sul perché la derandomizzazione sembra impossibile, ma sappiamo che sotto alcune ipotesi ragionevoli BPP, ZPP e P sono la stessa cosa. quindi l'intuizione non è necessariamente positiva
Sasho Nikolov,

1
Affatto. La derandomizzazione sarebbe presumibilmente un'intuizione su come simulare BPP con P , no? Sto solo descrivendo come, se desidera risultati incondizionati che non sfruttano la struttura dell'algoritmo stesso, può anche eseguire una simulazione deterministica come uno randomizzato a errore zero. O c'è qualcosa che non va in questa spiegazione?
Niel de Beaudrap,

1
penso che tutto ciò che stai dicendo sia che l'ingenua simulazione della forza bruta di BPP da parte di ZPP non sia molto più veloce della ingenua simulazione della forza bruta di BPP da parte di P. ma non riesco a vedere cosa dovrebbe mostrare. per me questo è come se qualcuno chiedesse "qual è l'algoritmo più veloce per trovare la massima corrispondenza" e ottenere una risposta "bene, non riuscendo a capire meglio la struttura degli abbinamenti, è tempo esponenziale". la domanda è se esiste una conoscenza approfondita della struttura di BPP che rende possibile un'efficace simulazione ZPP
Sasho Nikolov,

1
@SashoNikolov: Non intendevo davvero essere una visione profonda. Dalla formulazione della domanda mi è sembrato un limite per la migrazione a CS.SE. Ho deciso di rispondere letteralmente, vale a dire: per quanto ne sappiamo , il tempo di esecuzione previsto più efficiente di Las Vegas Machine che accetta un linguaggio L∈BPP non è molto meglio di una macchina deterministica che esplora le possibilità della forza bruta. Risposte che affermano che potrebbe essere un limite superiore polinomiale se alcune condizioni sono eccellenti e istruttive, e io le voto a favore; ma mi rivolgo alla domanda reale.
Niel de Beaudrap,

1
Penso che questa sia una bella risposta (anche più leggibile ora dopo la modifica). Non abbiamo un risultato condizionale come "P = ZPP implica P = BPP" o "ZPP = BPP implica P = BPP", quindi è ancora possibile che possiamo simulare BPP dagli algoritmi ZP più velocemente che con algoritmi deterministici. Tuttavia, il risultato della relativizzazione sembra implicare che ciò non può avvenire con alcuna simulazione relativizzante, capisco correttamente?
Kaveh,
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.