Dimostrare o confutare: BPP (0.90,0,95) = BPP


8

Mi piacerebbe molto il tuo aiuto per provare o smentire il seguente reclamo: BPP(0.90,0.95)=BPP. Nella teoria della complessità computazionale, BPP, che sta per tempo polinomiale probabilistico ad errore limitato è la classe di problemi di decisione risolvibili da una macchina di Turing probabilistica in tempo polinomiale, con una probabilità di errore al massimo13 per tutti i casi. BPP=BPP(13,23).

Non è immediato che uno qualsiasi degli insiemi sia un sottoinsieme dell'altro, poiché se la probabilità di un errore è minore di 0.9 non deve essere più piccolo di 13 e se è più grande di 23 non deve essere più grande di 0.905.

Sto cercando di usare la disuguaglianza di Chernoff per dimostrare l'affermazione, non sono sicuro di come. Mi piacerebbe davvero il tuo aiuto. Esiste un reclamo generale riguardo a queste relazioni che posso usare?


Non sono sicuro del significato della notazione BPP (x, y). È accettata una stringa non nella lingua con probabilità non maggiore di x e una stringa nella lingua con probabilità maggiore di y?
Matt Lewis

Esatto, hai ragione.
Numeratore

4
Suggerimento: se corri n prove su una stringa che non è nella tua lingua, qual è la probabilità che più di es .9 n+cndi loro accetta la stringa? Se corrin prove su una stringa che è nella lingua, qual è la probabilità che meno di .95 ncndi loro rifiuta la stringa? Cosa succede alle tue probabilità di accettazione / rifiuto se corrin prove e dire 'accetta qualsiasi stringa accettata da più di .925 n corre ", come n?
Steven Stadnicki,

4
Il suggerimento di Steven Stadnicki è di dimostrarlo BPP(0.9,0.95)BPP(1/3,2/3). Per l'altra direzione, mostraloBPP(1/3,2/3)BPP(ϵ,1ϵ) per ogni ϵ. Allo stesso modo puoi dimostrarloBPP=BPP(α,β) per eventuali costanti 0<α<β<1.
Yuval Filmus

Risposte:


12

Espandere il mio commento in una risposta: la forma moltiplicativa del limite di Chernoff dice che se l'aspettativa X=i=0nXi per la somma di variabili binarie casuali indipendenti è μ, quindi la probabilità di allontanarsi "troppo lontano" da tale aspettativa va come: Pr(X>(1+δ)μ)<(eδ(1+δ)(1+δ))μ.

Ora, immagina una procedura in cui, data una stringa σ per testare, corriamo n prove della nostra BPP(0.90,0.95) algoritmo (per alcuni n da scegliere in seguito) e accettare almeno iff 0.925n di questi processi accettano σ. Possiamo usare il limite di Chernoff per trovare la probabilità di fallimento in termini din come segue:

Permettere Xi denota il risultato di iil processo, e quindi X=Xiil numero di prove riuscite. Possiamo presumere in modo conservativo che la nostra probabilità di falsi positivi sia.9; questo significa che se lo facciamon prove indipendenti su una stringa σL, il numero previsto di successi è μ=E(X)=0.9n. (Si noti che una probabilità falsa positiva inferiore a.9 porterà a un valore atteso ancora più basso e quindi a limiti ancora più stretti sulle stime a venire.) Ora, diamo un'occhiata alla probabilità che abbiamo più di 0.925n falsi positivi (cioè quello X>0.925n). Prendiamoδ=(0.9250.9)1=136; poi (eδ(1+δ)(1+δ)).99961<29993000 e così abbiamo Pr(X>0.925n)<(29993000)0.9n.

Da qui dovrebbe essere chiaro che prendendo n abbastanza grande possiamo ridurre questa probabilità a <13. Pertanto, per questo sufficientemente granden, se accettiamo la stringa σ solo se il numero di prove riuscite su σ è più grande di .925n, quindi la nostra probabilità di accettare una stringa σL scende al di sotto 13. Si noti che questonè costante , non dipende dalla dimensione del nostro problema; dal momento che stiamo eseguendo il nostro polinomioBPP(0.9,0.95)algoritmo un numero costante di volte, il tempo di esecuzione totale della nostra nuova procedura è ancora polinomiale. Un'analisi simile che va nella direzione opposta mostrerà che la probabilità di un "falso negativo" (quelloX<.925n per una stringa che è nella nostra lingua) sarà delimitato da cn per alcuni c, e così ancora possiamo prendere n abbastanza grande da limitare la probabilità di un falso negativo di 13 (o, in altre parole, per garantire almeno 23 probabilità di accettare su una stringa σL). Questo dimostra cheBPP(.9,.95)BPP(13,23)BPPe il commento di Yuval mostra come dimostrare l'equivalenza inversa attraverso una procedura simile.

Canonicamente, questo è noto come amplificazione di probabilità ed è un metodo immensamente utile per gestire le classi probabilistiche. Le costanti specifiche sono meno importanti, ovviamente, quindi il fatto che il limite di Chernoff ci consenta di vincolare le nostre probabilità di "falso risultato" con una funzione esponenziale del numero di prove, quindi possono essere arbitrariamente ridotte con solo un numero modesto di prove.


2
In realtà non hai bisogno di Chernoff legato qui, è sufficiente Chebyshev.
Yuval Filmus

@YuvalFilmus Oh, certamente; da quando OP ha menzionato nello specifico Chernoff, ho pensato che avrei seguito quella strada e, a parte la forma scomoda della costante, in realtà l'IMHO è un po 'più semplice poiché non è necessario scavare i risultati (per quanto diretti possano essere) sulla varianza di una distribuzione binomiale.
Steven Stadnicki,
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.