Espandere il mio commento in una risposta: la forma moltiplicativa del limite di Chernoff dice che se l'aspettativa X=∑ni=0Xi per la somma di variabili binarie casuali indipendenti è μ, quindi la probabilità di allontanarsi "troppo lontano" da tale aspettativa va come: Pr(X>(1+δ)μ)<(eδ(1+δ)(1+δ))μ.
Ora, immagina una procedura in cui, data una stringa σ per testare, corriamo n prove della nostra BPP(0.90,0.95) algoritmo (per alcuni n da scegliere in seguito) e accettare almeno iff 0.925n di questi processi accettano σ. Possiamo usare il limite di Chernoff per trovare la probabilità di fallimento in termini din come segue:
Permettere Xi denota il risultato di iil processo, e quindi X=∑Xiil numero di prove riuscite. Possiamo presumere in modo conservativo che la nostra probabilità di falsi positivi sia.9; questo significa che se lo facciamon prove indipendenti su una stringa σ∉L, il numero previsto di successi è μ=E(X)=0.9n. (Si noti che una probabilità falsa positiva inferiore a.9 porterà a un valore atteso ancora più basso e quindi a limiti ancora più stretti sulle stime a venire.) Ora, diamo un'occhiata alla probabilità che abbiamo più di 0.925n falsi positivi (cioè quello X>0.925n). Prendiamoδ=(0.9250.9)−1=136; poi (eδ(1+δ)(1+δ))≈.99961<29993000 e così abbiamo Pr(X>0.925n)<(29993000)0.9n.
Da qui dovrebbe essere chiaro che prendendo n abbastanza grande possiamo ridurre questa probabilità a <13. Pertanto, per questo sufficientemente granden, se accettiamo la stringa σ solo se il numero di prove riuscite su σ è più grande di .925n, quindi la nostra probabilità di accettare una stringa σ∉L scende al di sotto 13. Si noti che questonè costante , non dipende dalla dimensione del nostro problema; dal momento che stiamo eseguendo il nostro polinomioBPP(0.9,0.95)algoritmo un numero costante di volte, il tempo di esecuzione totale della nostra nuova procedura è ancora polinomiale. Un'analisi simile che va nella direzione opposta mostrerà che la probabilità di un "falso negativo" (quelloX<.925n per una stringa che è nella nostra lingua) sarà delimitato da cn per alcuni c, e così ancora possiamo prendere n abbastanza grande da limitare la probabilità di un falso negativo di 13 (o, in altre parole, per garantire almeno 23 probabilità di accettare su una stringa σ∈L). Questo dimostra cheBPP(.9,.95)⊆BPP(13,23)≡BPPe il commento di Yuval mostra come dimostrare l'equivalenza inversa attraverso una procedura simile.
Canonicamente, questo è noto come amplificazione di probabilità ed è un metodo immensamente utile per gestire le classi probabilistiche. Le costanti specifiche sono meno importanti, ovviamente, quindi il fatto che il limite di Chernoff ci consenta di vincolare le nostre probabilità di "falso risultato" con una funzione esponenziale del numero di prove, quindi possono essere arbitrariamente ridotte con solo un numero modesto di prove.