Ci proverò su questo. Userò la notazione originale di Yao. In questo modo sarà più facile contrastare con la sua carta e le sue definizioni.
Permettetemi essere un insieme finito di ingressi, e lasciate A 0 un insieme finito di algoritmi deterministici che può riuscire a dare una risposta corretta per alcuni input. Consenti anche se fornisce la risposta corretta per , e altrimenti. Indica anche con il numero di query fatte da sull'input , o equivalentemente, la profondità dell'albero decisionale diIA0A x ϵ ( A , x ) = 1 r ( A , x ) A x Aϵ(A,x)=0Axϵ(A,x)=1r(A,x)AxA
Costo medio: data una distribuzione di probabilità su , il costo medio di un algoritmo è .I A ∈ A 0 C ( A , d ) = ∑ x ∈ I d ( x ) ⋅ r ( A , x )dIA∈A0C(A,d)=∑x∈Id(x)⋅r(A,x)
Complessità distributiva: Let . Per qualsiasi distribuzione sugli input, sia il sottoinsieme di dato da . La complessità distributiva con errore per un problema computazionale è definita come .d β ( λ ) A 0 β ( λ ) = { A : A ∈ A 0 , ∑ x ∈ I d ( x ) ⋅ ϵ ( A , x ) ≤ λ } λ P F 1 , λ ( P ) = max d min A ∈ βλ∈[0,1]dβ(λ)A0β(λ)={A:A∈A0,∑x∈Id(x)⋅ϵ(A,x)≤λ}λPF1,λ(P)=maxdminA∈β(λ)C(A,d)
λ -tolerance: q A 0 λ max x ∈ I ∑ A ∈ A 0 q ( A ) ⋅ ϵ ( A , x ) ≤ λ una distribuzione sulla famiglia è -tolerant if .qA0λmaxx∈I∑A∈A0q(A)⋅ϵ(A,x)≤λ
Costo previsto: per un algoritmo randomizzato , sia una distribuzione di probabilità che è -tollerante su . Il costo atteso di per un dato input è .q λ A 0 R x E ( R , x ) = ∑ A ∈ A 0 q ( A ) ⋅ r ( A , x )RqλA0RxE(R,x)=∑A∈A0q(A)⋅r(A,x)
Complessità casuale: Let . La complessità randomizzata con errore è .λ F 2 , λ = min R max x ∈ I E ( R , x )λ∈[0,1]λF2,λ=minRmaxx∈IE(R,x)
Ora siamo pronti per entrare in affari. Ciò che vogliamo dimostrare è una distribuzione sugli input e un algoritmo randomizzato (cioè una distribuzione su )R q A 0dRqA0
Il principio Minimax di Yao per gli algoritmi di Montecarlo
per .λ∈[0,1/2]
maxx∈IE(R,x)≥12minA∈β(2λ)C(A,d)
λ∈[0,1/2]
Seguirò un approccio dato da Fich, Meyer auf der Heide, Ragde e Wigderson (vedi Lemma 4). Il loro approccio non produce una caratterizzazione per gli algoritmi di Las Vegas (solo il limite inferiore), ma è sufficiente per i nostri scopi. Dalla loro prova, è facile vedere che per qualsiasi eIA0I
Rivendicazione 1. .maxx∈IE(R,x)≥minA∈A0C(A,d)
Per ottenere i numeri corretti lì, faremo qualcosa di simile. Dato che la distribuzione di probabilità data dall'algoritmo randomizzato è -tollerante su abbiamo che
Se sostituiamo la famiglia conR λ A 0 λqRλA0A0β(2λ)
λ≥maxx∈I{∑A∈A0q(A)⋅ϵ(A,x)}≥∑x∈Id(x)∑A∈A0q(a)⋅ϵ(A,x)=∑A∈A0q(a)∑x∈Id(x)⋅ϵ(A,x)≥minA∈A0{∑x∈Id(x)⋅ϵ(A,x)}.
A0β(2λ) Lo vediamo
λ≥maxx∈I{∑A∈A0q(A)⋅ϵ(A,x)}≥maxx∈I⎧⎩⎨∑A∈β(2λ)q(A)⋅ϵ(A,x)⎫⎭⎬≥∑x∈Id(x)∑A∈β(2λ)q(a)⋅ϵ(A,x)=∑A∈β(2λ)q(a)∑x∈Id(x)⋅ϵ(A,x)≥minA∈β(2λ){12∑x∈Id(x)⋅ϵ(A,x)},
dove segue la seconda disuguaglianza perché e l'ultima disuguaglianza è data dalla definizione di dove la somma divisa per 2 non può essere maggiore di . Quindi,
β(2λ)⊆A0β(2λ)λ
maxx∈I{∑A∈A0q(A)⋅ϵ(A,x)}≥12minA∈β(2λ){∑x∈Id(x)⋅ϵ(A,x)}.
Notando che mappato su e mappato su e la rivendicazione 1 sopra, ora possiamo tranquillamente sostituire la funzione nella disuguaglianza sopra con per ottenere la disuguaglianza desiderata.ϵ{0,1}rNϵr(A,x)