Il principio Minimax di Yao sugli algoritmi di Monte Carlo


22

PXAPDRA

minAAEcost(A,D)maxxXEcost(R,x)for all D and R.

Principalmente il principio di Yao riguarda solo gli algoritmi di Las Vegas , ma può essere generalizzato agli algoritmi di Monte Carlo come segue. dove indica il costo degli algoritmi Monte Carlo che errano al massimo . c o s t ε (

12minAAEcost2ϵ(A,D)maxxXEcostϵ(R,x)for all DR and ϵ[0,1/2]
costϵ(,)ϵ

Nel documento originale di Yao , la relazione per gli algoritmi Monte Carlo è fornita in Teorema 3 senza prove. Qualche suggerimento per provarlo?

Risposte:


6

Questo è solo un lungo commento sulla risposta di Marcos, usando la sua notazione. Non sono in grado di seguire i dettagli del suo argomento, e quello che segue è piuttosto breve e facile.

,

Aq(A)xd(x)ϵ(A,x)=xd(x)Aq(A)ϵ(A,x)λ.

Il fatto sopra e la disuguaglianza di Markov implicano .Aβ(2λ)q(A)1/2

Quindi otteniamo:

maxxAq(A)r(A,x)xd(x)Aq(A)r(A,x)=Aq(A)xd(x)r(A,x)Aβ(2λ)q(A)xd(x)r(A,x)(Aβ(2λ)q(A))minAβ(2λ)xd(x)r(A,x)12minAβ(2λ)xd(x)r(A,x)

8

Ci proverò su questo. Userò la notazione originale di Yao. In questo modo sarà più facile contrastare con la sua carta e le sue definizioni.

Permettetemi essere un insieme finito di ingressi, e lasciate A 0 un insieme finito di algoritmi deterministici che può riuscire a dare una risposta corretta per alcuni input. Consenti anche se fornisce la risposta corretta per , e altrimenti. Indica anche con il numero di query fatte da sull'input , o equivalentemente, la profondità dell'albero decisionale diIA0A x ϵ ( A , x ) = 1 r ( A , x ) A x Aϵ(A,x)=0Axϵ(A,x)=1r(A,x)AxA

Costo medio: data una distribuzione di probabilità su , il costo medio di un algoritmo è .I A A 0 C ( A , d ) = x I d ( x ) r ( A , x )dIAA0C(A,d)=xId(x)r(A,x)

Complessità distributiva: Let . Per qualsiasi distribuzione sugli input, sia il sottoinsieme di dato da . La complessità distributiva con errore per un problema computazionale è definita come .d β ( λ ) A 0 β ( λ ) = { A : A A 0 , x I d ( x ) ϵ ( A , x ) λ } λ P F 1 , λ ( P ) = max d min A βλ[0,1]dβ(λ)A0β(λ)={A:AA0,xId(x)ϵ(A,x)λ}λPF1,λ(P)=maxdminAβ(λ)C(A,d)

λ -tolerance: q A 0 λ max x IA A 0 q ( A ) ϵ ( A , x ) λ una distribuzione sulla famiglia è -tolerant if .qA0λmaxxIAA0q(A)ϵ(A,x)λ

Costo previsto: per un algoritmo randomizzato , sia una distribuzione di probabilità che è -tollerante su . Il costo atteso di per un dato input è .q λ A 0 R x E ( R , x ) = A A 0 q ( A ) r ( A , x )RqλA0RxE(R,x)=AA0q(A)r(A,x)

Complessità casuale: Let . La complessità randomizzata con errore è .λ F 2 , λ = min R max x I E ( R , x )λ[0,1]λF2,λ=minRmaxxIE(R,x)

Ora siamo pronti per entrare in affari. Ciò che vogliamo dimostrare è una distribuzione sugli input e un algoritmo randomizzato (cioè una distribuzione su )R q A 0dRqA0

Il principio Minimax di Yao per gli algoritmi di Montecarlo per .λ[0,1/2]

maxxIE(R,x)12minAβ(2λ)C(A,d)
λ[0,1/2]

Seguirò un approccio dato da Fich, Meyer auf der Heide, Ragde e Wigderson (vedi Lemma 4). Il loro approccio non produce una caratterizzazione per gli algoritmi di Las Vegas (solo il limite inferiore), ma è sufficiente per i nostri scopi. Dalla loro prova, è facile vedere che per qualsiasi eIA0I

Rivendicazione 1. .maxxIE(R,x)minAA0C(A,d)

Per ottenere i numeri corretti lì, faremo qualcosa di simile. Dato che la distribuzione di probabilità data dall'algoritmo randomizzato è -tollerante su abbiamo che Se sostituiamo la famiglia conR λ A 0 λqRλA0A0β(2λ)

λmaxxI{AA0q(A)ϵ(A,x)}xId(x)AA0q(a)ϵ(A,x)=AA0q(a)xId(x)ϵ(A,x)minAA0{xId(x)ϵ(A,x)}.
A0β(2λ) Lo vediamo

λmaxxI{AA0q(A)ϵ(A,x)}maxxI{Aβ(2λ)q(A)ϵ(A,x)}xId(x)Aβ(2λ)q(a)ϵ(A,x)=Aβ(2λ)q(a)xId(x)ϵ(A,x)minAβ(2λ){12xId(x)ϵ(A,x)},

dove segue la seconda disuguaglianza perché e l'ultima disuguaglianza è data dalla definizione di dove la somma divisa per 2 non può essere maggiore di . Quindi, β(2λ)A0β(2λ)λ

maxxI{AA0q(A)ϵ(A,x)}12minAβ(2λ){xId(x)ϵ(A,x)}.

Notando che mappato su e mappato su e la rivendicazione 1 sopra, ora possiamo tranquillamente sostituire la funzione nella disuguaglianza sopra con per ottenere la disuguaglianza desiderata.ϵ{0,1}rNϵr(A,x)


C'è una breve spiegazione per la provenienza del fattore 2?
Robin Kothari,

in breve, deriva dalla definizione di . La somma nella definizione divisa per 2 è al massimo . β(2λ)λ
Marcos Villagra,

qualcosa mi sembra strano. per definizione, quindi perché il min? maxAβ(2λ)){12xId(x),ϵ(A,x)}λ
Sasho Nikolov,

e non capisco l'ultima frase. come hai fatto un intero argomento su e poi lo hai sostituito con ? ϵr
Sasho Nikolov,

per quanto riguarda la tua prima domanda, ho aggiunto ulteriori dettagli.
Marcos Villagra,
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.