Un'estensione del limite di Chernoff


13

Sto cercando un riferimento (non una prova, che posso fare) alla seguente estensione di Chernoff.

Lasciate X1,..,Xn essere variabili casuali booleane, non necessariamente indipendenti . Invece, è garantito che Pr(Xi=1|C)<p per ogni i ogni evento C che dipende solo da {Xj|ji} .

Pr(i[n]Xi>(1+λ)np)

Grazie in anticipo!

Risposte:


26

Quello che vuoi è il limite Chernoff generalizzato, che assume solo per qualsiasi sottoinsieme S di indici variabili. Quest'ultimo segue dal tuo presupposto, poiché per , Impagliazzo e Kabanets hanno recentemente fornito una prova alternativa del limite di Chernoff, incluso quello generalizzato. Nel loro documento puoi trovare tutti i riferimenti appropriati ai lavori precedenti: http://www.cs.sfu.ca/~kabanets/papers/RANDOM2010.pdfS = { i 1 , , i | S | } P ( i S X i ) = P ( X i 1 = 1 ) P ( X i 2 = 1 | X i 1 = 1 ) PP(iSXi)p|S|S={i1,,i|S|}

P(iSXi)=P(Xi1=1)P(Xi2=1|Xi1=1)P(Xi|S|=1|Xi1,...,Xi|S|1=1)p|S|

Grazie per il chiarimento! In effetti, la loro condizione è implicata sia da ciò che ho sia da correlazioni negative. Quindi, è davvero qualitativamente più forte (in qualche modo ho perso quel punto quando ho sentito le parole di Valentine). Ora la prova di ciò di cui ho bisogno diventa così breve, che contrassegno volentieri la mia domanda come risposta, grazie mille !!
curioso

3
Nel tuo caso, puoi semplicemente creare un sub-martingale dalle tue variabili e utilizzare la disuguaglianza della Azuma classica con lo stesso effetto. Perché questo funzioni, hai solo bisogno che che è implicito nel tuo presupposto. Pr[Xi=1|X1,,Xi1]<p
MCH

7

Le cose più vicine di cui sono a conoscenza in letteratura sono estensioni dei limiti di Chernoff a variabili casuali negativamente correlate, ad esempio vedere questo o questo . Formalmente, la tua condizione potrebbe essere soddisfatta senza la correlazione negativa, ma l'idea è simile.

Poiché la tua generalizzazione non è difficile da dimostrare, potrebbe essere che nessuno si sia preoccupato di scriverlo.


Hai ragione, quello era anche il più vicino che ho trovato (in "Concentrazione ... per l'analisi di ... algoritmi"). Il fatto è che il mio manoscritto sta diventando troppo lungo, mi piacerebbe evitare l'ennesimo spin-off, se possibile. In caso contrario, non avrò altra scelta ...
curioso

3
ecco a cosa servono le appendici :)
Lev Reyzin

2
Ehi, ragazzi, è stato dimostrato prima e ho dato un riferimento nella mia risposta (a dove potete trovare anche tutti gli altri riferimenti pertinenti).
Dana Moshkovitz,

Oops - fantastico. In qualche modo non ho notato la tua risposta!
Lev Reyzin

3

Un riferimento alternativo potrebbe essere Lemma 1.19 in B. Doerr, Analizzare l'euristica della ricerca randomizzata: Strumenti dalla teoria della probabilità, Teoria dell'euristica della ricerca randomizzata (A. Auger e B. Doerr, eds.), World Scientific Publishing, 2011, pp. 1- 20.

Xi=1piX1,,Xi1X1,,XnY1,,Ynp1,,pn, rispettivamente. La prova è elementare e il risultato è naturale, quindi immagino che nessuno abbia sentito il bisogno di scriverlo.

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.