Limitare l'informazione reciproca dato limiti all'informazione reciproca puntuale


18

Supponiamo che io abbia due insiemi e e una distribuzione di probabilità congiunta su questi insiemi . Let e indicano le distribuzioni marginali oltre e rispettivamente.XYp(x,y)p(x)p(y)XY

Le informazioni reciproche tra e sono definite come: XY

I(X;Y)=x,yp(x,y)log(p(x,y)p(x)p(y))

cioè è il valore medio dell'informazione reciproca puntuale pmi .(x,y)log(p(x,y)p(x)p(y))

Supponiamo di conoscere i limiti superiore e inferiore di pmi : cioè so che per tutti x, y vale quanto segue: -k \ leq \ log \ left (\ frac {p (x, y)} {p ( x) p (y)} \ right) \ leq k(x,y)x,y

klog(p(x,y)p(x)p(y))k

Quale limite superiore implica questo su I(X;Y) . Ovviamente implica I(X;Y)k , ma vorrei un limite più stretto, se possibile. Questo sembra plausibile perché p definisce una distribuzione di probabilità, e pmi (x,y) non può assumere il suo valore massimo (o anche essere non negativo) per ogni valore di x ed y .


1
Quando le probabilità congiunte e marginali sono uniformi, pmi ( x , y ) è uniformemente zero (e quindi non negativo, apparentemente in contraddizione con la tua ultima affermazione, ma a malapena). Mi sembra, se non sbaglio, che perturbare questa situazione su piccoli sottoinsiemi di X×Y indica che i limiti su pmi non dicono quasi nulla di I(X;Y) stesso.
whuber

1
In effetti, se e sono indipendenti, allora è costante, indipendentemente dalle distribuzioni marginali. Quindi c'è tutta una classe di distribuzioni per i quali ottiene il suo valore massimo per ogni e . Y p m i ( x , y ) p ( x , y ) p m i ( x , y ) x yXYpmi(x,y)p(x,y)pmi(x,y)xy
cardinale il

Sì, è certamente vero che pmi può essere uguale per tutti ed , ma che non esclude un balzo stretto. Ad esempio, non è difficile dimostrare che . Questo è quando ed è un rafforzamento non banale del limite quando . Mi chiedo se ci siano limiti non banali che valgono più in generale. x y I ( X ; Y ) k ( e k - 1 ) k 2 k < 1 k k < 1(x,y)xyI(X;Y)k(ek1)k2k<1kk<1
Florian,

1
Sono dubbioso che otterrai un limite migliore di per . Se vuoi sembrare più difficile, prova a ri-inquadrare la tua domanda in termini di divergenza KL tra p (x) p (y) e p (x, y). La disuguaglianza di Pinsker fornisce un limite inferiore all'MI che potrebbe confermare il mio sospetto. Vedi anche la Sezione 4 di ajmaa.org/RGMIA/papers/v2n4/relog.pdf . k 0O(k2)k0
vqv,

Risposte:


5

Il mio contributo consiste in un esempio. Illustra alcuni limiti su come le informazioni reciproche possono essere delimitate dati limiti sulle informazioni reciproche puntuali.

Prendere e per tutti . Per ogni sia la soluzione all'equazione Quindi posizioniamo la massa dei punti in punti nello spazio prodotto in modo tale che ci siano di questi punti in ciascuna riga e ogni colonna. (Questo può essere fatto in diversi modi. Inizia, ad esempio, con i primi punti nella prima riga e quindi compila le righe rimanenti spostando lap ( x ) = 1 / n x X m { 1 , , n / 2 } k > 0 m e k + ( n - m ) e - k = n . e k / n 2 n m { 1 ,X=Y={1,,n}p(x)=1/nxXm{1,,n/2}k>0

mek+(nm)ek=n.
ek/n2nm m m m e - k / n 2 n 2 - n m n m{1,,n}2mmmpunta uno a destra con una condizione al contorno ciclica per ogni riga). Posizioniamo la massa punto nei restanti punti . La somma di queste masse di punti è quindi forniscono una misura di probabilità. Tutte le probabilità dei punti marginali sono quindi entrambe le distribuzioni marginali sono uniformi.ek/n2n2nmm
nmn2ek+n2nmn2ek=mek+(nm)ekn=1,
mn2ek+mnn2ek=1n,

Dalla costruzione è chiaro che per tutti e (dopo alcuni calcoli) con l'informazione reciproca che si comporta come per e come per .x , y { 1 , , n } I ( X ; Y ) = k n mpmi(x,y){k,k},x,y{1,,n}k2/2k0kk

I(X;Y)=knmn2ekkn2nmn2ek=k(1ekekek(ek+ek)ek),
k2/2k0kk


1

Non sono sicuro se questo è quello che stai cercando, poiché è per lo più algebrico e non sfrutta davvero le proprietà di p essendo una distribuzione di probabilità, ma qui è qualcosa che puoi provare.

A causa dei limiti di pmi, chiaramente e quindi . Possiamo sostituire in per ottenerep(x,y)p(x)p(y)ekp(x,y)p(x)p(y)ekp(x,y)io(X;Y)I(X;Y)x,yp(x)p(y)eklog(p(x)p(y)ekp(x)p(y))=x,yp(x)p(y)ekk

Non sono sicuro che sia utile o meno.

EDIT: Dopo un'ulteriore revisione credo che questo sia in realtà meno utile del limite superiore originale di k. Non lo eliminerò comunque nel caso in cui possa suggerire un punto di partenza.


Il valore di questo limite diventa evidente dopo aver notato e (da ) che . x,yp(x)p(y)=1k0ek1
whuber

Sì, quando mi sono reso conto di aver apportato la mia modifica.
Michael McGowan,
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.