In che modo il registro (p (x, y)) normalizza le informazioni reciproche puntuali?


9

Sto cercando di capire la forma normalizzata di informazioni reciproche puntuali.

npmi=pmi(x,y)log(p(x,y))

Perché la probabilità congiunta del log normalizza l'informazione reciproca puntuale tra [-1, 1]?

Le informazioni reciproche puntuali sono:

pmi=log(p(x,y)p(x)p(y))

p (x, y) è delimitato da [0, 1] quindi il log (p (x, y)) è delimitato da (, 0]. Sembra che il log (p (x, y)) dovrebbe in qualche modo bilanciare i cambiamenti in il numeratore, ma non capisco esattamente come. Mi ricorda anche l'entropia , ma di nuovo non capisco la relazione esatta.h=log(p(x))


Tanto per cominciare, le informazioni reciproche puntuali usano il logaritmo (non sono sicuro che sia un errore di battitura o che tu stia utilizzando un'altra quantità ).
Piotr Migdal

Risposte:


12

Dalla voce di Wikipedia su informazioni reciproche puntuali :

Le informazioni reciproche puntuali possono essere normalizzate tra [-1, + 1] risultando in -1 (nel limite) per non accadere mai insieme, 0 per indipendenza e +1 per ricorrenza simultanea.

Perché succede? Bene, la definizione di informazione reciproca puntuale è

pmilog[p(x,y)p(x)p(y)]=logp(x,y)logp(x)logp(y),

mentre per le informazioni reciproche puntuali normalizzate è:

npmipmilogp(x,y)=log[p(x)p(y)]logp(x,y)1.

Quando ci sono:

  • logp(x,y)
  • logp(x,y)=log[p(x)p(y)]
  • logp(x,y)=logp(x)=logp(y)

[1,1]

1

[1,1]

logp(x,y)logp(x,y))logp(x)logp(y)=logp(x,y)p(x)p(y)=:pmi(x;y)=logp(y|x)+logp(y|x)logp(x,y)logp(x,y)
logp(A)0Ah(x,y):=logp(x,y)
1nmpi(x;y):=mpi(x;y)h(x,y)1.

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.