Sto cercando di capire la forma normalizzata di informazioni reciproche puntuali.
Perché la probabilità congiunta del log normalizza l'informazione reciproca puntuale tra [-1, 1]?
Le informazioni reciproche puntuali sono:
p (x, y) è delimitato da [0, 1] quindi il log (p (x, y)) è delimitato da (, 0]. Sembra che il log (p (x, y)) dovrebbe in qualche modo bilanciare i cambiamenti in il numeratore, ma non capisco esattamente come. Mi ricorda anche l'entropia , ma di nuovo non capisco la relazione esatta.