Ho difficoltà a sviluppare alcune intuizioni sull'entropia articolare. = incertezza nella distribuzione congiunta ; = incertezza in ; = incertezza in .p ( x , y ) H ( X ) p x ( x ) H ( Y ) p y ( y )
Se H (X) è alto, la distribuzione è più incerta e se si conosce il risultato di tale distribuzione, si hanno più informazioni! Quindi H (X) quantifica anche le informazioni.
Ora possiamo mostrare
Ma se conosci puoi ottenere e quindi in un certo senso ha più informazioni di entrambi e , quindi non dovresti ' L'incertezza relativa a p (x, y) è maggiore della somma delle singole incertezze?p x ( x ) p y ( y ) p ( x , y ) p x ( x ) p y ( y )