Qualitivamente cos'è l'entropia incrociata


15

Questa domanda fornisce una definizione quantitativa dell'entropia crociata, in termini di formula.

Sto cercando una definizione più nozionale, Wikipedia dice:

Nella teoria dell'informazione, l'entropia incrociata tra due distribuzioni di probabilità misura il numero medio di bit necessari per identificare un evento da un insieme di possibilità, se uno schema di codifica viene utilizzato in base a una data distribuzione di probabilità q, piuttosto che alla distribuzione "vera" p .

Ho enfatizzato la parte che mi sta dando problemi nel capire questo. Vorrei una bella definizione che non richiede una comprensione separata (preesistente) di Entropy.


1
Si sta chiedendo una definizione di croce -entropy che, allo stesso tempo, definirà l'entropia stessa. E intuitivamente così ... Se hai problemi a comprendere il concetto di Entropia stesso, sarebbe una buona idea prima capire il concetto di base e poi una qualsiasi delle sue estensioni.
Alecos Papadopoulos,

1
Personalmente ho avuto una conoscenza di base di Entropy (anche se sono passati quasi 12 mesi da quando l'ho applicato). Ma un'espressione quantitativa di Entropia, dovrebbe rientrare in un breve paragrafo, e l'entropia incrociata dovrebbe prenderne solo un'altra. Quindi penso che una buona risposta possa includere entrambi, in modo che il lettore non debba fare riferimento altrove per capirlo.
Lyndon White,

Risposte:


23

Per codificare un evento che si verifica con probabilità sono necessari almeno i log 2 ( 1 / p ) bit (perché? Vedere la mia risposta su "Qual è il ruolo del logaritmo nell'entropia di Shannon?" ).plog2(1/p)

Quindi nella codifica ottimale la lunghezza media del messaggio codificato è cioè l'entropiadiShannondella distribuzione di probabilità originale.

ipilog2(1pi),

Tuttavia, se per la distribuzione di probabilità si utilizza una codifica ottimale per una diversa distribuzione di probabilità Q , la lunghezza media del messaggio codificato è i p i code_length ( i ) = i p i log 2 ( 1PQ èentropia incrociata, che è maggiore diipilog2(1

ipicode_length(i)=ipilog2(1qi),
.ipilog2(1pi)

Ad esempio, considera l'alfabeto di quattro lettere (A, B, C, D), ma con A e B che hanno la stessa frequenza e C e D non compaiono affatto. Quindi la probabilità è .P=(12,12,0,0)

Quindi, se vogliamo codificarlo in modo ottimale, codifichiamo A come 0 e B come 1, quindi otteniamo un bit di messaggio codificato per una lettera. (Ed è esattamente l'entropia di Shannon della nostra distribuzione di probabilità.)

Ma se abbiamo la stessa probabilità , ma la codifichiamo in base alla distribuzione dove tutte le lettere sono ugualmente probabilmente Q = ( 1PQ=(14,14,14,14)


Bella spiegazione, grazie. Tuttavia, la definizione di Wikipedia è sum_i [p_i * log (q_i)]. L'uso di 1 / q_i fornisce il numero di stati possibili, quindi log_2 lo converte nel numero di bit necessari per codificare un singolo simbolo, ma la pagina di Wikipedia descrive qualcosa di leggermente diverso.
redcalx,

4
@locster In Wikipedia ha il segno meno prima della somma, che equivale ad avere 1/qio, come log(1/qio)=-log(qio).
Piotr Migdal,
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.