Domande taggate «information-theory»

Domande sulla teoria dell'informazione, entropia e contenuto informativo di varie fonti

8
Il codice Morse senza spazi è decifrabile in modo univoco?
Tutte le stringhe di codice Morse sono decifrabili in modo univoco? Senza gli spazi, ......-...-..---.-----.-..-..-.. potrebbe essere, Hello Worldma forse la prima lettera è un 5: in effetti sembra molto improbabile che una sequenza arbitraria di punti e trattini debba avere una traduzione unica. Si potrebbe eventualmente usare la disuguaglianza …











3
Differenza tra "informazione" e "informazione utile" nella teoria dell'informazione algoritmica
Secondo Wikipedia : Informalmente, dal punto di vista della teoria dell'informazione algoritmica, il contenuto informativo di una stringa è equivalente alla lunghezza della rappresentazione autonoma più corta possibile di quella stringa. Qual è l'analoga definizione rigorosa informale di "informazioni utili"? Perché le "informazioni utili" non sono considerate il concetto più …


3
Entropia di Shannon di 0,922, 3 valori distinti
Data una stringa di valori , l'entropia di Shannon nella base di log arriva a . Da quanto ho capito, nella base l'entropia di Shannon arrotondata per eccesso è il numero minimo di bit in binario per rappresentare un singolo dei valori.AAAAAAAABCAAAAAAAABCAAAAAAAABC2220.9220.9220.922222 Tratto dall'introduzione su questa pagina di Wikipedia: https://en.wikipedia.org/wiki/Entropy_%28information_theory%29 …


Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.