Domande taggate «it.information-theory»

Domande nella teoria dell'informazione



3
Qual è il volume di informazioni?
Questa domanda è stata posta a Jeannette Wing dopo la sua presentazione PCAST ​​sull'informatica . "Dal punto di vista della fisica, esiste un volume massimo di informazioni che possiamo avere?" (Una bella domanda di sfida per la comunità teorica dell'informatica poiché penso che faccia sorgere la domanda "Che cos'è l'informazione?") …

5
Varianti calcolabili in modo efficiente della complessità di Kolmogorov
La complessità del prefisso di Kolmogorov (ovvero è la dimensione del programma di auto-delimitazione minimo che genera ) ha diverse caratteristiche interessanti:xK( x )K(x)K(x)Xxx Corrisponde all'intuizione di dare alle stringhe con schemi o struttura una complessità inferiore rispetto alle stringhe senza. Esso ci permette di definire la complessità condizionale , …



3
C'è qualche legame tra la norma del diamante e la distanza degli stati associati?
Nella teoria dell'informazione quantistica, la distanza tra due canali quantistici viene spesso misurata usando la norma del diamante. Esistono anche diversi modi per misurare la distanza tra due stati quantistici, come la distanza della traccia, la fedeltà, ecc. L' isomorfismo di Jamiołkowski fornisce una dualità tra canali quantistici e stati …

1
Complessità informativa degli algoritmi di query?
La complessità delle informazioni è stata uno strumento molto utile nella complessità della comunicazione, utilizzata principalmente per limitare la complessità della comunicazione dei problemi distribuiti. Esiste un analogo della complessità delle informazioni per la complessità delle query? Esistono molti parallelismi tra complessità della query e complessità della comunicazione; spesso (ma …


5
L'utilità delle entropie di Renyi?
Molti di noi hanno familiarità con - o almeno hanno sentito parlare - dell'entropia di Shannon di una variabile casuale, H(X)=−E[logp(X)]H(X)=−E[log⁡p(X)]H(X) = -\mathbb{E} \bigl[ \log p(X)\bigr] e di tutte le relative misure teoriche dell'informazione come l'entropia relativa, informazioni reciproche e così via. Ci sono alcune altre misure di entropia che …

4
L'equivalenza eta per le funzioni è compatibile con l'operazione seq di Haskell?
Lemma: Supponendo che eta-equivalenza lo abbiamo (\x -> ⊥) = ⊥ :: A -> B. Prova: ⊥ = (\x -> ⊥ x)per eta-equivalenza e (\x -> ⊥ x) = (\x -> ⊥)per riduzione sotto la lambda. Il rapporto Haskell 2010, sezione 6.2 specifica la seqfunzione con due equazioni: seq :: …




3
Sull'entropia di una somma
Sto cercando un balzo sul entropia della somma di due variabili aleatorie discrete indipendenti X e Y . Naturalmente, H ( X + Y ) ≤ H ( X ) + H ( Y ) ( ∗ ) Tuttavia, applicato alla somma di n variabili casuali indipendenti di Bernoulli Z …

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.