Quali sono i tuoi esempi preferiti in cui la teoria dell'informazione viene utilizzata per dimostrare in modo semplice un'affermazione combinatoria accurata? Alcuni esempi a cui riesco a pensare sono legati a limiti inferiori per codici decodificabili localmente, ad esempio, in questo documento: supponiamo che per un gruppo di stringhe binarie …
Informalmente parlando, la complessità di Kolmogorov di una stringa è la lunghezza di un programma più breve che genera . Possiamo definire una nozione di 'stringa casuale' usandola ( è casuale se ) È facile vedere che la maggior parte delle stringhe sono casuali (non ci sono così tanti programmi …
Questa domanda è stata posta a Jeannette Wing dopo la sua presentazione PCAST sull'informatica . "Dal punto di vista della fisica, esiste un volume massimo di informazioni che possiamo avere?" (Una bella domanda di sfida per la comunità teorica dell'informatica poiché penso che faccia sorgere la domanda "Che cos'è l'informazione?") …
La complessità del prefisso di Kolmogorov (ovvero è la dimensione del programma di auto-delimitazione minimo che genera ) ha diverse caratteristiche interessanti:xK( x )K(x)K(x)Xxx Corrisponde all'intuizione di dare alle stringhe con schemi o struttura una complessità inferiore rispetto alle stringhe senza. Esso ci permette di definire la complessità condizionale , …
Sto cercando codici di correzione degli errori del seguente tipo: codici binari a tasso costante, decodificabile da una frazione costante di errori, da un decodificatore implementabile come circuito booleano di dimensione , dove N è la lunghezza di codifica.O ( N)O(N)O(N)NNN Alcuni retroscena: Spielman, in Codici di correzione errori codificabili …
Il codice Huffman per una distribuzione di probabilità ppp è il prefisso con la lunghezza media ponderata minima della parola chiave ∑piℓi∑piℓi\sum p_i \ell_i , dove ℓiℓi\ell_i è la lunghezza della iii parola in codice. È un noto teorema che la lunghezza media per simbolo del codice Huffman è compresa …
Nella teoria dell'informazione quantistica, la distanza tra due canali quantistici viene spesso misurata usando la norma del diamante. Esistono anche diversi modi per misurare la distanza tra due stati quantistici, come la distanza della traccia, la fedeltà, ecc. L' isomorfismo di Jamiołkowski fornisce una dualità tra canali quantistici e stati …
La complessità delle informazioni è stata uno strumento molto utile nella complessità della comunicazione, utilizzata principalmente per limitare la complessità della comunicazione dei problemi distribuiti. Esiste un analogo della complessità delle informazioni per la complessità delle query? Esistono molti parallelismi tra complessità della query e complessità della comunicazione; spesso (ma …
Nell'implementazione di un filtro Bloom, l'approccio tradizionale richiede più funzioni hash indipendenti. Kirsch e Mitzenmacher hanno dimostrato che in realtà ne hai solo bisogno di due, e puoi generare il resto come combinazioni lineari. La mia domanda è: qual è, davvero, la differenza tra due funzioni hash e una con …
Molti di noi hanno familiarità con - o almeno hanno sentito parlare - dell'entropia di Shannon di una variabile casuale, H(X)=−E[logp(X)]H(X)=−E[logp(X)]H(X) = -\mathbb{E} \bigl[ \log p(X)\bigr] e di tutte le relative misure teoriche dell'informazione come l'entropia relativa, informazioni reciproche e così via. Ci sono alcune altre misure di entropia che …
Lemma: Supponendo che eta-equivalenza lo abbiamo (\x -> ⊥) = ⊥ :: A -> B. Prova: ⊥ = (\x -> ⊥ x)per eta-equivalenza e (\x -> ⊥ x) = (\x -> ⊥)per riduzione sotto la lambda. Il rapporto Haskell 2010, sezione 6.2 specifica la seqfunzione con due equazioni: seq :: …
Ultimamente ho avuto a che fare con algoritmi relativi alla compressione e mi chiedevo quale sia il miglior rapporto di compressione che può essere raggiunto con la compressione dei dati senza perdita di dati. Finora, l'unica fonte che ho potuto trovare su questo argomento era la Wikipedia: La compressione senza …
Il popolare algoritmo DEFLATE utilizza la codifica Huffman in cima a Lempel-Ziv. In generale, se disponiamo di una fonte di dati casuale (= 1 bit entropia / bit) , è probabile che nessuna codifica, incluso Huffman, li comprima in media. Se Lempel-Ziv fosse "perfetto" (che si avvicina alla maggior parte …
Ci sono ricercatori che dimostrano che la cancellazione di un bit deve consumare energia, ora sono state fatte ricerche sul consumo medio di energia dell'algoritmo con complessità computazionale ? Immagino che la complessità computazionale F ( n ) sia correlata al consumo medio di energia, spero di ottenere qualche risposta …
Sto cercando un balzo sul entropia della somma di due variabili aleatorie discrete indipendenti X e Y . Naturalmente, H ( X + Y ) ≤ H ( X ) + H ( Y ) ( ∗ ) Tuttavia, applicato alla somma di n variabili casuali indipendenti di Bernoulli Z …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.