Domande taggate «it.information-theory»

Domande nella teoria dell'informazione


2
Risultati della codifica dei canali usando la complessità di Kolmogorov
Di solito l'entropia di Shannon viene utilizzata per dimostrare i risultati della codifica dei canali. Anche per i risultati di separazione canale-sorgente viene utilizzata l'entropia shannon. Data l'equivalenza tra Shannon (globale) e Kolmogorov (locale) nozioni di informazione, c'è stato uno studio per utilizzare la complessità di Kolmogorov per questi risultati …

1
Distinguere tra
Dato uno stato quantico scelto uniformemente a caso da un insieme di N stati misti ρ 1 . . . ρ N , qual è la massima probabilità media di identificare correttamente A ?ρUNρA\rho_ANNNρ1...ρNρ1...ρN\rho_1 ... \rho_NAAA Questo problema può essere trasformato in un problema di distinguibilità in due stati considerando …

1
Un semplice (?) Divertente problema combinatorio!
Risolviamo e un numero intero .0<E<10<E<100 per qualsiasi e per qualsiasi vettore \ bar {c} \ in [0,1] ^ n tale che \ sum_ {i \ in [n]} c_i \ geq E \ times nnnnc¯∈[0,1]nc¯∈[0,1]n\bar{c} \in [0,1]^n∑i∈[n]ci≥E×n∑i∈[n]ci≥E×n\sum_{i\in [n]} c_i \geq E \times n Ac¯:=|{S⊆[n]:∑i∈S ci≥E×t}|≥(E×nt)Ac¯:=|{S⊆[n]:∑i∈S ci≥E×t}|≥(E×nt)A_{\bar{c}} :=|\{ S \subseteq [n] …



2
Un contrario alla disuguaglianza di Fano?
La disuguaglianza di Fano può essere dichiarata in molte forme e una particolarmente utile è dovuta (con una piccola modifica) a Oded Regev : Sia XXX una variabile casuale e sia Y=g(X)Y=g(X)Y = g(X) dove g(⋅)g(⋅)g(\cdot) è un processo casuale. Supponi l'esistenza di una procedura fff che dato y=g(x)y=g(X)y = …

2
Numerazione del sottoinsieme
Correzione k≥5k≥5k\ge5 . Per ogni abbastanza grande nnn, vorremmo etichettare tutti i sottoinsiemi di {1..n}{1..n}\{1..n\} di dimensioni esattamente n/kn/kn/k da numeri interi positivi da {1...T}{1...T}\{1...T\} . Vorremmo che questa etichettatura soddisfasse la seguente proprietà: esiste un insieme SSS di numeri interi, st Se sottoinsiemi di dimensione n / k non …



1
Funzione theta di Lovasz e grafici regolari (cicli dispari in particolare) - connessioni alla teoria spettrale
Il post è relativo a: /mathpro/59631/lovasz-theta-function-and-independence-number-of-product-of-simple-odd-cycles Quanto è lontano il Lovasz legato alla capacità di errore zero dei grafici regolari? Ci sono esempi in cui il limite di Lovasz è noto per non essere uguale alla capacità di errore zero di un grafico normale? (Questa è stata risposta di seguito …

3
Esiste una generalizzazione della teoria dell'informazione a informazioni polinomialmente conoscibili?
Mi scuso, questa è una domanda "delicata". La teoria dell'informazione non ha alcun concetto di complessità computazionale. Ad esempio, un'istanza di SAT o un'istanza di SAT più un bit che indica soddisfacibilità portano la stessa quantità di informazioni. C'è un modo per formalizzare il concetto di "polinomialmente conoscibile"? Una tale …


1
L'entropia di una distribuzione rumorosa
Supponiamo che abbiamo una funzione tale che ∀ x ∈ Z n 2f:Zn2→Rf:Z2n→Rf:\mathbb{Z}_2^n \to \mathbb{R} efè una distribuzione, cioè,Σx∈Z n 2 f(x)=1.∀x∈Zn2f(x)∈{12n,22n,…,2n2n},∀x∈Z2nf(x)∈{12n,22n,…,2n2n},\forall x\in \mathbb{Z}_2^n \quad f(x) \in \left\{\frac{1}{2^n}, \frac{2}{2^n}, \ldots, \frac{2^n}{2^n} \right\},fff∑x∈Zn2f(x)=1∑x∈Z2nf(x)=1\sum_{x\in \mathbb{Z}_2^n} f(x) = 1 L'entropia di Shannon di è definita come segue: H ( f ) = - …


Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.