Supponiamo di avere una funzione , tale che ∑ x ∈ Z n 2 f ( x ) 2 = 1 (quindi possiamo pensare a { f ( x ) 2 } x ∈ Z n 2 come una distribuzione) . È naturale definire l'entropia di una tale funzione come …
Di solito l'entropia di Shannon viene utilizzata per dimostrare i risultati della codifica dei canali. Anche per i risultati di separazione canale-sorgente viene utilizzata l'entropia shannon. Data l'equivalenza tra Shannon (globale) e Kolmogorov (locale) nozioni di informazione, c'è stato uno studio per utilizzare la complessità di Kolmogorov per questi risultati …
Dato uno stato quantico scelto uniformemente a caso da un insieme di N stati misti ρ 1 . . . ρ N , qual è la massima probabilità media di identificare correttamente A ?ρUNρA\rho_ANNNρ1...ρNρ1...ρN\rho_1 ... \rho_NAAA Questo problema può essere trasformato in un problema di distinguibilità in due stati considerando …
Risolviamo e un numero intero .0<E<10<E<100 per qualsiasi e per qualsiasi vettore \ bar {c} \ in [0,1] ^ n tale che \ sum_ {i \ in [n]} c_i \ geq E \ times nnnnc¯∈[0,1]nc¯∈[0,1]n\bar{c} \in [0,1]^n∑i∈[n]ci≥E×n∑i∈[n]ci≥E×n\sum_{i\in [n]} c_i \geq E \times n Ac¯:=|{S⊆[n]:∑i∈S ci≥E×t}|≥(E×nt)Ac¯:=|{S⊆[n]:∑i∈S ci≥E×t}|≥(E×nt)A_{\bar{c}} :=|\{ S \subseteq [n] …
Lavoro in un laboratorio di neuroscienze computazionale che quantifica le informazioni reciproche tra coppie o gruppi di neuroni. Di recente, il capo si è concentrato sulla misurazione della "complessità della dinamica neurale". Nel perseguire quella linea di ricerca, alcune persone del mio gruppo sembrano equiparare "complesso" a "ha un'entropia elevata". …
Attualmente sto cercando un argomento per una tesi e ho incontrato il campo della teoria dell'informazione algoritmica. Il campo mi sembra molto interessante, ma sembra che tutto sia finito prima di molti anni. Quindi la mia domanda è: il campo è "vivo" o è praticamente chiuso? Ha domande aperte? Grazie
La disuguaglianza di Fano può essere dichiarata in molte forme e una particolarmente utile è dovuta (con una piccola modifica) a Oded Regev : Sia XXX una variabile casuale e sia Y=g(X)Y=g(X)Y = g(X) dove g(⋅)g(⋅)g(\cdot) è un processo casuale. Supponi l'esistenza di una procedura fff che dato y=g(x)y=g(X)y = …
Correzione k≥5k≥5k\ge5 . Per ogni abbastanza grande nnn, vorremmo etichettare tutti i sottoinsiemi di {1..n}{1..n}\{1..n\} di dimensioni esattamente n/kn/kn/k da numeri interi positivi da {1...T}{1...T}\{1...T\} . Vorremmo che questa etichettatura soddisfasse la seguente proprietà: esiste un insieme SSS di numeri interi, st Se sottoinsiemi di dimensione n / k non …
Nel documento Su due problemi della teoria dell'informazione , Erdõs e Rényi danno limiti più bassi al numero minimo di pesature che uno deve fare per determinare il numero di monete false in un set di monete.nnn Più formalmente: Le monete false hanno un peso inferiore rispetto alle monete giuste; …
Voglio iniziare a conoscere la codifica di rete: http://en.wikipedia.org/wiki/Network_coding Conosci qualche buon sondaggio (ad es. Da IEEE Surveys and Tutorials) sugli argomenti di cui sopra. Ho trovato alcuni corsi universitari su google, ma vorrei alcuni consigli da persone che hanno già letto e conosciuto una buona fonte. Grazie Vasilis
Il post è relativo a: /mathpro/59631/lovasz-theta-function-and-independence-number-of-product-of-simple-odd-cycles Quanto è lontano il Lovasz legato alla capacità di errore zero dei grafici regolari? Ci sono esempi in cui il limite di Lovasz è noto per non essere uguale alla capacità di errore zero di un grafico normale? (Questa è stata risposta di seguito …
Mi scuso, questa è una domanda "delicata". La teoria dell'informazione non ha alcun concetto di complessità computazionale. Ad esempio, un'istanza di SAT o un'istanza di SAT più un bit che indica soddisfacibilità portano la stessa quantità di informazioni. C'è un modo per formalizzare il concetto di "polinomialmente conoscibile"? Una tale …
Supponiamo che Alice abbia una distribuzione su un dominio finito (ma forse molto grande), in modo tale che l'entropia (Shannon) di μ sia limitata da una costante arbitrariamente piccola ε . Alice disegna un valore x da μ , quindi chiede a Bob (che conosce μ ) di indovinare x …
Supponiamo che abbiamo una funzione tale che ∀ x ∈ Z n 2f:Zn2→Rf:Z2n→Rf:\mathbb{Z}_2^n \to \mathbb{R} efè una distribuzione, cioè,Σx∈Z n 2 f(x)=1.∀x∈Zn2f(x)∈{12n,22n,…,2n2n},∀x∈Z2nf(x)∈{12n,22n,…,2n2n},\forall x\in \mathbb{Z}_2^n \quad f(x) \in \left\{\frac{1}{2^n}, \frac{2}{2^n}, \ldots, \frac{2^n}{2^n} \right\},fff∑x∈Zn2f(x)=1∑x∈Z2nf(x)=1\sum_{x\in \mathbb{Z}_2^n} f(x) = 1 L'entropia di Shannon di è definita come segue: H ( f ) = - …
Sia una variabile casuale che assume valori in (per alcuni grandi alfabeto ), che ha un'entropia molto alta - diciamo,per una costante arbitrariamente piccola . Sia un evento a supporto di tale che , dove \ varepsilon è una costante arbitrariamente piccola.XXXΣnΣn\Sigma^nΣΣ\SigmaH( X) ≥ ( n - δ) ⋅ log| …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.