Tutte le stringhe di codice Morse sono decifrabili in modo univoco? Senza gli spazi, ......-...-..---.-----.-..-..-.. potrebbe essere, Hello Worldma forse la prima lettera è un 5: in effetti sembra molto improbabile che una sequenza arbitraria di punti e trattini debba avere una traduzione unica. Si potrebbe eventualmente usare la disuguaglianza …
Questa idea mi è venuta in mente da bambino che impara a programmare e al primo incontro con PRNG. Non so ancora quanto sia realistico, ma ora c'è lo scambio di stack. Ecco uno schema di 14 anni per un incredibile algoritmo di compressione: Prendi un PRNG e seminalo con …
Secondo Wikipedia : L'entropia di Shannon misura le informazioni contenute in un messaggio in contrapposizione alla parte del messaggio determinata (o prevedibile). Esempi di quest'ultimo includono la ridondanza nella struttura del linguaggio o le proprietà statistiche relative alle frequenze di occorrenza di coppie di lettere o di parole, terzine, ecc. …
Di 'che devo simulare la seguente distribuzione discreta: P(X=k)={12N,1−12N,if k=1if k=0P(X=k)={12N,if k=11−12N,if k=0 P(X = k) = \begin{cases} \frac{1}{2^N}, & \text{if $k = 1$} \\ 1 - \frac{1}{2^N}, & \text{if $k = 0$} \end{cases} Il modo più ovvio è disegnare bit casuali e verificare se tutti sono uguali a (o …
Ho un file contenente numeri binari ordinati da a :2 n - 10002n−12n−12^n - 1 0000000000 0000000001 0000000010 0000000011 0000000100 ... 1111111111 7z non ha compresso questo file in modo molto efficiente (per n = 20, 22 MB sono stati compressi a 300 kB). Esistono algoritmi in grado di riconoscere …
Sto leggendo il libro: " Codice: il linguaggio nascosto dell'hardware e del software del computer " e nel capitolo 2 l'autore dice: Si dice che il codice Morse sia un codice binario (che significa letteralmente due per due) perché i componenti del codice sono costituiti solo da due cose: un …
Di recente mi sono imbattuto nel seguente interessante articolo che afferma di comprimere in modo efficiente insiemi di dati casuali sempre più del 50%, indipendentemente dal tipo e dal formato dei dati. Fondamentalmente usa i numeri primi per costruire in modo univoco una rappresentazione di blocchi di dati a 4 …
Confrontando una coppia ordinata (x, y) con una coppia non ordinata {x, y} (set), quindi le informazioni teoricamente, la differenza è solo un bit, come se x viene prima o y richiede esattamente un singolo bit per rappresentare. Quindi, se ci viene dato un set {x, y} in cui x, …
Per crittografare un messaggio con un tasto per una sola volta k , fai E n c ( m 1 , k ) = m 1 ⊕ k .m1m1m_1kkkEnc(m1,k)=m1⊕kEnc(m1,k)=m1⊕kEnc(m_1,k) = m_1 \oplus k Se usi lo stesso per crittografare un messaggio diverso m 2 ottieni E n c ( m …
Hai una matrice di elementi distinti. Hai accesso a un comparatore (una funzione di scatola nera che prende due elementi e e restituisce vero iff ) e una fonte di bit veramente casuale (una funzione di scatola nera che non prende argomenti e restituisce un bit casuale uniformemente indipendente). Considera …
Stavo leggendo degli algoritmi di compressione dei dati e il limite teorico per la compressione dei dati. Recentemente ho incontrato un metodo di compressione chiamato "Codifica di entropia combinatoria", l'idea principale di questo metodo è di codificare il file come i caratteri presentati nel file, le loro frequenze e l'indice …
Secondo Wikipedia : Informalmente, dal punto di vista della teoria dell'informazione algoritmica, il contenuto informativo di una stringa è equivalente alla lunghezza della rappresentazione autonoma più corta possibile di quella stringa. Qual è l'analoga definizione rigorosa informale di "informazioni utili"? Perché le "informazioni utili" non sono considerate il concetto più …
La specifica di qualsiasi griglia 9x9 arbitraria richiede di indicare la posizione e il valore di ciascun quadrato. Una codifica ingenua per questo potrebbe dare 81 triplette (x, y, valore), che richiedono 4 bit per ogni x, y e valore (1-9 = 9 valori = 4 bit) per un totale …
Data una stringa di valori , l'entropia di Shannon nella base di log arriva a . Da quanto ho capito, nella base l'entropia di Shannon arrotondata per eccesso è il numero minimo di bit in binario per rappresentare un singolo dei valori.AAAAAAAABCAAAAAAAABCAAAAAAAABC2220.9220.9220.922222 Tratto dall'introduzione su questa pagina di Wikipedia: https://en.wikipedia.org/wiki/Entropy_%28information_theory%29 …
Attualmente sto scrivendo del codice per generare dati binari. Ho specificamente bisogno di generare numeri a 64 bit con un dato numero di bit impostati; più precisamente, la procedura dovrebbe richiedere alcuni 0<n<640<n<640 < n < 64 e restituire un numero pseudo-casuale a 64 bit con esattamente nnn bit impostati …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.