Tu chiedi:
- È davvero fattibile come suggerito dagli autori? Secondo il documento, i loro risultati sono molto efficienti e comprimono sempre i dati a dimensioni inferiori. Le dimensioni del dizionario non saranno enormi?
Sì, naturalmente. Anche per il loro esempio scelto a mano ("THE QUICK SILVER FOX SALTA SUL CANE PIENO"), non ottengono la compressione, perché il dizionario contiene ogni sottostringa a 4 byte del testo (meno 4 byte per la ripetizione di " IL ") ... e la versione" compressa "del testo deve includere l'intero dizionario più tutta questa merda con numeri primi.
- Non potrebbe essere usato per ricomprimere iterativamente i dati compressi usando lo stesso algoritmo? È ovvio, ed è stato dimostrato, che tali tecniche (in cui i dati compressi vengono ricompressi il maggior numero di volte possibile, riducendo drasticamente la dimensione del file) sono impossibili; in effetti, non vi sarebbe alcuna biiezione tra l'insieme di tutti i dati casuali e i dati compressi. Allora, perché ti sembra possibile?
Ancora una volta sembra che tu abbia una buona comprensione intuitiva della situazione. Hai intuitivamente capito che nessuno schema di compressione può mai essere efficace su tutti gli input, perché se lo fosse, potremmo semplicemente applicarlo più e più volte per comprimere qualsiasi input fino a un singolo bit - e quindi al nulla!
Per dirla in altro modo: una volta compressi tutti i tuoi file .wav in .mp3, non otterrai alcun miglioramento nella dimensione dei file comprimendoli. Se il tuo compressore MP3 ha fatto il suo lavoro, non rimarrà alcun motivo per sfruttare il compressore ZIP.
(Lo stesso vale per la crittografia: se prendo un file di zero e lo crittografo secondo il mio algoritmo crittografico di scelta, è meglio che il file risultante non sia comprimibile , altrimenti il mio algoritmo di crittografia perde "modello" nel suo output!)
- Anche se la tecnica non è ancora perfetta, può ovviamente essere ottimizzata e fortemente migliorata. Perché questo non è più conosciuto / studiato? Se davvero queste affermazioni e risultati sperimentali fossero veri, questo non potrebbe rivoluzionare l'informatica?
Queste affermazioni e risultati sperimentali non sono veri.
Come già notato da Tom van der Zanden, l '"algoritmo di compressione" di Chakraborty, Kar e Guchait è imperfetto in quanto non solo non raggiunge alcun rapporto di compressione, ma è anche irreversibile (in mathspeak, "non biiettivo"): ci sono una moltitudine di testi che "comprimono" tutti sulla stessa immagine, perché il loro algoritmo è sostanzialmente la moltiplicazione e la moltiplicazione è commutativa.
Dovresti stare bene che la tua comprensione intuitiva di questi concetti ti abbia portato immediatamente alla giusta conclusione. E, se puoi risparmiare tempo, dovresti provare pietà per gli autori dell'articolo che hanno chiaramente trascorso molto tempo a pensare all'argomento senza capirlo affatto.
La directory dei file a un livello sopra l'URL che hai pubblicato contiene 139 "documenti" di questa stessa qualità, tutti apparentemente accettati nei "Atti della Conferenza internazionale sulla ricerca emergente in informatica, informazione, comunicazione e applicazioni". Questa sembra essere una falsa conferenza del solito tipo. Lo scopo di tali conferenze è consentire agli accademici fraudolenti di reclamare la "pubblicazione su una rivista", consentendo allo stesso tempo agli organizzatori senza scrupoli di fare un sacco di soldi. (Per ulteriori informazioni su conferenze false, dai un'occhiata a questo thread reddit o a vari post StackExchange sull'argomento .) Esistono conferenze fittizie in tutti i campi. Impara solo a fidarti del tuo istinto e a non credere a tutto ciò che leggi in un "procedimento della conferenza", e farai bene.