Le risposte precedenti sono sbagliate di un ordine di grandezza!
Il miglior algoritmo di compressione con cui ho esperienza personale è paq8o10t (vedi pagina zpaq e PDF ).
Suggerimento: il comando per comprimere files_or_folders sarebbe come:
paq8o10t -5 archive files_or_folders
Fonte: utilità di backup e archiviazione incrementali per l'inserimento nel journal
Puoi trovare un mirror del codice sorgente su GitHub .
Un algoritmo di compressione leggermente migliore, e vincitore del Premio Hutter , è decomp8 (vedi link nella pagina dei premi). Tuttavia, non esiste un programma di compressione che è possibile effettivamente utilizzare.
Per file molto grandi lrzip può raggiungere rapporti di compressione semplicemente comici .
Un esempio da README.benchmarks:
Prendiamo sei alberi del kernel una versione a parte come tarball, da linux-2.6.31 a linux-2.6.36. Questi mostreranno molte informazioni ridondanti, ma a parte centinaia di megabyte, che lrzip sarà molto bravo a comprimere. Per semplicità, verranno confrontati solo 7z poiché è di gran lunga il miglior compressore per uso generale al momento:
Questi sono benchmark eseguiti su un Intel Core2 dual core da 2,53 Ghz con ram da 4 GB utilizzando lrzip v0.5.1. Si noti che era in esecuzione con uno spazio utenti a 32 bit, quindi era possibile solo l'indirizzamento da 2 GB. Tuttavia, il benchmark è stato eseguito con l'opzione -U che consente di trattare l'intero file come un'unica finestra di compressione.
Tarball di 6 alberi del kernel consecutivi.
Compression Size Percentage Compress Decompress
None 2373713920 100 [n/a] [n/a]
7z 344088002 14.5 17m26s 1m22s
lrzip 104874109 4.4 11m37s 56s
lrzip -l 223130711 9.4 05m21s 1m01s
lrzip -U 73356070 3.1 08m53s 43s
lrzip -Ul 158851141 6.7 04m31s 35s
lrzip -Uz 62614573 2.6 24m42s 25m30s