Czy tarowanie wielu plików razem może poprawić kompresję za pomocą standardowych narzędzi, np. Gzip, bzip2, xz?
Od dawna myślałem, że tak jest, ale nigdy tego nie testowałem. Jeśli mamy 2 kopie tego samego pliku o wielkości 20 MB losowych bajtów tar, razem, sprytny program do kompresji, który zdaje sobie sprawę, że może skompresować cały plik tarball do prawie 20 MB.
Właśnie próbowałem tego eksperymentu przy użyciu gzip, bzip2 i xz do kompresji 1) pliku losowych bajtów, 2) tarballa dwóch kopii tego pliku i 3) kota dwóch kopii tego pliku. We wszystkich przypadkach kompresja nie zmniejszała rozmiaru pliku. Jest to oczekiwane w przypadku 1, ale w przypadkach 2 i 3 optymalnym rezultatem jest to, że plik 40 Mb może zostać zmniejszony do prawie 20 Mb. To trudny wgląd w program kompresji, szczególnie dlatego, że redundancja jest daleka, więc nie spodziewałbym się idealnego rezultatu, ale nadal myślałem, że będzie kompresja.
Test:
dd if=/dev/urandom of=random1.txt bs=1M count=20
cp random1.txt random2.txt
cat random1.txt random2.txt > random_cat.txt
tar -cf randoms.tar random1.txt random2.txt
gzip -k random* &
bzip2 -k random* &
xz -k random* &
wait
du -sh random*
Wynik:
20+0 records in
20+0 records out
20971520 bytes (21 MB) copied, 1.40937 s, 14.9 MB/s
[1] Done gzip -k random*
[2]- Done bzip2 -k random*
[3]+ Done xz -k random*
20M random1.txt
21M random1.txt.bz2
21M random1.txt.gz
21M random1.txt.xz
20M random2.txt
21M random2.txt.bz2
21M random2.txt.gz
21M random2.txt.xz
40M random_cat.txt
41M random_cat.txt.bz2
41M random_cat.txt.gz
41M random_cat.txt.xz
41M randoms.tar
41M randoms.tar.bz2
41M randoms.tar.gz
41M randoms.tar.xz
Czy to jest ogólnie to, czego powinienem się spodziewać?
Czy istnieje sposób na poprawę kompresji?