Mamy katalog plików rzadkich ( du
zwraca 240M dla jednego z tych plików; ls
zwraca 960M).
Kiedy kopiujemy jeden z tych plików do S3, w końcu przesyłamy cały 960M, a po pobraniu z S3 du
zwraca teraz pełny 960M.
Próbowaliśmy gzip
pingować, co zmniejsza rozmiary wysyłania / pobierania; ale wyodrębniony rozmiar nadal wynosi 960M (używa du
).
Czy jest jakiś sposób na przekonwertowanie tych plików z powrotem na rzadkie pliki?
best way to backup and restore a directory of sparse files
-> rsync