Każdy fragment musi być gdzieś śledzony. Wymaga to przestrzeni dyskowej (w ramach hydrauliki systemu plików, a nie rzeczy, do których masz bezpośredni dostęp).
Przykład: Załóżmy, że masz jeden plik z 1000 fragmentami. W ten sposób plik jest przechowywany przez zbiór losowych bloków. Zamiast pojedynczego ciągłego bloku. Oznacza to, że pofragmentowany plik wymaga 1000 razy więcej miejsca do przechowywania w instalacjach systemu plików, choćby do przechowywania adresów dla każdego fragmentu. Instalacja systemu plików utrzymuje małe słowniki / bazy danych / mapy / tabele / listę w lokalizacji każdego fragmentu pliku. Tak więc, dla hydrauliki systemu plików, przechowywanie listy wskaźnika pojedynczego fragmentu nie wymaga dużo miejsca, w porównaniu do listy 1000 wskaźników fragmentów.
Ale hej, może się mylę ...
Edycja: informacje pomocnicze stąd :
Gdy strumień danych nierezydenta jest zbyt rozdrobniony, tak że jego skuteczna mapa alokacji nie może całkowicie zmieścić się w rekordzie MFT, mapa alokacji może być również przechowywana jako strumień nierezydenta, z niewielkim strumieniem rezydentnym zawierającym alokację pośrednią odwzorować na skuteczną mapę alokacji nierezydenta strumienia danych nierezydenta.
Tłumaczenie: Jeśli masz duże rozdrobnienie, ogólne założenia dotyczące hydrauliki systemu plików nie będą miały zastosowania. W związku z tym FS musi podjąć kroki w celu dostosowania się do fragmentacji i ostatecznie kosztuje dodatkowe miejsce do przechowywania, po prostu w celu zarządzania fragmentami. Dokładnie zgaduję od samego początku.
Edycja: Biorąc pod uwagę powyższe, nadal wydaje się, że 10 GB jest tracone tylko z powodu fragmentacji plików jest szalone. Założę się, że podczas defragmentacji wystąpiło typowe uszkodzenie systemu plików, które zostało automatycznie poprawione. Myślę, że nie tylko miałeś duże rozdrobnienie, ale także częściowo usunięte pliki zajmujące miejsce. Byłoby miło zobaczyć dziennik scandisk z tej defragmentacji (lub serii scandisk przed defragmentacją)