Prawie dwie dekady temu byłby zdominowany przez system Windows 98 do XP, w tym NT4 i 2000 po stronie stacji roboczej / serwera.
Wszystkie dyski twarde byłyby również kablami magnetycznymi PATA lub SCSI, ponieważ dyski SSD kosztują więcej niż komputer, a SATA nie istnieje.
Jak mówi odpowiedź WooShell, niższe sektory logiczne na dysku (poza talerzem) są zwykle najszybsze. Moje dyski Velociraptor 1 TB WDC zaczynają się od 215 MB / s, ale w sektorach zewnętrznych spadają do 125 MB / s, co stanowi spadek o 40%. Jest to 2,5-calowy napęd talerza, więc większość dysków 3,5-calowych generalnie odnotowuje coraz większy spadek wydajności, większy niż 50% . Jest to główny powód utrzymywania małej partycji głównej, ale ma ona zastosowanie tylko wtedy, gdy partycja jest mała w stosunku do wielkości dysku.
Innym głównym powodem, dla którego partycja była mała, było użycie FAT32 jako systemu plików, który nie obsługiwał partycji większych niż 32 GB. Jeśli korzystałeś z systemu plików NTFS, partycje do 2 TB były obsługiwane przed Windows 2000, a następnie do 256 TB.
Jeśli partycja jest zbyt mała w stosunku do ilości danych, które zostaną zapisane, łatwiej jest zostać pofragmentowanym i trudniej defragmentować. Możesz po prostu zabraknąć miejsca, jak to się stało. Jeśli masz zbyt wiele plików w stosunku do rozmiarów partycji i klastra, zarządzanie tabelą plików może być problematyczne i wpływać na wydajność. Jeśli używasz woluminów dynamicznych do nadmiarowości, utrzymanie nadmiarowych woluminów tak małych, jak to konieczne, pozwoli zaoszczędzić miejsce na innych dyskach.
Dzisiaj jest inaczej, w pamięci masowej klienta dominują dyski flash SSD lub dyski magnetyczne z przyspieszeniem flash. Pamięć masowa jest na ogół obfita i łatwo jest dodać więcej do stacji roboczej, podczas gdy w dniach PATA mogło być tylko jedno nieużywane połączenie dysku dla dodatkowych urządzeń pamięci masowej.
Czy to wciąż dobry pomysł, czy ma jakieś zalety? To zależy od przechowywanych danych i sposobu zarządzania nimi. Moja stacja robocza C: ma tylko 80 GB, ale sam komputer ma ponad 12 TB przestrzeni dyskowej na wielu dyskach. Każda partycja zawiera tylko określony typ danych, a rozmiar klastra jest dopasowywany zarówno do typu danych, jak i rozmiaru partycji, co utrzymuje fragmentację na poziomie zbliżonym do 0 i zapobiega nadmiernemu zwiększeniu MFT.
Zmniejszeniem jest to, że jest nieużywane miejsce, ale wzrost wydajności bardziej niż kompensuje, a jeśli chcę więcej miejsca, dodaję więcej dysków. C: zawiera system operacyjny i często używane aplikacje. P: zawiera rzadziej używane aplikacje i jest dyskiem SSD 128 GB o niższej klasie trwałości zapisu niż C :. T: znajduje się na mniejszym dysku SLC SSD i zawiera pliki tymczasowe użytkownika i systemu operacyjnego, w tym pamięć podręczną przeglądarki. Pliki wideo i audio są zapisywane w pamięci magnetycznej, podobnie jak obrazy maszyn wirtualnych, kopie zapasowe i zarchiwizowane dane, zwykle mają one rozmiar klastra 16 KB lub większy, a odczyt / zapis jest zdominowany przez dostęp sekwencyjny. Uruchamiam defragmentację tylko raz w roku na partycjach o dużej objętości zapisu, a wykonanie całego systemu zajmuje około 10 minut.
Mój laptop ma tylko jeden dysk SSD 128 GB i inny przypadek użycia, więc nie mogę zrobić tego samego, ale nadal dzielę się na 3 partycje, C: (80 GB OS i programy), T: (8 GB temp) i F: ( 24 GB plików użytkownika), który dobrze kontroluje fragmentację bez marnowania miejsca, a laptop zostanie wymieniony na długo, zanim zabraknie mi miejsca. Ułatwia także tworzenie kopii zapasowych, ponieważ F: zawiera jedyne ważne dane, które regularnie się zmieniają.