Robię konfigurację dużej farmy pamięci masowej i aby uniknąć potrzeby miesięcznego fscks, moim planem jest podzielenie pamięci masowej na wiele mniejszych systemów plików (to dobrze, ponieważ mam dobrze spakowane drzewo plików , więc mogę łatwo mieć oddzielne systemy plików zamontowany na 1/
, 2/
, 3/
, 4/
, etc).
Moja trudność polega na znalezieniu jakiegokolwiek wyliczenia, jaki jest „rozsądny” rozmiar systemu plików, aby czasy fsck były podobnie „rozsądne”. Chociaż jestem w pełni świadomy, że czas bezwzględny dla danego rozmiaru zależy w dużej mierze od sprzętu, nie mogę znaleźć żadnego opisu kształtu krzywej dla czasów ext3 fsck przy różnych rozmiarach systemu plików i jakie są inne zmienne ( czy system plików pełen plików w jednym katalogu zajmuje dłużej niż jeden z 10 plikami w każdym z tysięcy katalogów w drzewie; duże pliki kontra małe pliki; pełny system plików vs pusty system plików i tak dalej).
Czy ktoś ma odniesienia do dobrze zbadanych liczb na ten temat? W przeciwnym razie wszelkie anegdoty dotyczące tych zagadnień powinny przynajmniej pomóc w prowadzeniu własnych eksperymentów, jeśli jest to wymagane.
EDYCJA : Aby wyjaśnić: niezależnie od systemu plików, jeśli coś pójdzie nie tak z metadanymi, należy to sprawdzić. To, czy re-fsck oparte na czasie lub montowaniu są włączone czy potrzebne, nie jest kwestią, a jedynym powodem, dla którego proszę o liczby dotyczące ext3, jest to, że jest to najbardziej prawdopodobny system plików do wyboru. Jeśli znasz system plików, który ma wyjątkowo szybki proces fsck, jestem otwarty na sugestie, ale musi to być solidna opcja (twierdzi, że „system plików X nigdy nie potrzebuje fscking!” Będzie się z niego śmiał i wyśmiewał) . Zdaję sobie również sprawę z potrzeby tworzenia kopii zapasowych, a chęć użycia fsck nie zastępuje tworzenia kopii zapasowych, jednak po prostu odrzucenie systemu plików i przywrócenie go z kopii zapasowej, gdy się zepsuje, zamiast fsckowania, wydaje się naprawdę,