Przypadkowo nadpisałem oba ZIL w ostatniej wersji OpenSolarisa, co spowodowało nieodwracalną utratę całej puli. (Naprawdę zły błąd z mojej strony! Nie rozumiałem, że utrata ZIL oznaczałaby utratę puli. Na szczęście wyzdrowiała z kopii zapasowej z przestojem.)
Od wersji 151a (nie wiadomo od razu, co to znaczy wersja ZPool), ten problem został rozwiązany. I mogę zaświadczyć, że to działa.
Poza tym straciłem dane ZERO na serwerze o pojemności 20 TB - w tym z powodu kilku dalszych błędów użytkownika, wielu awarii zasilania, niewłaściwego zarządzania dyskiem, błędnej konfiguracji, wielu uszkodzonych dysków itp. Mimo że zarządzanie i interfejsy konfiguracyjne w systemie Solaris zmieniają się często i irytująco z wersji na wersję i stanowią znaczący, ciągle zmieniający się cel umiejętności, jest to nadal najlepsza opcja dla ZFS.
Nie tylko nie straciłem danych na ZFS (po moim strasznym błędzie), ale ciągle mnie chroni. Nie doświadczam już uszkodzenia danych - co dręczy mnie od 20 lat na dowolnej liczbie serwerów i stacji roboczych, z tym, co robię. Ciche (lub po prostu „całkiem ciche”) uszkodzenie danych zabijało mnie wiele razy, gdy dane wycofują się z rotacji kopii zapasowych, ale w rzeczywistości uległy uszkodzeniu na dysku. Lub inne scenariusze, w których kopie zapasowe utworzyły kopię zapasową uszkodzonych wersji. Był to o wiele większy problem niż zwykła utrata danych naraz, co i tak prawie zawsze jest archiwizowane. Z tego powodu po prostu uwielbiam ZFS i nie mogę zrozumieć, dlaczego sumowanie kontrolne i automatyczne leczenie nie były standardowymi funkcjami w systemach plików od dekady. (Uznane, systemy życia lub śmierci zwykle mają inne sposoby zapewnienia integralności,
Mówiąc mądrze, jeśli nie chcesz schodzić do piekła ACL, nie używaj wbudowanego serwera CIFS w ZFS. Użyj Samby. (Powiedziałeś, że używasz NFS.)
Nie zgadzam się z argumentem SAS vs. SATA, przynajmniej sugestią, że SAS jest zawsze preferowany w stosunku do SATA, dla ZFS. Nie wiem, czy te komentarze odnosiły się do prędkości obrotu talerza, przypuszczalnej niezawodności, szybkości interfejsu lub innych atrybutów. (A może po prostu „kosztują więcej i na ogół nie są używane przez konsumentów, dlatego są lepsi”. Niedawno opublikowane badanie branżowe (jestem pewien, że w wiadomościach) ujawniło, że SATA faktycznie przeżywa SAS średnio, przynajmniej z znacząca wielkość próby w ankiecie (zszokowało mnie to na pewno.) Nie pamiętam, czy to były wersje „SATA” dla przedsiębiorstw lub konsumenta, czy jakie prędkości - ale z mojego dużego doświadczenia modele korporacyjne i konsumenckie zawodzą tak samo. stawki istotne statystycznie. (Istnieje jednak problem, że dyski konsumenckie zbyt długo tracą czas na awarię, co jest zdecydowanie ważne w przedsiębiorstwie - ale to mnie nie ugryzło i myślę, że jest bardziej odpowiednie dla kontrolerów sprzętowych, które mogą zająć całość w takich przypadkach wolumen jest wyłączony. Ale to nie jest problem SAS vs SATA, a ZFS nigdy mnie nie zawiódł. W wyniku tego doświadczenia używam teraz mieszanki 1/3 dysków SATA dla przedsiębiorstw i 2/3 konsumenckich .) Co więcej, nie widziałem żadnego znaczącego spadku wydajności z tym połączeniem SATA, gdy właściwie skonfigurowanym (np. Paskiem trójdrożnych lusterek), ale znowu mam niskie zapotrzebowanie na IOPS, więc w zależności od wielkości twojego sklepu i typowe przypadki użycia, YMMV. Zdecydowanie zauważyłem, że rozmiar pamięci podręcznej wbudowanej na dysk ma większe znaczenie w przypadku problemów z opóźnieniami niż prędkości obrotowej talerza.
Innymi słowy, jest to koperta z wieloma parametrami: kosztem, przepustowością, IOPS, rodzajem danych, liczbą użytkowników, przepustowością administracyjną i typowymi przypadkami użycia. Stwierdzenie, że SAS jest zawsze właściwym rozwiązaniem, oznacza zlekceważenie dużego wszechświata permutacji tych czynników.
Ale tak czy inaczej, ZFS absolutnie kołysze.