Obecnie konfiguruję serwer plików i doszedłem do tego, że faktycznie skonfigurowałem dyski danych. System ma 4 dyski (jeden dysk systemu operacyjnego, 3 dyski danych). Dysk OS jest sformatowany jako ext4 i nie zostanie dodany do puli ZFS (jeśli wybiorę uruchomienie ZFS). Moim głównym problemem jest integralność danych i minimalne ryzyko utraty danych (buforowanie dysku jest wyłączone w BIOS). Do tego ZFS wydaje się być idealnym kandydatem, ponieważ ma stabilną wersję dla Linuksa (prawda?) I obsługuje duplikację danych, tworzenie puli i podnoszenie, gdzie dyski twarde nie muszą być tego samego rozmiaru.
Ale oto mój problem. Serwer ma tylko 2 GB pamięci RAM i nie można go zaktualizować w najbliższej przyszłości, a realistycznie tylko 1,5 będzie faktycznie dostępne dla ZFS po zainstalowaniu wszystkich innych usług. Jednocześnie może z niego korzystać maksymalnie około 10 klientów (więcej niż średnio 4). Czy to jest zbyt niskie, aby uznać za bezpieczne?
Z tego, co rozumiem, ZFS może ulec awarii w sytuacjach niskiej pamięci RAM i zabrać ze sobą pulę. Słyszałem, że opinie, które wymieniają, czy zamiana pomoże w rozwiązaniu tego problemu (mam dysk o pojemności 20 GB). Czy ktoś doświadczył utraty danych z ZFS z małą pamięcią RAM i jakie optymalizacje wprowadziłeś, aby temu zapobiec?
Biorąc pod uwagę powyższe, czy nadal można uruchomić ZFS, choć zmniejszyć rozmiar potwierdzenia i nieco go przyciąć, czy będzie to zbyt ryzykowne?
Specyfikacje systemu: 2 GB pamięci RAM 20 GB z wymiennym napędem, Debian 7, minimalna instalacja, z FTP i XBMC, DNLA, (aby dać wyobrażenie o wymaganej pamięci RAM). Służy do przesyłania strumieniowego z serwera pamięci i multimediów muzycznych do innych urządzeń.