Mam sieć z serwerami na żywo, akceptacją użytkowników, staging i programistycznymi (w tym przypadku Windows to głównie 2012r2, wszyscy goście Hyper-V). Każda z tych części sieci ma serwer frontend i serwer backend. Serwery zaplecza zawierają proporcjonalnie duże ilości danych. Na serwerach akceptacji użytkowników, serwerach pośrednich i programistycznych dane te nie ulegają zmianie (oprócz sporadycznego odświeżania z trybu na żywo) i rzadko są dostępne poza cyklem programowania.
W takim środowisku, jak zminimalizować zużycie pamięci i uniknąć marnowania miejsca na dane statyczne i rzadko dostępne. Dane składają się z 1000 plików, takich jak pdf, json, dwgs i pngs.
Rzeczy, które rozważałem.
Usuwanie serwerów, gdy nie są używane - Nie jest to świetna opcja, ponieważ czasami czas na przywrócenie tych serwerów waży czas, który programiści będą z nich korzystać. Naszym rozwiązaniem do tworzenia kopii zapasowych jest menedżer MS Data Protection.
Usuwanie dysków z danymi, gdy nie są używane - Nieco lepiej niż powyżej, ale znów liczy się czas.
Przenoszenie dysków z danymi między serwerami - ponieważ są gośćmi Hyper-V, mogłem po prostu dołączyć dyski z danymi w razie potrzeby, jednak zdarza się, że w tym samym czasie jest używanych więcej niż jedno środowisko.