Istnieje wiele sposobów przetwarzania danych o takiej wielkości. Wiele zależy od środowiska i ilości gotówki, którą chcesz wydać. Zasadniczo istnieje kilka ogólnych strategii „usuń dane z serwera”:
- Przez Ethernet Jak napisano na pudełku, dane są przesyłane strumieniowo do Some Where Else w celu obsługi. Kopiowanie ponad 1 GbE zajmuje 20 TB, ale można to zrobić. Pomocny może być sprzęt (taki jak łącza 10GbE lub w niektórych przypadkach łączenie NIC).
- Przez podsystem Storage Jeśli korzystasz z Fibre Channel, wyślij go do innego urządzenia w sieci FC. Jeśli masz SAS, wyślij go na urządzenie podłączone do SAS. Generalnie szybszy niż Ethernet.
- Wyślij do innej macierzy dyskowej Wyślij do innej części magazynu podłączonej do tego samego serwera.
To widok 100 km. Gdy zaczniesz powiększać, fragmentacja stanie się znacznie bardziej fragmentaryczna. Jak już wspomniano, LTO5 jest specyficzną technologią taśm zaprojektowaną do tego rodzaju obciążeń o dużej gęstości. Inna identyczna tablica pamięci jest dobrym celem, szczególnie jeśli możesz użyć czegoś takiego jak GlusterFS lub DRBD, aby uzyskać tam dane. Ponadto, jeśli potrzebujesz rotacji kopii zapasowej lub po prostu możliwości kontynuowania działania na wypadek awarii macierzy, wpłynie to na to, co umieścisz.
Gdy już zdecydujesz się na metodę widoku 100 km, przejście do oprogramowania będzie kolejnym dużym zadaniem. Czynniki mające na to wpływ, to przede wszystkim to, co można zainstalować na serwerze pamięci masowej (jeśli jest to NetApp, to jedno, serwer Linux z dużą ilością pamięci to zupełnie inna sprawa, podobnie jak serwer Windows z dużą ilością pamięci) , jaki sprzęt wybierzesz (na przykład nie wszystkie pakiety kopii zapasowych FOSS dobrze obsługują biblioteki taśm) i jakiego rodzaju przechowywania kopii zapasowych potrzebujesz.
Naprawdę musisz dowiedzieć się, jakiego rodzaju odzyskiwania po awarii chcesz. Prosta replikacja na żywo jest łatwiejsza, ale nie pozwala przywracać danych tylko z zeszłego tygodnia. Jeśli zdolność przywracania z ostatniego tygodnia jest dla Ciebie ważna, musisz zaprojektować coś takiego. Zgodnie z prawem (w USA i gdzie indziej) niektóre dane muszą być przechowywane przez 7+ lat.
Prosta replikacja jest najłatwiejsza do zrobienia. Właśnie do tego przeznaczony jest DRBD. Po wykonaniu wstępnej kopii, po prostu wysyła zmiany. Czynnikami komplikującymi są tutaj lokalizacja sieci, jeśli druga tablica nie znajduje się w pobliżu podstawowego DRBD, może nie być wykonalna. Będziesz potrzebował drugiego serwera pamięci z co najmniej taką samą ilością miejsca jak pierwszy.
Informacje o kopii zapasowej na taśmie ...
LTO5 może pomieścić 1,5 TB danych bez kompresji. Karmienie tych potworów wymaga bardzo szybkiego połączenia sieciowego, którym jest Fibre Channel lub 6 Gb SAS. Ponieważ musisz wykonać kopię zapasową ponad 1,5 TB w jednym uderzeniu, musisz zajrzeć do autoloaderów (oto przykład: link , 24-slotowy autoloader z 1 napędem od HP). Dzięki oprogramowaniu, które je obsługuje, poradzą sobie ze zmianą taśm w trakcie tworzenia kopii zapasowej. Oni są wspaniali. Nadal będziesz musiał wyciągać taśmy, aby wysłać je poza witrynę, ale to cholerny widok lepszy niż kręcenie się przez całą noc, aby samemu ładować taśmy, gdy wymaga ich kopia zapasowa.
Jeśli taśma daje ci „ starsze, nowe ” heebiegeebies, wirtualna biblioteka taśm może być większa niż twoja prędkość (na przykład ta z Quantum: link ). Udają, że są bibliotekami taśmowymi do tworzenia kopii zapasowych oprogramowania, a jednocześnie przechowują rzeczy na dysku za pomocą solidnych (masz nadzieję) technik usuwania duplikatów. Bardziej wymyślni skopiują nawet wirtualne taśmy do prawdziwych taśm, jeśli podoba ci się to, co może być bardzo przydatne w przypadku rotacji poza witryną.
Jeśli nie chcesz się pieprzyć nawet z wirtualnymi taśmami, ale nadal chcesz wykonywać kopie zapasowe bezpośrednio na dysk, potrzebujesz tablicy pamięci wystarczająco dużej, aby poradzić sobie z tym 20 TB, a także dowolną ilością danych o zmianie sieci trzymać. Różne pakiety kopii zapasowych radzą sobie z tym inaczej. Niektóre technologie usuwania duplikatów są naprawdę fajne, inne to hacky kludges. Osobiście nie znam stanu pakietów oprogramowania do tworzenia kopii zapasowych FOSS w tym obszarze (słyszałem o Baculi), ale mogą one być wystarczające. Wiele komercyjnych pakietów kopii zapasowych ma lokalnych agentów instalowanych na serwerach, których kopie zapasowe mają być tworzone w celu zwiększenia przepustowości, co ma wiele zalet.