Pytając wsparcie Gitlab, jak wykonać kopię zapasową o pojemności 3 TB na lokalnym Gitlab, odpowiadają, korzystając z naszego narzędzia, które tworzy tarball.
Wydaje mi się to niewłaściwe na wszystkich poziomach. Ten archiwum zawiera zrzut postgres, obrazy dokerów, dane repo, GIT LFS itp. Konfiguracja itd. Tworzenie kopii zapasowych TB danych statycznych wraz z bardzo dynamicznymi danymi KB nie jest właściwe. A potem pojawia się kwestia: chcemy tworzyć kopie zapasowe co godzinę.
Pytanie
Naprawdę chciałbym wiedzieć od innych, jak to robią, aby uzyskać spójną kopię zapasową.
ZFS w systemie Linux byłby dla mnie w porządku, jeśli jest to część rozwiązania.
If your GitLab server contains a lot of Git repository data you may find the GitLab backup script to be too slow. In this case you can consider using filesystem snapshots as part of your backup strategy.
nie mogę jednak mówić z doświadczenia. Ale być może wkrótce będę musiał dołączyć coś takiego ...