Duplicity i Amazon S3 Script


12

Chcę wykonać kopię zapasową mojego serwera linux na Amazon S3 przy użyciu duplikatu.

Znalazłem tutaj świetny zasób, który pomógł mi go skonfigurować i używam podstawowego skryptu, który był tam dla mnie wymieniony, a teraz skopiowany tutaj:

#!/bin/sh
# Export some ENV variables so you don't have to type anything
export AWS_ACCESS_KEY_ID=[your-access-key-id]
export AWS_SECRET_ACCESS_KEY=[your-secret-access-key]
export PASSPHRASE=[your-gpg-passphrase]

GPG_KEY=[your-gpg-key]

# The source of your backup
SOURCE=/

# The destination
# Note that the bucket need not exist
# but does need to be unique amongst all
# Amazon S3 users. So, choose wisely.
DEST=s3+http://[your-bucket-name]/[backup-folder]

duplicity \
    --encrypt-key=${GPG_KEY} \
    --sign-key=${GPG_KEY} \
    --include=/boot \
    --include=/etc \
    --include=/home \
    --include=/root \
    --include=/var/lib/mysql \
    --exclude=/** \
    ${SOURCE} ${DEST}

# Reset the ENV variables. Don't need them sitting around
export AWS_ACCESS_KEY_ID=
export AWS_SECRET_ACCESS_KEY=
export PASSPHRASE=

Czy ktoś jeszcze ma doświadczenie w duplikacji, w którym może ulepszyć ten skrypt i / lub podzielić się najlepszymi praktykami, aby pomóc w stworzeniu lepszego skryptu?

Odpowiedzi:


15

Używam odmiany tego skryptu do tworzenia kopii zapasowych. Niedawno wprowadziłem kilka zmian, aby spróbować zaoszczędzić trochę pieniędzy na rachunku Amazon S3 (serwer osobisty, inaczej nie miałbym nic przeciwko).

Pełny skrypt jest tutaj , ale poniżej wymienię zmiany, które wprowadziłem.

--full-if-older-than 1M
--volsize 250

Pierwsza opcja zapewnia, że ​​duplikat wykonuje pełną kopię zapasową niezależnie od tego, co miesiąc. Jest to przydatne, ponieważ oznacza, że ​​mogę usunąć najnowszą pełną kopię zapasową, jeśli muszę usunąć pliki z S3.

Druga opcja zmniejsza liczbę magazynów duplikatów plików w S3, co zmniejsza liczbę żądań wysyłanych do S3, zmniejszając koszty.

Dodałem również następujące po uruchomieniu kopii zapasowej. To usuwa kopie zapasowe starsze niż 6 miesięcy z S3.

duplicity remove-older-than 6M --force ${DEST}
Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.