Jakie mam opcje tworzenia kopii zapasowej treści z witryn w chmurze Rackspace, w tym plików i baz danych? Wiem, że mają pracę crona, ale nie jestem pewien, jakie mam opcje, jeśli chodzi o to.
Jakie mam opcje tworzenia kopii zapasowej treści z witryn w chmurze Rackspace, w tym plików i baz danych? Wiem, że mają pracę crona, ale nie jestem pewien, jakie mam opcje, jeśli chodzi o to.
Odpowiedzi:
Używam dwóch skryptów do tworzenia kopii zapasowych mojego VPS (hostowanego na Linode, ale to samo powinno działać na Rackspace).
Po pierwsze, do tworzenia kopii zapasowych mysql używam skryptu automysqlbackup . Zajmuje się zrzucaniem baz danych, kompresowaniem ich i utrzymywaniem kilku dziennych / tygodniowych / miesięcznych kopii plików kopii zapasowych. Może również przesyłać Ci pocztą e-mail skompresowane zrzuty .sql.
Do ogólnej kopii zapasowej systemu plików używam duplikatu - może to wykorzystywać wiele różnych backendów pamięci (ftp, scp, nfs itp.), Ale wybieram backend Amazon S3. Duplikat wykona pełne lub przyrostowe kopie zapasowe w zależności od potrzeb. Będzie również obsługiwać kompresję plików kopii zapasowych, a także szyfrowanie, jeśli chcesz.
Rackspace nie zezwala SSH na ich witryny w chmurze, więc nie sądzę, że Duplicity będzie działać, chyba że możesz ich przekonać do zainstalowania.
Szukaliśmy również rozwiązania, ale ostatecznie stworzyliśmy system kopii zapasowych, który archiwizuje pliki i zrzuty SQL i przenosi je do plików w chmurze Rackspace, o nazwie i dacie. System obsługuje czyszczenie starych kopii zapasowych (przechowujemy różne codzienne / tygodniowe / miesięczne kopie zapasowe) i działa jako moduł w dedykowanej instalacji Drupal. Administrator przekazuje informacje zwrotne na temat stanu każdej kopii zapasowej i wypełnia arkusz kalkulacyjny Google, aby przedstawić przegląd. Może także współpracować z dowolną witryną spoza Rackspace, ponieważ do wykonania całej pracy używa klienta PHP (prześlij jeden skrypt PHP do stron, które chcesz utworzyć kopię zapasową, skonfiguruj go w interfejsie administratora, a strona główna zajmie dbanie o wszystkie harmonogramy / uwierzytelnianie / itp ...) Używamy go wewnętrznie, ale możemy go wydać jako moduł, jeśli będzie to zainteresowane, więc daj mi znać.
Jedyny sposób, jaki znam, to utworzenie zadania cron do tworzenia kopii zapasowych danych i baz danych oraz użycie ftp lub innej metody, której chcesz użyć do transmisji danych. Oto przykładowy skrypt.
#!/bin/sh
# System + MySQL backup script
# Full backup day - Sun (rest of the day do incremental backup)
# Copyright (c) 2005-2006 nixCraft
# This script is licensed under GNU GPL version 2.0 or above
# Automatically generated by http://bash.cyberciti.biz/backup/wizard-ftp-script.php
# ---------------------------------------------------------------------
### System Setup ###
DIRS="/home /etc /var/www"
BACKUP=/tmp/backup.$$
NOW=$(date +"%d-%m-%Y")
INCFILE="/root/tar-inc-backup.dat"
DAY=$(date +"%a")
FULLBACKUP="Sun"
### MySQL Setup ###
MUSER="admin"
MPASS="mysqladminpassword"
MHOST="localhost"
MYSQL="$(which mysql)"
MYSQLDUMP="$(which mysqldump)"
GZIP="$(which gzip)"
### FTP server Setup ###
FTPD="/home/vivek/incremental"
FTPU="vivek"
FTPP="ftppassword"
FTPS="208.111.11.2"
NCFTP="$(which ncftpput)"
### Other stuff ###
EMAILID="admin@theos.in"
### Start Backup for file system ###
[ ! -d $BACKUP ] && mkdir -p $BACKUP || :
### See if we want to make a full backup ###
if [ "$DAY" == "$FULLBACKUP" ]; then
FTPD="/home/vivek/full"
FILE="fs-full-$NOW.tar.gz"
tar -zcvf $BACKUP/$FILE $DIRS
else
i=$(date +"%Hh%Mm%Ss")
FILE="fs-i-$NOW-$i.tar.gz"
tar -g $INCFILE -zcvf $BACKUP/$FILE $DIRS
fi
### Start MySQL Backup ###
# Get all databases name
DBS="$($MYSQL -u $MUSER -h $MHOST -p$MPASS -Bse 'show databases')"
for db in $DBS
do
FILE=$BACKUP/mysql-$db.$NOW-$(date +"%T").gz
$MYSQLDUMP -u $MUSER -h $MHOST -p$MPASS $db | $GZIP -9 > $FILE
done
### Dump backup using FTP ###
#Start FTP backup using ncftp
ncftp -u"$FTPU" -p"$FTPP" $FTPS<
mkdir $FTPD
mkdir $FTPD/$NOW
cd $FTPD/$NOW
lcd $BACKUP
mput *
quit
EOF
### Find out if ftp backup failed or not ###
if [ "$?" == "0" ]; then
rm -f $BACKUP/*
else
T=/tmp/backup.fail
echo "Date: $(date)">$T
echo "Hostname: $(hostname)" >>$T
echo "Backup failed" >>$T
mail -s "BACKUP FAILED" "$EMAILID" <$T
rm -f $T
fi
Zadanie Crona uruchamiające skrypt wydaje mi się bardziej „solidnym” rozwiązaniem. Nadal jestem w trakcie ucieczki od mojej zależności od GUI. RE:
Biorąc to pod uwagę, używam Cobian Backup do automatycznego tworzenia kopii zapasowych wszystkich plików stron @ w chmurach za pośrednictwem FTP co noc. Jest to całkiem dobre rozwiązanie typu „zapomnij i zapomnij”, które nie wymaga znajomości skryptów ani zadań Crona, po prostu pamiętaj o okresowym testowaniu przywracania.
Więcej informacji tutaj: http://www.iainlbc.com/2010/04/how-to-backup-rackspace-cloudsites-automatically-incrementally-using-free-software/
Administrator MySQL (EOL) obsługuje automatyczne kopie zapasowe naszej amazon RDS
bardzo prosty skrypt do tworzenia kopii zapasowych w plikach chmurowych Rackscpace z podwójnością
Próbowałem http://www.zipitbackup.com/ . Jest to narzędzie do tworzenia kopii zapasowych z przestrzeni rackowej. To dobrze działa.
Dokumentacja mówi, jak to działa:
-> Działa na podstawie witryny. Narzędzie Zipit Backup Utility musi być zainstalowane dla każdej witryny, której kopię zapasową chcesz utworzyć.
-> Narzędzie Zipit Backup Utility tworzy kopię zapasową wszystkich plików i baz danych Cloud Services na koncie Cloud Files.
-> Wyświetla listę wszystkich dostępnych kopii zapasowych. Dostępne kopie zapasowe można zarządzać za pomocą Panelu sterowania w chmurze.