Czy moje polecenie sklonowania dysku jest optymalne?


16

Przeczytałem pół godziny, żeby przygotować się do sklonowania dysku twardego. Ma wiele partycji, w tym partycję Windows. Mam zamiar kupić bardzo duży zewnętrzny dysk twardy do tworzenia kopii zapasowych. Chciałbym móc użyć tego klonu do przywrócenia całego dysku na wypadek, gdyby coś poszło nie tak (zamierzam ponownie przetasować system operacyjny). Chcę nauczyć się, jak to robić za pomocą dd, ponieważ lubię narzędzia niskiego poziomu, które nie wymagają instalowania niczego.

Znalazłem następujący użyteczny kod z forum Ubuntu (wprowadzony z powłoki roota za pomocą płyty CD na żywo):

dd if=/dev/hda of=/dev/hdb & pid=$!
while kill -USR1 $pid; do sleep 1; done

(Wiem, że będę musiał edytować lokalizację wejściową i wyjściową.) Mam jednak dwa pytania. Pierwszy jest bardzo noobie: to polecenie jest podzielone na dwie linie. Czy na pewno po naciśnięciu klawisza Enter po wykrzykniku rozpocznie się proces?

Po drugie, w innych witrynach zaleca się wprowadzenie rozmiaru bloku. Lubię to:

# dd if=/dev/hda conv=sync,noerror bs=64K of=/mnt/sda1/hda.img

Nic nie wiem o rozmiarach bloków. Czy 64K ma rację? Wygląda na to, że mój rozmiar bloku wynosi 512 bajtów z następujących danych wyjściowych sudo fdisk -ul:

Disk /dev/sda: 750.2 GB, 750156374016 bytes
255 heads, 63 sectors/track, 91201 cylinders, total 1465149168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0xc3ffc3ff

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1   *          63   143364059    71681998+   7  HPFS/NTFS/exFAT
Partition 1 does not start on physical sector boundary.
/dev/sda2       976867328  1465147391   244140032    7  HPFS/NTFS/exFAT
/dev/sda3       143364094   976867327   416751617    5  Extended
Partition 3 does not start on physical sector boundary.
/dev/sda5       143364096   162895871     9765888   82  Linux swap / Solaris
/dev/sda6       162897920   205864959    21483520   83  Linux
/dev/sda7       205867008   976867327   385500160   83  Linux

Partition table entries are not in disk order

Disk /dev/mapper/cryptswap1: 10.0 GB, 10000269312 bytes
255 heads, 63 sectors/track, 1215 cylinders, total 19531776 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0x433bb3a7

Disk /dev/mapper/cryptswap1 doesn't contain a valid partition table

Dziękuję Ci.


Czy próbowałeś prosty dd if=/dev/hda of=hdb? Oto odpowiedź, która pokazuje niektóre szczegóły, w tym środowisko wykonawcze dla 160 GB: askubuntu.com/questions/435694/…
SDsolar

Najnowsze wersje Ubuntu wykorzystują coreutils v.8.24 lub nowszy, w którym ddzawiera przełącznik postępu, jak wspomniano tutaj
Elder Geek

Odpowiedzi:


22

Postęp

Polecenie, które wymieniłeś

dd if=/dev/hda of=/dev/hdb & pid=$!
while kill -USR1 $pid; do sleep 1; done

jest ładnym dwuliniowym narzędziem do ddregularnego uzyskiwania postępu . Używam też bardzo podobnego. Wygląda dobrze. Znalazłeś to tutaj ?

Blocksizes z dd: wyrównanie i wydajność

Możesz dodać rozmiar bloku, w którym mają miejsce operacje. Nie ma znaczenia, jaki jest rozmiar bloku podstawowego urządzenia blokowego, aby operacja została wykonana równie dobrze, ale ze względu na wydajność możesz wybrać taki, który odpowiada Twoim potrzebom.

Przede wszystkim chodzi o dostosowanie . W przypadku, gdy twoje urządzenie blokowe działa jako 512KiB (podobnie jak dyski flash), bardzo niefortunnie byłoby pracować ddz bs=512(bajtami), ponieważ spowoduje to 1024 zapisy (!) Dla każdego bloku z perspektywy urządzenia. W praktyce nie będzie tak źle, ponieważ zapisy są buforowane i pobierane za jednym razem, ale podczas synchronizacji wciąż może znacznie zwiększyć liczbę zapisów.

Następnie weź pod uwagę zwykłe obciążenie procesora przy bardzo dużej liczbie małych operacji. Bardziej wydajne jest jednoczesne pobieranie megabajtów podczas kopiowania dużych ilości danych.

Moją najlepszą praktyką jest zacząć od 1 MB, ponieważ jest to niezła wielokrotność większości ustawień, w tym rozmiarów pasków RAID, rozmiarów LVM itp. Na moim laptopie z dyskiem SSD zauważam niewielką poprawę przy użyciu 10 MB jako rozmiaru bloku, podczas gdy ja nie widzę tego więcej na moim fizycznym dysku twardym.

Ostatni blok

Nie martw się, że rozmiar dysku / woluminu nie będzie wielokrotnością rozmiaru bloku. Ostatni blok, który ddzostanie skopiowany, zostanie dostosowany do ostatniego bitu danych na nim. Możesz zobaczyć, czy ostatni blok miał inny rozmiar, patrząc na wynik.

18335302+0 records out

Te +0środki, że było dokładne dopasowanie, a +1oznacza, że tak nie było. Nie ma sprawy.

Zobacz też


1
Wow, co za dokładna odpowiedź. Dziękuję bardzo za poświęcenie czasu na zrobienie tego. Zaktualizuję oryginalne pytanie z linkiem do mojego źródła. Pójdę wtedy z 1 MB. Więc moje polecenie będzie takie, prawda? # dd if=/dev/hda conv=sync,noerror bs=1MB of=/mnt/sda1/hda.img & pid=$! while kill -USR1 $pid; do sleep 1; done
Kit Johnson

2
@oldmankit Zrobiłbym to, bs=1Mponieważ jest to potęga 2, a nie bs=1MBpotęga 10. Ale po prostu uruchom kilka testów porównawczych w swoim systemie, aby zobaczyć, co jest najlepsze.
gertvdijk

4
Zauważ, że jak wspomniano tutaj od czasu wydania coreutils> = 8.24 (domyślnie w Ubuntu Xenial 16.04 w górę) nie jest już konieczne, aby kill -USR1 $piddd miał teraz dostępny raport postępu dodając status=progressprzełącznik
Elder Geek

10

Jak powiedzieli inni, nie ma uniwersalnie poprawnego rozmiaru bloku; to, co jest optymalne dla jednej sytuacji lub jednego elementu sprzętu, może być strasznie nieefektywne w innym. Ponadto, w zależności od kondycji dysków, może być zalecane użycie innego rozmiaru bloku niż „optymalny”.

Jedną z rzeczy, która jest dość niezawodna na współczesnym sprzęcie, jest to, że domyślny rozmiar 512 bajtów jest prawie o rząd wielkości wolniejszy niż bardziej optymalna alternatywa. W razie wątpliwości stwierdziłem, że 64K to dość solidne, nowoczesne ustawienie domyślne. Chociaż 64K zwykle nie jest optymalnym rozmiarem bloku, z mojego doświadczenia wynika, że ​​jest on znacznie bardziej wydajny niż domyślny. 64K ma również dość solidną historię niezawodności: możesz znaleźć wiadomość z listy mailingowej Eug-Lug , około 2002 roku, zalecając rozmiar bloku 64K.

Aby określić optymalny rozmiar bloku wyjściowego, napisałem następujący skrypt, który testuje zapisanie pliku testowego 128M z dd w zakresie różnych rozmiarów bloku, od domyślnej 512 bajtów do maksymalnie 64M. Ostrzegam, ten skrypt używa dd wewnętrznie, więc używaj go ostrożnie.

dd_obs_test.sh:

#!/bin/bash

# Since we're dealing with dd, abort if any errors occur
set -e

TEST_FILE=${1:-dd_obs_testfile}
TEST_FILE_EXISTS=0
if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=1; fi
TEST_FILE_SIZE=134217728

if [ $EUID -ne 0 ]; then
  echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2
fi

# Header
PRINTF_FORMAT="%8s : %s\n"
printf "$PRINTF_FORMAT" 'block size' 'transfer rate'

# Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M
for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864
do
  # Calculate number of segments required to copy
  COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE))

  if [ $COUNT -le 0 ]; then
    echo "Block size of $BLOCK_SIZE estimated to require $COUNT blocks, aborting further tests."
    break
  fi

  # Clear kernel cache to ensure more accurate test
  [ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches

  # Create a test file with the specified block size
  DD_RESULT=$(dd if=/dev/zero of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync 2>&1 1>/dev/null)

  # Extract the transfer rate from dd's STDERR output
  TRANSFER_RATE=$(echo $DD_RESULT | \grep --only-matching -E '[0-9.]+ ([MGk]?B|bytes)/s(ec)?')

  # Clean up the test file if we created one
  if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi

  # Output the result
  printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE"
done

Zobacz na GitHub

Testowałem ten skrypt tylko w systemie Debian (Ubuntu) i OSX Yosemite, więc prawdopodobnie zajmie trochę poprawek, aby działać na innych smakach Uniksa.

Domyślnie polecenie utworzy plik testowy o nazwie dd_obs_testfilew bieżącym katalogu. Alternatywnie możesz podać ścieżkę do niestandardowego pliku testowego, podając ścieżkę po nazwie skryptu:

$ ./dd_obs_test.sh /path/to/disk/test_file

Dane wyjściowe skryptu to lista testowanych rozmiarów bloków i odpowiadających im szybkości przesyłania, takich jak:

$ ./dd_obs_test.sh
block size : transfer rate
       512 : 11.3 MB/s
      1024 : 22.1 MB/s
      2048 : 42.3 MB/s
      4096 : 75.2 MB/s
      8192 : 90.7 MB/s
     16384 : 101 MB/s
     32768 : 104 MB/s
     65536 : 108 MB/s
    131072 : 113 MB/s
    262144 : 112 MB/s
    524288 : 133 MB/s
   1048576 : 125 MB/s
   2097152 : 113 MB/s
   4194304 : 106 MB/s
   8388608 : 107 MB/s
  16777216 : 110 MB/s
  33554432 : 119 MB/s
  67108864 : 134 MB/s

(Uwaga: Jednostka szybkości przesyłania różni się w zależności od systemu operacyjnego)

Aby przetestować optymalny rozmiar bloku odczytu, można użyć mniej więcej tego samego procesu, ale zamiast odczytywać /dev/zeroi zapisywać na dysku, należy odczytywać z dysku i zapisywać na /dev/null. Skrypt do wykonania tego może wyglądać tak:

dd_ibs_test.sh:

#!/bin/bash

# Since we're dealing with dd, abort if any errors occur
set -e

TEST_FILE=${1:-dd_ibs_testfile}
if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=$?; fi
TEST_FILE_SIZE=134217728

# Exit if file exists
if [ -e $TEST_FILE ]; then
  echo "Test file $TEST_FILE exists, aborting."
  exit 1
fi
TEST_FILE_EXISTS=1

if [ $EUID -ne 0 ]; then
  echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2
fi

# Create test file
echo 'Generating test file...'
BLOCK_SIZE=65536
COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE))
dd if=/dev/urandom of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync > /dev/null 2>&1

# Header
PRINTF_FORMAT="%8s : %s\n"
printf "$PRINTF_FORMAT" 'block size' 'transfer rate'

# Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M
for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864
do
  # Clear kernel cache to ensure more accurate test
  [ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches

  # Read test file out to /dev/null with specified block size
  DD_RESULT=$(dd if=$TEST_FILE of=/dev/null bs=$BLOCK_SIZE 2>&1 1>/dev/null)

  # Extract transfer rate
  TRANSFER_RATE=$(echo $DD_RESULT | \grep --only-matching -E '[0-9.]+ ([MGk]?B|bytes)/s(ec)?')

  printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE"
done

# Clean up the test file if we created one
if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi

Zobacz na GitHub

Ważną różnicą w tym przypadku jest to, że plik testowy jest plikiem zapisanym przez skrypt. Nie kieruj tego polecenia na istniejący plik, ponieważ istniejący plik zostanie zastąpiony losowymi danymi!

W przypadku mojego konkretnego sprzętu stwierdziłem, że 128K jest najbardziej optymalnym rozmiarem bloku wejściowego na HDD, a 32K jest najbardziej optymalnym na SSD.

Chociaż ta odpowiedź obejmuje większość moich odkryć, musiałem określić optymalną wielkość bloku dd wystarczająco często, aby napisać o nim post na blogu . Możesz znaleźć więcej szczegółów na temat testów, które tam przeprowadziłem.

Ten post StackOverflow może być również przydatny: dd: Jak obliczyć optymalny rozmiar bloku?


Naucz mężczyznę łowić = +1
HackSlash

@ tdg5 Jest to świetny skrypt, ale powoduje poważne błędy podczas wykonywania z poziomu Cygwin w środowisku Windows 7. Czy istnieje wersja, która będzie działać na Cygwin?
Hashim
Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.