Po uruchomieniu moje urządzenie RAID1 ( /dev/md_d0
*) czasami przechodzi w jakiś zabawny stan i nie mogę go zamontować.
* Pierwotnie stworzyłem, /dev/md0
ale jakoś się zmieniło /dev/md_d0
.
# mount /opt
mount: wrong fs type, bad option, bad superblock on /dev/md_d0,
missing codepage or helper program, or other error
(could this be the IDE device where you in fact use
ide-scsi so that sr0 or sda or so is needed?)
In some cases useful info is found in syslog - try
dmesg | tail or so
Wygląda na to, że urządzenie RAID jest nieaktywne :
# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5]
[raid4] [raid10]
md_d0 : inactive sda4[0](S)
241095104 blocks
# mdadm --detail /dev/md_d0
mdadm: md device /dev/md_d0 does not appear to be active.
Pytanie brzmi: jak ponownie włączyć urządzenie ( mdmadm
jak się domyślam)?
(Innym razem jest w porządku (aktywny) po uruchomieniu i mogę go zamontować ręcznie bez problemów. Ale nadal nie zamontuje się automatycznie, mimo że go mam /etc/fstab
:
/dev/md_d0 /opt ext4 defaults 0 0
Więc pytanie dodatkowe: co powinienem zrobić, aby urządzenie RAID automatycznie montowało się /opt
podczas uruchamiania? )
To jest stacja robocza Ubuntu 9.10. Informacje podstawowe o mojej konfiguracji RAID w tym pytaniu .
Edycja : Mój /etc/mdadm/mdadm.conf
wygląda tak. Nigdy nie dotknąłem tego pliku, przynajmniej ręcznie.
# by default, scan all partitions (/proc/partitions) for MD superblocks.
# alternatively, specify devices to scan, using wildcards if desired.
DEVICE partitions
# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes
# automatically tag new arrays as belonging to the local system
HOMEHOST <system>
# instruct the monitoring daemon where to send mail alerts
MAILADDR <my mail address>
# definitions of existing MD arrays
# This file was auto-generated on Wed, 27 Jan 2010 17:14:36 +0200
W /proc/partitions
ostatnim wpisie jest md_d0
przynajmniej teraz, po ponownym uruchomieniu, kiedy urządzenie znów jest aktywne. (Nie jestem pewien, czy będzie tak samo, gdy będzie nieaktywny).
Rozwiązanie : jak zasugerował Jimmy Hedman , wziąłem wyniki mdadm --examine --scan
:
ARRAY /dev/md0 level=raid1 num-devices=2 UUID=de8fbd92[...]
i dodał to /etc/mdadm/mdadm.conf
, co wydaje się naprawiać główny problem. Po zmianie /etc/fstab
na używanie /dev/md0
ponownie (zamiast /dev/md_d0
) urządzenie RAID również zostaje automatycznie zamontowane!
mdadm --examine --scan
wyprodukowanoARRAY /dev/md0 level=raid1 num-devices=2 UUID=...
(Uwaga md0 zamiast md_d0!) Umieściłem to w pliku mdadm.conf (ręcznie, ponieważ był jakiś problem z sudo i>>
(„odmowa uprawnień”), a sudo jest wymagane), a także zaktualizowałem fstab do użycia md0 (nie md_d0) ponownie. Teraz wydaje mi się, że nie mam już problemu z „nieaktywnością”, a urządzenie RAID montuje się automatycznie przy / opt po uruchomieniu. Więc dziękuję!