Am Mo 28.03.2005 18:37 schrieb Edmund Neubert
Am Mon, 2005-03-28 um 17.36 schrieb Sven Gehr:
Am Mo 28.03.2005 15:53 schrieb Sven Gehr
:
Hallo nochmal,
lies Dir doch bitte mal auf http://www.linuxfaq.de/cgi-bin/fom?amp=&file=413 den Abschnitt 10.2.2. Der sichere Weg durch, m?glicherweise kann Dir damit geholfen werden.
Ich bin einfach mal der Anweisung gefolt. Ich habe die Datei /etc/raidtaberstellt: raiddev /dev/md0 raid-level 5 nr-raid-disks 3 nr-spare-disks 0 parity-algorithm left-symmetric persistent-superblock 1 chunk-size 32 device /dev/sda2 raid-disk 0 device /dev/sdb2 raid-disk 1 device /dev/hdc3 raid-disk 2 Beim Aufruf von 'mkraid -f /dev/md0' erhalte ich: WARNING! NOTE: if you are recovering a double-disk error or some other failure mode that made your array unrunnable but data is still intact then it's strongly recommended to use the lsraid utility and to read the lsraid HOWTO. If your RAID array holds useful and not yet backed up data then --force and the hot-add/hot-remove functionality should be used with extreme care! If your /etc/raidtab file is not in sync with the real array configuration, then --force might DESTROY ALL YOUR DATA. It's especially dangerous to use -f if the array is in degraded mode. If your /etc/raidtab file matches the real layout of on-disk data then recreating the array will not hurt your data, but be aware of the risks of doing this anyway: freshly created RAID1 and RAID5 arrays do a full resync of their mirror/parity blocks, which, if the raidtab is incorrect, the resync will wipe out data irrecoverably. Also, if your array is in degraded mode then the raidtab must match the degraded config exactly, otherwise you'll get the same kind of data destruction during resync. (see the failed-disk raidtab option.) You have been warned! [ If your array holds no data, or you have it all backed up, or if you know precisely what you are doing and you stil l want to proceed then use the --really-force (or -R) flag. ] Habe erst mal davon abgesehen die Funktion --really-force aufzurufen da ich die Daten nicht verlieren m?chte. Ich habe im Web einige User mit dem gleichen Problem gefunden. Hier wird als m?gliche L?sung der Befehl: mdadm --assemble /dev/md0 --force /dev/sda2 /dev/sdb2 /dev/hdc3 aufgef?hrt. Au?erdem gibt es die M?glichkeit mit 'mdadm --examine ...' der Zustand des RAID's ermitteln. Hierbei bekomme ich f?r sda2 und sdb2 folgende Ausgabe: ##################### /dev/sda2 ##################### Magic : a92b4efc Version : 00.90.00 UUID : 2a22312d:d2b5e927:ba9b13e1:b0767882 Creation Time : Tue Aug 17 13:49:11 2004 Raid Level : raid5 Device Size : 71143680 (67.85 GiB 72.85 GB) Raid Devices : 3 Total Devices : 2 Preferred Minor : 0 Update Time : Sat Mar 26 09:19:48 2005 State : dirty Active Devices : 2 Working Devices : 2 Failed Devices : 1 Spare Devices : 0 Checksum : 991ae008 - correct Events : 0.6245547 Layout : left-symmetric Chunk Size : 128K Number Major Minor RaidDevice State this 1 8 18 1 active sync /dev/sdb2 0 0 8 2 0 active sync /dev/sda2 1 1 8 18 1 active sync /dev/sdb2 2 2 0 0 2 faulty removed ###################################################### ##################### /dev/sdb2 ##################### Magic : a92b4efc Version : 00.90.00 UUID : 2a22312d:d2b5e927:ba9b13e1:b0767882 Creation Time : Tue Aug 17 13:49:11 2004 Raid Level : raid5 Device Size : 71143680 (67.85 GiB 72.85 GB) Raid Devices : 3 Total Devices : 2 Preferred Minor : 0 Update Time : Sat Mar 26 09:19:48 2005 State : dirty Active Devices : 2 Working Devices : 2 Failed Devices : 1 Spare Devices : 0 Checksum : 991adff6 - correct Events : 0.6245547 Layout : left-symmetric Chunk Size : 128K Number Major Minor RaidDevice State this 0 8 2 0 active sync /dev/sda2 0 0 8 2 0 active sync /dev/sda2 1 1 8 18 1 active sync /dev/sdb2 2 2 0 0 2 faulty removed ###################################################### So wie es f?r mich aussieht sind die beiden Partitionen sda2 und sdb2 ok. Hat jemand Erfahrung mit 'mdadm --assemble /dev/md0 --force ...' ? Viele Gr??e Sven