On Thursday 20 November 2003 21:44, Kristian Köhntopp wrote:
$ lsraid -a /dev/md0
[dev 9, 0] /dev/md0 0E9B8575.DE8F6EEA.1BC32976.B559EF96 online
[dev 8, 17] /dev/sdb1 0E9B8575.DE8F6EEA.1BC32976.B559EF96 good
[dev 8, 49] /dev/sdd1 0E9B8575.DE8F6EEA.1BC32976.B559EF96 good
[dev 8, 33] /dev/sdc1 0E9B8575.DE8F6EEA.1BC32976.B559EF96 good
Also ist die bisherige sdd1 durch den Plattenausbau zu sdc1 geworden, und
die bisherige sde1 zu sdd1. Außerdem ist die sde1, Hotspare, an die Stelle
der ausgebauten Platte im RAID-5 gerückt und das Array hat sich
resynchronisiert. Es läuft nun non-degraded, aber ohne Spares.
Wiedereinbau der ausgebauten Platte. Reboot.
<6>md: autorun ...
<6>md: considering sdc1 ...
<6>md: adding sdc1 ...
<6>md: adding sdd1 ...
<6>md: adding sdb1 ...
<6>md: created md0
<6>md: bind
<6>md: bind
<6>md: bind
<6>md: running: <sdc1><sdd1><sdb1>
<6>md: sdc1's event counter: 00000002
<6>md: sdd1's event counter: 00000005
<6>md: sdb1's event counter: 00000005
<3>md: superblock update time inconsistency -- using the most recent one
<6>md: freshest: sdd1
<4>md: kicking non-fresh sdc1 from array!
<6>md: unbind
<6>md: export_rdev(sdc1)
<4>md: device name has changed from sdc1 to sdd1 since last import!
<4>md0: former device sdd1 is unavailable, removing from array!
<6>raid5: measuring checksumming speed
<4> 8regs : 2510.800 MB/sec
<4> 32regs : 1876.000 MB/sec
<4> pIII_sse : 14314.400 MB/sec
<4> pII_mmx : 3537.200 MB/sec
<4> p5_mmx : 3796.000 MB/sec
<4>raid5: using function: pIII_sse (14314.400 MB/sec)
<6>md: raid5 personality registered as nr 4
<6>md0: max total readahead window set to 496k
<6>md0: 2 data-disks, max readahead per data-disk: 248k
<6>raid5: device sdd1 operational as raid disk 2
<6>raid5: device sdb1 operational as raid disk 0
<1>raid5: md0, not all disks are operational -- trying to recover array
<6>raid5: allocated 3293kB for md0
<1>raid5: raid level 5 set md0 active with 2 out of 3 devices, algorithm 2
<4>RAID5 conf printout:
<4> --- rd:3 wd:2 fd:1
<4> disk 0, s:0, o:1, n:0 rd:0 us:1 dev:sdb1
<4> disk 1, s:0, o:0, n:1 rd:1 us:1 dev:[dev 00:00]
<4> disk 2, s:0, o:1, n:2 rd:2 us:1 dev:sdd1
<4>RAID5 conf printout:
<4> --- rd:3 wd:2 fd:1
<4> disk 0, s:0, o:1, n:0 rd:0 us:1 dev:sdb1
<4> disk 1, s:0, o:0, n:1 rd:1 us:1 dev:[dev 00:00]
<4> disk 2, s:0, o:1, n:2 rd:2 us:1 dev:sdd1
<6>md: updating md0 RAID superblock on device
In lsraid sieht das so aus:
$ lsraid -a /dev/md0
[dev 9, 0] /dev/md0 0E9B8575.DE8F6EEA.1BC32976.B559EF96 online
[dev 8, 17] /dev/sdb1 0E9B8575.DE8F6EEA.1BC32976.B559EF96 good
[dev ?, ?] (unknown) 00000000.00000000.00000000.00000000 missing
[dev 8, 49] /dev/sdd1 0E9B8575.DE8F6EEA.1BC32976.B559EF96 good
Das sieht nicht gut aus, denn die wiedereingebaute Platte hat so eine von den
drei guten Platten aus dem Array verdrängt, und das Array "sieht" die
bisherige /dev/sdd1, jetzt wieder /dev/sde1 nicht mehr. Das Array ist
degraded.
Wir können es jedoch resyncen:
$ raidhotadd /dev/md0 /dev/sdc1
$ lsraid -a /dev/md0
[dev 9, 0] /dev/md0 0E9B8575.DE8F6EEA.1BC32976.B559EF96 online
[dev 8, 17] /dev/sdb1 0E9B8575.DE8F6EEA.1BC32976.B559EF96 good
[dev ?, ?] (unknown) 00000000.00000000.00000000.00000000 missing
[dev 8, 49] /dev/sdd1 0E9B8575.DE8F6EEA.1BC32976.B559EF96 good
[dev 8, 33] /dev/sdc1 0E9B8575.DE8F6EEA.1BC32976.B559EF96 spare
$ cat /proc/mdstat
Personalities : [raid5]
read_ahead 1024 sectors
md0 : active raid5 sdc1[3] sdd1[2] sdb1[0]
8385664 blocks level 5, 4k chunk, algorithm 2 [3/2] [U_U]
[===>.................] recovery = 19.2% (806524/4192832) finish=1.3min
speed=40326K/sec
unused devices: <none>
$ raidhotadd /dev/md0 /dev/sde1
$ lsraid -a /dev/md0
[dev 9, 0] /dev/md0 0E9B8575.DE8F6EEA.1BC32976.B559EF96 online
[dev 8, 17] /dev/sdb1 0E9B8575.DE8F6EEA.1BC32976.B559EF96 good
[dev ?, ?] (unknown) 00000000.00000000.00000000.00000000 missing
[dev 8, 49] /dev/sdd1 0E9B8575.DE8F6EEA.1BC32976.B559EF96 good
[dev 8, 33] /dev/sdc1 0E9B8575.DE8F6EEA.1BC32976.B559EF96 spare
[dev 8, 65] /dev/sde1 0E9B8575.DE8F6EEA.1BC32976.B559EF96 spare
$ cat /proc/mdstat
Personalities : [raid5]
read_ahead 1024 sectors
md0 : active raid5 sde1[4] sdc1[3] sdd1[2] sdb1[0]
8385664 blocks level 5, 4k chunk, algorithm 2 [3/2] [U_U]
[===========>.........] recovery = 58.1% (2440232/4192832)
finish=0.7min speed=38776K/sec
unused devices: <none>
Der Reconstruct läuft nun, und auch die neue/alte Hotspare ist dem System
wieder bekannt.
Nach Abschluß des Reconstruct:
$ lsraid -a /dev/md0
[dev 9, 0] /dev/md0 0E9B8575.DE8F6EEA.1BC32976.B559EF96 online
[dev 8, 17] /dev/sdb1 0E9B8575.DE8F6EEA.1BC32976.B559EF96 good
[dev 8, 33] /dev/sdc1 0E9B8575.DE8F6EEA.1BC32976.B559EF96 good
[dev 8, 49] /dev/sdd1 0E9B8575.DE8F6EEA.1BC32976.B559EF96 good
$ cat /proc/mdstat
Personalities : [raid5]
read_ahead 1024 sectors
md0 : active raid5 sde1[4] sdc1[1] sdd1[2] sdb1[0]
8385664 blocks level 5, 4k chunk, algorithm 2 [3/3] [UUU]
unused devices: <none>
Alles ist nun wieder gut.
Achja, und unser Volume ist auch noch da:
$ mount /dev/system/home /home
$ ls /home
1 10 2 3 4 5 6 7 8 9
Kristian
--
http://www.amazon.de/exec/obidos/wishlist/18E5SVQ5HJZXG