Linux Raid - merkwürdiges Verhalten
Hallo liebe Liste, ich habe ein merkwürdiges Phänomen, nach Anlage eines neuen Raid auf 3 SATA Platten mit Yast (genauso mit mdadm) erhalte ich folgenden Status cat /proc/mdstat md0 : active raid5 sdc1[3] sdb1[1] sda1[0] 104871936 blocks level 5, 128k chunk, algorithm 2 [3/2] [UU_] unused devices: <none> keine Syncronsierung des Raids wie sonst ! und mit : mdadm -detail /dev/md0 /dev/md0: Version : 00.90.03 Creation Time : Sun Dec 10 11:57:03 2006 Raid Level : raid5 Array Size : 104871936 (100.01 GiB 107.39 GB) Device Size : 52435968 (50.01 GiB 53.69 GB) Raid Devices : 3 Total Devices : 3 Preferred Minor : 0 Persistence : Superblock is persistent Update Time : Sun Dec 10 11:57:24 2006 State : clean Active Devices : 3 Working Devices : 3 Failed Devices : 0 Spare Devices : 0 Layout : left-symmetric Chunk Size : 128K UUID : bc77aa58:2d4b7543:c18934cb:238268c1 Events : 0.8 Number Major Minor RaidDevice State 0 8 1 0 active sync /dev/sda1 1 8 17 1 active sync /dev/sdb1 2 0 0 2 removed 3 8 33 3 active sync /dev/sdc1 und /etc/raidtab # autogenerated /etc/raidtab by YaST2 raiddev /dev/md0 raid-level 5 nr-raid-disks 3 nr-spare-disks 0 persistent-superblock 1 chunk-size 128 device /dev/sda1 raid-disk 0 device /dev/sdb1 raid-disk 1 device /dev/sdc1 raid-disk 2 Ich habe keine Ahnung wie das device 2 zustande kommt. Ich habe bereits alle Partitionen vor der erneuten Raiderstellung mit dd genullt. Das device /dev/md0 funktioniert soweit, allerdings entsteht ein kernel OOPS sobald eine Partition z.B. mit mdadm /dev/md0 -f /dev/sdc1 als fehlerhaft markiert wird. Weiss jemand Rat, wie sowas zustande kommt bzw. beseitigt wird ? mfg K. Müller -- Um die Liste abzubestellen, schicken Sie eine Mail an: opensuse-de+unsubscribe@opensuse.org Um eine Liste aller verfuegbaren Kommandos zu bekommen, schicken Sie eine Mail an: opensuse-de+help@opensuse.org
Kasimir Müller schrieb:
Hallo liebe Liste, ich habe ein merkwürdiges Phänomen,
nach Anlage eines neuen Raid auf 3 SATA Platten mit Yast (genauso mit mdadm) erhalte ich folgenden Status cat /proc/mdstat md0 : active raid5 sdc1[3] sdb1[1] sda1[0] 104871936 blocks level 5, 128k chunk, algorithm 2 [3/2] [UU_] unused devices: <none> keine Syncronsierung des Raids wie sonst !
und mit : mdadm -detail /dev/md0
/dev/md0: Version : 00.90.03 Creation Time : Sun Dec 10 11:57:03 2006 Raid Level : raid5 Array Size : 104871936 (100.01 GiB 107.39 GB) Device Size : 52435968 (50.01 GiB 53.69 GB) Raid Devices : 3 Total Devices : 3 Preferred Minor : 0 Persistence : Superblock is persistent
Update Time : Sun Dec 10 11:57:24 2006 State : clean Active Devices : 3 Working Devices : 3 Failed Devices : 0 Spare Devices : 0
Layout : left-symmetric Chunk Size : 128K
UUID : bc77aa58:2d4b7543:c18934cb:238268c1 Events : 0.8
Number Major Minor RaidDevice State 0 8 1 0 active sync /dev/sda1 1 8 17 1 active sync /dev/sdb1 2 0 0 2 removed
3 8 33 3 active sync /dev/sdc1
und /etc/raidtab
# autogenerated /etc/raidtab by YaST2
raiddev /dev/md0 raid-level 5 nr-raid-disks 3 nr-spare-disks 0 persistent-superblock 1 chunk-size 128 device /dev/sda1 raid-disk 0 device /dev/sdb1 raid-disk 1 device /dev/sdc1 raid-disk 2
Ich habe keine Ahnung wie das device 2 zustande kommt. Ich habe bereits alle Partitionen vor der erneuten Raiderstellung mit dd genullt. Das device /dev/md0 funktioniert soweit, allerdings entsteht ein kernel OOPS sobald eine Partition z.B. mit mdadm /dev/md0 -f /dev/sdc1 als fehlerhaft markiert wird.
Weiss jemand Rat, wie sowas zustande kommt bzw. beseitigt wird ?
mfg K. Müller
OK ich habs selbst gefunden : mdadm -Cv -f /dev/md0 -l5 -n3 -x0 -c128 /dev/sda1 /dev/sdb1 /dev/sdc1 hats gebracht, offensichtlich haben irgendwo im system noch falsche infos von alten Versuchen geschlummert, der --force Parameter hats dann gemacht. mfg. K. Müller
-- Um die Liste abzubestellen, schicken Sie eine Mail an: opensuse-de+unsubscribe@opensuse.org Um eine Liste aller verfuegbaren Kommandos zu bekommen, schicken Sie eine Mail an: opensuse-de+help@opensuse.org
participants (1)
-
Kasimir Müller