Hallo liebe Liste, ich habe ein merkwürdiges Phänomen, nach Anlage eines neuen Raid auf 3 SATA Platten mit Yast (genauso mit mdadm) erhalte ich folgenden Status cat /proc/mdstat md0 : active raid5 sdc1[3] sdb1[1] sda1[0] 104871936 blocks level 5, 128k chunk, algorithm 2 [3/2] [UU_] unused devices: <none> keine Syncronsierung des Raids wie sonst ! und mit : mdadm -detail /dev/md0 /dev/md0: Version : 00.90.03 Creation Time : Sun Dec 10 11:57:03 2006 Raid Level : raid5 Array Size : 104871936 (100.01 GiB 107.39 GB) Device Size : 52435968 (50.01 GiB 53.69 GB) Raid Devices : 3 Total Devices : 3 Preferred Minor : 0 Persistence : Superblock is persistent Update Time : Sun Dec 10 11:57:24 2006 State : clean Active Devices : 3 Working Devices : 3 Failed Devices : 0 Spare Devices : 0 Layout : left-symmetric Chunk Size : 128K UUID : bc77aa58:2d4b7543:c18934cb:238268c1 Events : 0.8 Number Major Minor RaidDevice State 0 8 1 0 active sync /dev/sda1 1 8 17 1 active sync /dev/sdb1 2 0 0 2 removed 3 8 33 3 active sync /dev/sdc1 und /etc/raidtab # autogenerated /etc/raidtab by YaST2 raiddev /dev/md0 raid-level 5 nr-raid-disks 3 nr-spare-disks 0 persistent-superblock 1 chunk-size 128 device /dev/sda1 raid-disk 0 device /dev/sdb1 raid-disk 1 device /dev/sdc1 raid-disk 2 Ich habe keine Ahnung wie das device 2 zustande kommt. Ich habe bereits alle Partitionen vor der erneuten Raiderstellung mit dd genullt. Das device /dev/md0 funktioniert soweit, allerdings entsteht ein kernel OOPS sobald eine Partition z.B. mit mdadm /dev/md0 -f /dev/sdc1 als fehlerhaft markiert wird. Weiss jemand Rat, wie sowas zustande kommt bzw. beseitigt wird ? mfg K. Müller -- Um die Liste abzubestellen, schicken Sie eine Mail an: opensuse-de+unsubscribe@opensuse.org Um eine Liste aller verfuegbaren Kommandos zu bekommen, schicken Sie eine Mail an: opensuse-de+help@opensuse.org