Am Montag, 23. Mai 2005 11:25 schrieb Daniel Hanke:
Am Samstag 21 Mai 2005 12:40 schrieb Dietrich.Restemeyer@t-online.de:
Am Freitag, 20. Mai 2005 21:44 schrieb Peter Manias:
Hallo,
wir haben auf unserem Server unter SUSE-8.2 Linux ein RAID-1- System mit zwei SCSI- Platten konfiguriert, das lange Zeit problemlos lief. Seit ein paar Tagen gibt es Probleme:
Der Befehl "cat /proc/mdstat" liefert folgende Ausgabe:
Personalities : [raid1] read_ahead 1024 sectors md0 : active raid1 sdb1[1] 3148608 blocks [2/1] [_U]
md1 : active raid1 sda2[0] 9438080 blocks [2/1] [U_]
md2 : active raid1 sdb5[1] 2104384 blocks [2/1] [_U]
md3 : active raid1 sda6[0] 20619328 blocks [2/1] [U_]
unused devices: <none>
Du scheinst 2 Scsi-Platten im System zu haben, mit mindestens 2 primären Partitionen (sda2 sdb1) und 2 logischen in der erweiterten (sda6 sdb5) wovon auf beiden Platten je 2 noch funktionieren (die nach active raid1 aufgeführten). Das heisst, das beide platten nicht ganz kaputt sind, es sich entweder nur um einen soft-fehler handelt, oder mit pech gleich beide platten in Kürze ganz hinüber sein könnten.
Kann es sein das das Raid 1 nicht korrekt konfiguriert ist? Meiner Meinugn nach ist das Raid jeweils nur mit einer Platte konfiguriert. Sonst sollte in der Zeile wo das Raid definiert ist auch die kaputte Platte auftauchen: md3: active raid sdb6[1] sda6[0]
Ist das immer so ? Auch nach einem Reboot in degraded Zustand ?
tschüss Didi
cu Daniel tschüss Didi