On Mon, 26 Jun 2006 15:37:10 +0200 Sandy Drobic
Tobias Crefeld wrote:
Nach einem Stromausfall bekomme ich ein Software RAID-5 nicht mehr zum Laufen. OS is Suse 10.1, 3 Partitionen auf verschiedenen IDE-Laufwerken, jeweils 2,5 GB, macht in der Summe 5 GB.
Was funktioniert: mdadm --assemble /dev/md1 --super-minor=1 /dev/hda3 /dev/hdc2
Ein RAID5 hat mindestens 3 Platten, wo ist deine dritte?
/dev/hdg2 hatte ich vorher auf faulty gesetzt und entfernt. Da lief das RAID noch. Danach kam der Stromausfall und das System blieb bei Booten hängen. Es ist bei Linux-Software-RAID offenbar normal, daß es mit einem degraded RAID als root-device nicht automatisch startet. Die genannten Aktionen habe ich natürlich im Reparaturbootmodus getätigt.
Active, degraded heisst zumindest, dass du noch keine Daten verloren hast, aber du hast keine Redundanz mehr. Wenn dir jetzt noch eine Platte aus dem RAID wegfällt, sind die Daten wahrscheinlich futsch. Nimm zügig das fehlende Device mit rein und stelle die Konsistenz wieder her.
Es ist mir schon klar, daß "degraded" kein normaler Betrieb für ein RAID ist. Aber zunächst müßte es auf alle Fälle möglich sein, das RAID auch "degraded" zum Laufen zu bringen und daran hapert es bereits. Warum lehnt es --run ab? Das soll lt. Doku der Befehl sein, um nach --assemble auch ein RAID zum Laufen zu bringen, das degraded ist. Stattdessen zeigt es seltsame Speicherwerte an. Ich möchte ungern auf's Geratewohl eine weitere Partition einhängen, wenn mit dem aktiven RAID was nicht stimmt. Also konkret: Woher kommt der input/output error und wie stellt man es ab. Gruß, Tobias. -- Um die Liste abzubestellen, schicken Sie eine Mail an: suse-linux-unsubscribe@suse.com Um eine Liste aller verfuegbaren Kommandos zu bekommen, schicken Sie eine Mail an: suse-linux-help@suse.com