Hallo Leute, jetzt ist's passiert, nach dem letzten Schritt bei der Umstellung meines 11.0 Homeserver startet das RAID5 nicht mehr. Leitfaden hierzu waren die beiden Artikel der c't 1 und 2 2009. Kurz zu meiner Systemumgebung. Im System sind nun 3 Platten (2x1TB und 1x750GB) auf dem jetzt 1 256MB RAID1 (/dev/md0) als Boot-Partition und ein 1,5TB RAID5 (dev/md1) mit drüberliegenden LVM liegt, in dem wiederum die Root, /var und /srv als separate Volumes enthalten sind. Das System lief prima und nur eine Sache wollte ich noch machen: Das RAID5 auf die maximale Größe erweitern. Nachdem der Befehl mdadm /dev/md1 --grow --size=max im laufenden System nicht wollte, habe ich KNOPPIX 5.3 gebootet und diese Operation da ausgeführt. Das lief auch ohne Fehlermeldung durch, fdisk zeigte mir das /dev/md1 auch mit der neuen Größe korrekt an. Das LVM lies sich auch in KNOPPIX starten und das testweise mounten der Volumes klappte auch. Nur der anschließende Start des eigentlichen Systems schlug fail, da das RAID5 und somit auch das LVM nicht mehr gestartet werden konnte. Habe dann nochmals KNOPPIX gebootet, da konnte ich das RAID5 auch nicht mehr korrekt starten, das LVM startete mit Fehler aber die Volumes konnte ich noch sehen aber nicht mehr mounten. Habe dann das Rettungssystem der 11.1 gestartet, der kann natürlich auch nicht mehr das RAID5 starten, wohingegen das RAID1 korrekt gestartet wird. Beim Start kommt es hierbei zu folgenden (Fehler-)Meldungen: # mdadm --assemble -v --force /dev/md1 /dev/sda2 /dev/sdb3 /dev/sdc3 mdadm: looking for devices for /dev/md1 mdadm: /dev/sda2 is identified as a member of /dev/md/1, slot 0. mdadm: /dev/sdb3 is identified as a member of /dev/md/1, slot 2. mdadm: /dev/sdc3 is identified as a member of /dev/md/1, slot 1. mdadm: added /dev/sdc3 to /dev/md/1 as 1 mdadm: added /dev/sdb3 to /dev/md/1 as 2 mdadm: added /dev/sda2 to /dev/md/1 as 0 mdadm: failed to RUN_ARRAY /dev/md/1: Input/output error In /var/log/messages steht dann May 31 11:16:35 Rescue kernel: md: bind<sdc3> May 31 11:16:35 Rescue kernel: md: bind<sdb3> May 31 11:16:35 Rescue kernel: md: bind<sda2> May 31 11:16:35 Rescue kernel: raid5: device sda2 operational as raid disk 0 May 31 11:16:35 Rescue kernel: raid5: device sdb3 operational as raid disk 2 May 31 11:16:35 Rescue kernel: raid5: device sdc3 operational as raid disk 1 May 31 11:16:35 Rescue kernel: raid5: allocated 3176kB for md1 May 31 11:16:35 Rescue kernel: raid5: raid level 5 set md1 active with 3 out of 3 devices, algorithm 0 May 31 11:16:35 Rescue kernel: RAID5 conf printout: May 31 11:16:35 Rescue kernel: --- rd:3 wd:3 May 31 11:16:35 Rescue kernel: disk 0, o:1, dev:sda2 May 31 11:16:35 Rescue kernel: disk 1, o:1, dev:sdc3 May 31 11:16:35 Rescue kernel: disk 2, o:1, dev:sdb3 May 31 11:16:35 Rescue kernel: attempt to access beyond end of device May 31 11:16:35 Rescue kernel: sda2: rw=8, want=1464613923, limit=1464613920 May 31 11:16:35 Rescue kernel: attempt to access beyond end of device May 31 11:16:35 Rescue kernel: sdb3: rw=8, want=1464613923, limit=1464613920 May 31 11:16:35 Rescue kernel: attempt to access beyond end of device May 31 11:16:35 Rescue kernel: sdc3: rw=8, want=1464613923, limit=1464613920 May 31 11:16:35 Rescue kernel: md1: bitmap initialisation failed: -5 May 31 11:16:35 Rescue kernel: md1: failed to create bitmap (-5) Ein # mdadm --detail /dev/md1 spuckt aus /dev/md1: Version : 1.00 Creation Time : Wed May 27 18:20:08 2009 Raid Level : raid5 Used Dev Size : 732306816 (698.38 GiB 749.88 GB) Raid Devices : 3 Total Devices : 3 Persistence : Superblock is persistent Update Time : Sat May 30 16:47:05 2009 State : active, Not Started Active Devices : 3 Working Devices : 3 Failed Devices : 0 Spare Devices : 0 Layout : left-asymmetric Chunk Size : 128K Name : 1 UUID : b90c1a32:a7ceb166:2004618a:dc8b44cf Events : 32502 Number Major Minor RaidDevice State 4 8 2 0 active sync /dev/sda2 5 8 35 1 active sync /dev/sdc3 3 8 19 2 active sync /dev/sdb3 Es erscheint mir offensichtlich, dass ewas mit dem Vergrößern nicht geklappt hat, da er über das Ende hinaus zugreifen will. Die Frage stellt sich jetzt, ist da noch etwas zu Reparieren? In Netz konnte ich bei meiner Suche leider kein vergleichbares Fehlerszenario finden. Weis jemand Rat? Ich brauche ja wohl nicht zu erwähnen dass da eine Menge Daten drauf sind die ich eigentlich wieder haben möchte. Zwar habe ich komplette Backups des Systems auf Band aber halt nicht die wirklich großen Sachen wie Virtuelle Maschinen, Videos, iSCSI Laufwerke Vielen Dank für Antworten schon im voraus Gruß Manfred ps Euch allen frohe Pfingsten -- Um die Liste abzubestellen, schicken Sie eine Mail an: opensuse-de+unsubscribe@opensuse.org Um eine Liste aller verfuegbaren Kommandos zu bekommen, schicken Sie eine Mail an: opensuse-de+help@opensuse.org