Re(2): Hilfe: Datenverlust - ganzes RAID Dateisystem ist weg !
Hallo Arno, danke für deine Antwort, ich habe es darauf händisch probiert. Das vom Startup Prozess assemblede RAID gestoppt und neu assembled und da taucht auch ein Fehler auf (Input/Output error), ich weiß nur nicht was ich damit anfangen soll. mdadm --detail gibt mir dennoch den Status "active, degraded". fdisk -l meldet alle Platten. mdadm: md device /dev/md0 does not appear to be active. # mdadm --assemble /dev/md2 /dev/sda1 /dev/sdb1 /dev/sdc1 /dev/sdd1 mdadm: /dev/md2 assembled from 3 drives - need all 4 to start it (use --run to insist). # mdadm --assemble --run /dev/md2 /dev/sda1 /dev/sdb1 /dev/sdc1 /dev/sdd1 mdadm: failed to RUN_ARRAY /dev/md2: Input/output error # mdadm --detail /dev/md2 /dev/md2: Version : 00.90.02 Creation Time : Wed May 10 17:18:42 2006 Raid Level : raid5 Device Size : 244195840 (232.88 GiB 250.06 GB) Raid Devices : 4 Total Devices : 3 Preferred Minor : 2 Persistence : Superblock is persistent Update Time : Thu Jan 25 20:11:44 2007 State : active, degraded Active Devices : 3 Working Devices : 3 Failed Devices : 0 Spare Devices : 0 Layout : left-symmetric Chunk Size : 128K UUID : fdf2f7aa:27427688:990476e1:29c1b262 Events : 0.370510 Number Major Minor RaidDevice State 0 0 0 - removed 1 8 17 1 active sync /dev/sdb1 2 8 33 2 active sync /dev/sdc1 3 8 49 3 active sync /dev/sdd1
dein Systemdatum ist falsch. Wer danach sortiert wird u.U. deine Mail nicht zu sehen bekommen, was schade wäre, denn ich kann dir nicht wirklich helfen... korrigiert.
hallo liebe Mailinglistler,
ich hab ein Trouble: mein ganzes RAID 5 ist weg !!! Und das nach einem, genau gesagt 3 Reboots.
Definitiv nicht so gut... wenn da was ausfällt sollte man das System zuerst wieder in Gang setzen... aber das ist ja nun egal.
Wenn es hier einen Festplatten/Dateisystem/RAID/crypt Profi gibt, bitte um Hilfe ! Der kostenpflichtige Suse Support konnte mir auch nicht helfen und hat mich hier verwiesen... Die sind ja lustig... Aus Datensicherheitsgründen habe ich mich für ein RAID 5 Array mit 4 Festplatten (alle 4 RAID, keine Spare) unter Suse 10.1 zur Speicherung meiner Daten entschieden. Auf dem RAID habe ich ein Crypt Filesystem (twofish256) erstellt und mit ext3 formatiert, was aus meiner damaligen Sicht alles minimalstes Risiko sein hätte sollen,
Aber das Backup vergessen, oder was?
:-) stünde auch an, leider zu spät...
solange ich mich an das Passwort erinnere. Hier vermute ich aber einen üblen Bug mit für mich katastrophalen Folgen.
Jetzt nach einem Reboot kann ich das RAID nicht mehr mounten, da kein gültiges ext3 Dateisystem mehr vorhanden ist !!!???
Auf der Festplatte sind sehr viele wichtige, persönliche Daten, wie alle meine Urlaubsfotos, Videos, meine Diplomarbeit, etc... die ich alle sicher gespeichert haben wollte und daher auf das RAID gespeichert habe. Seit dem letztem Mal, dass es funktionierte, bis zum ersten Mal als ich entdeckte, dass es nicht mehr ging habe ich 3* rebootet, nichts neu installiert, nichts auf das RAID geschrieben Das ist schon mal gut. und keinen Filesystemcheck gemacht.
Hier die Beschreibung Der Fehler:
# mount /media/raid Password: mount: wrong fs type, bad option, bad superblock on /dev/loop0, missing codepage or other error In some cases useful info is found in syslog - try dmesg | tail or so
# dmesg | tail VFS: Can't find ext3 filesystem on dev loop0.
=> Ich habe es manuel versucht, das RAID ist bereits nach dem Booten zusammengebaut, eine Festplatte ist mir offensichtlich ausgefallen, ich vermute ein SATA Kabelproblem in meinem Computer - während einem meiner Reboots war einmal /dev/sdd1 weg, dafür /dev/sda1 da. Meine Vermutung ist, dass dadurch mein RAID korrupt wurde. Obwohl ich nichts geschrieben habe, vermute ich, dass dmraid mir damit die Daten ruiniert hat.
# mdadm --detail /dev/md0 /dev/md0: Version : 00.90.02 Creation Time : Wed May 10 17:18:42 2006 Raid Level : raid5 Device Size : 244195840 (232.88 GiB 250.06 GB) Raid Devices : 4 Total Devices : 3 Preferred Minor : 0 Persistence : Superblock is persistent
Update Time : Thu Jan 25 20:11:44 2007 State : active, degraded Active Devices : 3 Working Devices : 3 Failed Devices : 0 Spare Devices : 0
Layout : left-symmetric Chunk Size : 128K
UUID : fdf2f7aa:27427688:990476e1:29c1b262 Events : 0.370510
Number Major Minor RaidDevice State 0 0 0 - removed 1 8 17 1 active sync /dev/sdb1 2 8 33 2 active sync /dev/sdc1 3 8 49 3 active sync /dev/sdd1
Ok, das sieht eindeutig aus.
Hast du schon eine Ersatzplatte da?
Kabel ist gewechselt, Platte funktioniert ja. Ärgerlich ist aber sehr, dass der Startup Prozess das RAID startet, OBWOHL er einen Fehler (eine Platte geht nicht) erkannt hat....., das hätte mir ev. die Probleme erspart. -- Um die Liste abzubestellen, schicken Sie eine Mail an: opensuse-de+unsubscribe@opensuse.org Um eine Liste aller verfuegbaren Kommandos zu bekommen, schicken Sie eine Mail an: opensuse-de+help@opensuse.org
participants (1)
-
Christoph