Hallo Helmut,
>Hast du mal die Kabel der 4. Platte ausgetauscht und versucht die wieder
zum Leben zu erwecken ?
ja habe ich, mit --assemble wurde sie aber nicht als dem RAID zugehörig
erkannt, ich
habe sie dann mit "mdadm --manage --add" hinzugefügt.dem RAID hinzugefügt
und das RAID begann zu rebuilden.
>Hat das Raid vorher schon mal gemeckert ( syslog ) ?
der RAID Fehler laut /var/log/messages trat erstmals vor 5 Tagen auf. Danach
hab ich die Kabel ab und angesteckt und die disc mit "mdadm --manage --add"
wieder in Betrieb genommen:
Jan 22 09:17:24 Dagobert kernel: ata1: command 0x35 timeout, stat 0xd0
host_stat 0x21
Jan 22 09:17:24 Dagobert kernel: ata1: status=0xd0 { Busy }
Jan 22 09:17:24 Dagobert kernel: SCSI error : <0 0 0 0> return code =
0x8000002
Jan 22 09:17:24 Dagobert kernel: sda: Current: sense key: Aborted Command
Jan 22 09:17:24 Dagobert kernel: Additional sense: Scsi parity error
Jan 22 09:17:24 Dagobert kernel: end_request: I/O error, dev sda, sector
488391871
Jan 22 09:17:24 Dagobert kernel: raid5: Disk failure on sda1, disabling
device. Operation continuing on 3 devices
von einem Fehler auf sdd1 finde ich nichts, ich habe es aber mit
mdadm --detail /md0 bei einem der reboots gesehen,
dass sdd1 einmal nicht im RAID war. Dabei habe ich es jedoch weder als
loopback eingerichtet, noch gemounted.
>Hast du schon mal versucht das FS als ext2 zu mounten ?
nach deinem Hinweis ja, aber mit gleichem Ergebniss, wie als ext3
>Und nun die unangenehme Frage, wo ist dein Backup wenn's wichtige Daten
waren?
>sorry ;-)
Murphy => war für dieses Wochenende geplant, nachdem ich 4 weitere Platten
für ein 2.es grösseres RAID gekauft
hatte wollte ich zuerst den RAID Inhalt auf das grössere RAID kopieren und
die wichtigeren Daten auf den restlichen 4 Platten (normal, ohne RAID) noch
einmal backupen...
Ich habe jetzt händisch das RAID eingerichtet, da ich dem automatischen
Startup Prozess sehr wenig nur mehr traue
und bin auf folgende, mir bis jetzt unterschlagene Fehlermeldung gekommen,
das RAID kann mit "--run" unbedingt, obwohl bereits eine Platte fehlerhaft
ist, wird gestartet werden, das dürfte der Startup automatisch machen und
die Fehlermeldung "failed to RUN_ARRAY /dev/md2: Input output error" sehe
ich nun. Dennoch meint mdadm --detail, dass der Status "active, degraded"
ist.... ???
alle Platten sind angeschlossen und über fdisk -l melden sie sich.
mdadm --assemble /dev/md2 /dev/sda1 /dev/sdb1 /dev/sdc1 /dev/sdd1
mdadm: /dev/md2 assembled from 3 drives - need all 4 to start it (use --run
to insist).
Dagobert:~ # mdadm --assemble --run /dev/md2 /dev/sda1 /dev/sdb1 /dev/sdc1
/dev/sdd1
mdadm: failed to RUN_ARRAY /dev/md2: Input/output error
Dagobert:~ # mdadm --detail /dev/md2
/dev/md2:
Version : 00.90.02
Creation Time : Wed May 10 17:18:42 2006
Raid Level : raid5
Device Size : 244195840 (232.88 GiB 250.06 GB)
Raid Devices : 4
Total Devices : 3
Preferred Minor : 2
Persistence : Superblock is persistent
Update Time : Thu Jan 25 20:11:44 2007
State : active, degraded
Active Devices : 3
Working Devices : 3
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 128K
UUID : fdf2f7aa:27427688:990476e1:29c1b262
Events : 0.370510
Number Major Minor RaidDevice State
0 0 0 - removed
1 8 17 1 active sync /dev/sdb1
2 8 33 2 active sync /dev/sdc1
3 8 49 3 active sync /dev/sdd1
lg,
Christoph
>
>Gruß
>Helmut
> -----Ursprüngliche Nachricht-----
> Von: Christoph [mailto:suse@xxxxxxxx]
> Gesendet: Samstag, 22. April 2006 14:14
> An: opensuse-de@xxxxxxxxxxxx
> Betreff: Hilfe: Datenverlust - ganzes RAID Dateisystem ist weg !
>
> hallo liebe Mailinglistler,
>
> ich hab ein Trouble: mein ganzes RAID 5 ist weg !!!
> Und das nach einem, genau gesagt 3 Reboots. Wenn es hier
> einen Festplatten/Dateisystem/RAID/crypt Profi gibt, bitte um Hilfe !
> Der kostenpflichtige Suse Support konnte mir auch nicht
> helfen und hat mich hier verwiesen...
>
> Aus Datensicherheitsgründen habe ich mich für ein RAID 5
> Array mit 4 Festplatten (alle 4 RAID, keine Spare) unter Suse
> 10.1 zur Speicherung meiner Daten entschieden. Auf dem RAID
> habe ich ein Crypt Filesystem
> (twofish256) erstellt und mit ext3 formatiert, was aus meiner
> damaligen Sicht alles minimalstes Risiko sein hätte sollen,
> solange ich mich an das Passwort erinnere. Hier vermute ich
> aber einen üblen Bug mit für mich katastrophalen Folgen.
>
> Jetzt nach einem Reboot kann ich das RAID nicht mehr mounten,
> da kein gültiges ext3 Dateisystem mehr vorhanden ist !!!???
>
> Auf der Festplatte sind sehr viele wichtige, persönliche
> Daten, wie alle meine Urlaubsfotos, Videos, meine
> Diplomarbeit, etc... die ich alle sicher gespeichert haben
> wollte und daher auf das RAID gespeichert habe. Seit dem
> letztem Mal, dass es funktionierte, bis zum ersten Mal als
> ich entdeckte, dass es nicht mehr ging habe ich 3* rebootet,
> nichts neu installiert, nichts auf das RAID geschrieben und
> keinen Filesystemcheck gemacht.
>
> Hier die Beschreibung
> Der Fehler:
>
> # mount /media/raid
> Password:
> mount: wrong fs type, bad option, bad superblock on /dev/loop0,
> missing codepage or other error
> In some cases useful info is found in syslog - try
> dmesg | tail or so
>
> # dmesg | tail
> VFS: Can't find ext3 filesystem on dev loop0.
>
> => Ich habe es manuel versucht, das RAID ist bereits nach dem
> Booten zusammengebaut, eine Festplatte ist mir offensichtlich
> ausgefallen, ich vermute ein SATA Kabelproblem in meinem
> Computer - während einem meiner Reboots war einmal /dev/sdd1
> weg, dafür /dev/sda1 da.
> Meine Vermutung ist, dass dadurch mein RAID korrupt wurde.
> Obwohl ich nichts geschrieben habe, vermute ich, dass dmraid
> mir damit die Daten ruiniert hat.
>
> # mdadm --detail /dev/md0
> /dev/md0:
> Version : 00.90.02
> Creation Time : Wed May 10 17:18:42 2006
> Raid Level : raid5
> Device Size : 244195840 (232.88 GiB 250.06 GB)
> Raid Devices : 4
> Total Devices : 3
> Preferred Minor : 0
> Persistence : Superblock is persistent
>
> Update Time : Thu Jan 25 20:11:44 2007
> State : active, degraded
> Active Devices : 3
> Working Devices : 3
> Failed Devices : 0
> Spare Devices : 0
>
> Layout : left-symmetric
> Chunk Size : 128K
>
> UUID : fdf2f7aa:27427688:990476e1:29c1b262
> Events : 0.370510
>
> Number Major Minor RaidDevice State
> 0 0 0 - removed
> 1 8 17 1 active sync /dev/sdb1
> 2 8 33 2 active sync /dev/sdc1
> 3 8 49 3 active sync /dev/sdd1
>
> Ich aktiviere das crypt in einem Loop-Back Device (ich nehme
> hier loop2, nicht loop0 wie mount, sollte keinen Unterschied machen):
>
> # losetup -e blowfish256 /dev/loop2 /dev/md0
> Password:
>
> Ich versuche einen Filesystemcheck:
>
> # fsck.ext3 /dev/loop2
> e2fsck 1.38 (30-Jun-2005)
> fsck.ext3: Invalid argument while trying to open /dev/loop2
>
> The superblock could not be read or does not describe a
> correct ext2 filesystem. If the device is valid and it
> really contains an ext2 filesystem (and not swap or ufs or
> something else), then the superblock is corrupt, and you
> might try running e2fsck with an alternate superblock:
> e2fsck -b 8193 <device>
>
> noch einen:
> fsck.ext3 -b 8193 /dev/loop2
> und noch einige andere mit anderen Superblöcken...., selbes Ergebniss.
>
> Hat jemand noch eine Idee was ich machen könnte ?, ich würd
> mich schon über einige gerettete Dateien freuen.
>
> lg,
> Christoph
>
> --
> Um die Liste abzubestellen, schicken Sie eine Mail an:
> opensuse-de+unsubscribe@xxxxxxxxxxxx
> Um eine Liste aller verfuegbaren Kommandos zu bekommen,
> schicken Sie eine Mail an: opensuse-de+help@xxxxxxxxxxxx
>
>
--
Um die Liste abzubestellen, schicken Sie eine Mail an:
opensuse-de+unsubscribe@xxxxxxxxxxxx
Um eine Liste aller verfuegbaren Kommandos zu bekommen, schicken
Sie eine Mail an: opensuse-de+help@xxxxxxxxxxxx
Dasselbe Procedere habe ich schon probiert, er hat sda1 wieder neu dem raid
zugewiesen und den Rebuild begonnen.
Mit
"mdadm --assemble /dev/md2 /dev/sda1 /dev/sdb1 /dev/sdc1 /dev/sdd1"
bekomme ich.
Ich glaube, nachdem er mit
Als RAID erkennt er sie nicht, er finde
--
Um die Liste abzubestellen, schicken Sie eine Mail an:
opensuse-de+unsubscribe(a)opensuse.org
Um eine Liste aller verfuegbaren Kommandos zu bekommen, schicken
Sie eine Mail an: opensuse-de+help(a)opensuse.org