hallo Mailinglist Leser,
Dank der Inputs aus der Newsgroup kam ich auf folgende Idee:
Ich untersuchte mein RAID weiter und es sah so aus, als wäre mein RAID schon
nicht funktionstüchtig. losetup geht zwar auf /dev/md2 aber ich glaube da
ist einfach nichts da, denn der Status meines RAID ist "active, degraded",
und er sollte, wie ich verstehe "clean, degraded" sein. Das dann in Folge
auch kein ext3 Dateisystem gefunden werden kann wäre klar, wo gar nichts
ist, kann auch kein ext3 sein. "cat /dev/md2" lieferte nichts, ich gehe
davon aus es sollte aber.
Ich versuchte also von "active, degraded" auf "clean, degraded" zu kommen...
und --force bei mdadm war der einzige Parameter der mir fehlte - JUHU !
d.h. mdadm -A --force /dev/md2 /dev/....
brachte mir ein gültiges Dateisystem wieder !
Schade, dass sogar der kostenpflichtige Linux Support hier nicht helfen
konnte, aber hätte vermutlich lang
gedauert zu finden, d.h. ich hab mir viel Geld erspart ! Jedenfalls sinds
nur 3 Kommandos !
=> falls das jemand mit ähnlichem Problem liest (z.b. ein zweites crypt-RAID
kann nicht von den Suse Startup
gemounted werden - war auch bei mir so) - macht es manuel:
LÖSUNG:
Kommentiert die Einträge aus /etc/fstab, /etc/cryptotab & /etc/raidtab aus
und führt
die Kommandos (zu adaptieren für jeweilige devices/encryption, etc.)
mdadm -A --force /dev/md2 /dev/sde1 /dev/sdf1 /dev/sdg1
losetup -e twofish256 /dev/loop2 /dev/md1
mount -t ext3 /dev/loop2 /media/raidtest
aus.
bzw. falls mount nicht geht ein fsck.ext3 /dev/loop1 oder fsck -b 8193
/dev/loop1
führt den filesystemcheck aus.
lg,
Christoph
PS.: ich hab schon bald genug von Troubles...., vielleicht werd ich irgendwo
Einsiedler und laß meine Computer
in einer grossen Autopresse ihr Ende erleben.
Hallo Arno,
danke für deine Antwort, ich habe es darauf händisch probiert. Das vom
Startup Prozess assemblede RAID gestoppt
und neu assembled und da taucht auch ein Fehler auf (Input/Output error),
ich weiß nur nicht was ich damit anfangen soll.
mdadm --detail gibt mir dennoch den Status "active, degraded". fdisk -l
meldet alle Platten.
mdadm: md device /dev/md0 does not appear to be active.
# mdadm --assemble /dev/md2 /dev/sda1 /dev/sdb1 /dev/sdc1 /dev/sdd1
mdadm: /dev/md2 assembled from 3 drives - need all 4 to start it (use --run
to insist).
# mdadm --assemble --run /dev/md2 /dev/sda1 /dev/sdb1 /dev/sdc1 /dev/sdd1
mdadm: failed to RUN_ARRAY /dev/md2: Input/output error
# mdadm --detail /dev/md2
/dev/md2:
Version : 00.90.02
Creation Time : Wed May 10 17:18:42 2006
Raid Level : raid5
Device Size : 244195840 (232.88 GiB 250.06 GB)
Raid Devices : 4
Total Devices : 3
Preferred Minor : 2
Persistence : Superblock is persistent
Update Time : Thu Jan 25 20:11:44 2007
State : active, degraded
Active Devices : 3
Working Devices : 3
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 128K
UUID : fdf2f7aa:27427688:990476e1:29c1b262
Events : 0.370510
Number Major Minor RaidDevice State
0 0 0 - removed
1 8 17 1 active sync /dev/sdb1
2 8 33 2 active sync /dev/sdc1
3 8 49 3 active sync /dev/sdd1
>dein Systemdatum ist falsch. Wer danach sortiert wird u.U. deine Mail nicht
>zu sehen bekommen, was schade wäre, denn ich kann dir nicht wirklich
> helfen...
korrigiert.
> >>hallo liebe Mailinglistler,
> >>
> >>ich hab ein Trouble: mein ganzes RAID 5 ist weg !!!
> >>Und das nach einem, genau gesagt 3 Reboots.
> >>
> >>
> >>Definitiv nicht so gut... wenn da was ausfällt sollte man das System
> zuerst wieder in Gang setzen... aber das ist ja nun egal.
> >>
> >>
> >>Wenn es hier einen
> >>Festplatten/Dateisystem/RAID/crypt Profi gibt, bitte um Hilfe !
> >>Der kostenpflichtige Suse Support konnte mir auch nicht helfen und hat
> mich
> >>hier verwiesen...
> >Die sind ja lustig...
> >>Aus Datensicherheitsgründen habe ich mich für ein RAID 5 Array mit 4
> >>Festplatten (alle 4 RAID, keine Spare) unter Suse 10.1 zur Speicherung
> >>meiner Daten entschieden. Auf dem RAID habe ich ein Crypt Filesystem
> >>(twofish256) erstellt und mit ext3 formatiert, was aus meiner damaligen
> >>Sicht alles minimalstes Risiko sein hätte sollen,
>
> >Aber das Backup vergessen, oder was?
> >
> >:-)
> stünde auch an, leider zu spät...
>
> >>solange ich mich an das
> >>Passwort erinnere. Hier vermute ich aber einen üblen Bug mit für mich
> >>katastrophalen Folgen.
>
> >>Jetzt nach einem Reboot kann ich das RAID nicht mehr mounten, da kein
> >>gültiges ext3 Dateisystem mehr vorhanden ist !!!???
>
> >>Auf der Festplatte sind sehr viele wichtige, persönliche Daten, wie alle
> >>meine Urlaubsfotos, Videos, meine Diplomarbeit, etc... die ich alle
sicher
> >>gespeichert haben wollte und daher auf das RAID gespeichert habe. Seit
dem
> >>letztem Mal, dass es funktionierte, bis zum ersten Mal als ich
entdeckte,
> >>dass es nicht mehr ging habe ich 3* rebootet, nichts neu installiert,
> nichts
> >>auf das RAID geschrieben
> >Das ist schon mal gut.
> >>und keinen Filesystemcheck gemacht.
>
> >>Hier die Beschreibung
> >>Der Fehler:
>
> >># mount /media/raid
> >>Password:
> >>mount: wrong fs type, bad option, bad superblock on /dev/loop0,
> >>missing codepage or other error
> >>In some cases useful info is found in syslog - try
> >>dmesg | tail or so
>
> >># dmesg | tail
> >>VFS: Can't find ext3 filesystem on dev loop0.
> >>
> >>=> Ich habe es manuel versucht, das RAID ist bereits nach dem Booten
> >>zusammengebaut, eine Festplatte ist mir offensichtlich ausgefallen,
> >>ich vermute ein SATA Kabelproblem in meinem Computer - während einem
> meiner
> >>Reboots war einmal /dev/sdd1 weg, dafür /dev/sda1 da.
> >>Meine Vermutung ist, dass dadurch mein RAID korrupt wurde. Obwohl ich
> nichts
> >>geschrieben habe, vermute ich, dass dmraid mir damit
> >>die Daten ruiniert hat.
>
> >># mdadm --detail /dev/md0
> >>/dev/md0:
> >>Version : 00.90.02
> >>Creation Time : Wed May 10 17:18:42 2006
> >>Raid Level : raid5
> >>Device Size : 244195840 (232.88 GiB 250.06 GB)
> >>Raid Devices : 4
> >>Total Devices : 3
> >>Preferred Minor : 0
> >>Persistence : Superblock is persistent
> >>
> >>Update Time : Thu Jan 25 20:11:44 2007
> >>State : active, degraded
> >>Active Devices : 3
> >>Working Devices : 3
> >>Failed Devices : 0
> >>Spare Devices : 0
> >>
> >>Layout : left-symmetric
> >>Chunk Size : 128K
> >>
> >>UUID : fdf2f7aa:27427688:990476e1:29c1b262
> >>Events : 0.370510
> >>
> >>Number Major Minor RaidDevice State
> >>0 0 0 - removed
> >>1 8 17 1 active sync /dev/sdb1
> >>2 8 33 2 active sync /dev/sdc1
> >>3 8 49 3 active sync /dev/sdd1
>
> >Ok, das sieht eindeutig aus.
> >
> >Hast du schon eine Ersatzplatte da?
>
Kabel ist gewechselt, Platte funktioniert ja. Ärgerlich ist aber sehr, dass
der Startup Prozess das RAID
startet, OBWOHL er einen Fehler (eine Platte geht nicht) erkannt hat.....,
das hätte mir ev. die Probleme erspart.
--
Um die Liste abzubestellen, schicken Sie eine Mail an:
opensuse-de+unsubscribe(a)opensuse.org
Um eine Liste aller verfuegbaren Kommandos zu bekommen, schicken
Sie eine Mail an: opensuse-de+help(a)opensuse.org