Hallo zusammen,
das ?bel begann heute Morgen. Ich machte auf meinem SuSE-9.1-Server ein
Online-Update da ich gesehen hatte das ein Kernel-Patch verf?gbar war.
Nach diesem Update bootet der Server nicht mehr sondern quitierte mit
einer Kernel-Panik. In dem System ist ein Adaptec AIC-7892A U160/m (rev
02) an welchem 3 U160-SCSI-Platten angeschlossen sind. Diese sind wie
folgt Partitioniert:
sda1 Primary Linux ext2 542.87
sda2 Primary Linux raid autodetect 72851.31
sdb1 Primary Linux swap / Solaris 542.87
sdb2 Primary Linux raid autodetect 72851.31
sdc Primary Linux swap / Solaris 542.87
sdc2 Primary Linux raid autodetect 72851.31
sda1 war als /boot eingebunden, sdb1 + sdc1 als Swap. Die Partitionen
sda2, sdb2 und sdc2 waren ein SoftwareRAID5 welches als / gemountet war
(FS=XFS). Nachdem ich es nicht geschafft habe das RAID von einem
Rescue-System aus zu aktivieren habe ich die 3 SCSI-Platten vom
Controller getrennt, eine IDE-Platte eingebaut und auf dieser SuSE-9.2
installiert. Nachdem dieses System fertig war habe ich es
heruntergefahren und die SCSI-Platten wieder angeschlossen. Nun h?tte
beim booten dieses RAID automatisch erkannt und aktiviert werden (ohne
mount nat?rlich). Das ist jedohc nicht passiert. Der Controller und die
Platten werden richtig erkannt. Hier der Auszug aus dem Bootlog (Sorry,
etwas l?nger):
###########################################################################
[...]
<5>SCSI subsystem initialized
<6>ACPI: PCI interrupt 0000:01:07.0[A] -> GSI 11 (level, low) -> IRQ 11
<6>scsi0 : Adaptec AIC7XXX EISA/VLB/PCI SCSI HBA DRIVER, Rev 6.2.36
<4>
Sven Gehr wrote:
<5>ReiserFS: hdc2: checking transaction log (hdc2) <5>ReiserFS: hdc2: Using r5 hash to sort names
Das scheint wohl die Ursache des Problems zu sein. Ist es möglich, dass das Laufwerk nicht ganz sauber heruntergefahren wurde? Ansonsten müsste das ausstehende Transaction Log leer sein. Ich weiss jetzt leider auch nicht genau, in welcher Datei das Transaction Log gespeichert ist. Sonst könntest du dort mal reinschauen.
<6>md: autorun ... <6>md: considering sdb2 ... <6>md: adding sdb2 ... <6>md: adding sda2 ... <6>md: created md0 <6>md: bind<sda2> <6>md: bind<sdb2> <6>md: running: <sdb2><sda2> <3>md: md0: raid array is not clean -- starting background reconstruction
sdc2 wird nicht eingebunden, da sie nicht in sync ist mit dem Rest des RAID. Die Rekonstruktion des RAID kann recht lange dauern, durchaus auch mal einen halben Tag!
<6>raid5: automatically using best checksumming function: pIII_sse <4> pIII_sse : 2500.000 MB/sec <4>raid5: using function: pIII_sse (2500.000 MB/sec) <6>md: raid5 personality registered as nr 4 <6>raid5: device sdb2 operational as raid disk 1 <6>raid5: device sda2 operational as raid disk 0 <3>raid5: cannot start dirty degraded array for md0
Wenn das RAID absolut nicht mehr starten will, auch nach langer Zeit nicht, dann befasse dich mal mit dem Ersetzen eines Laufwerkes in Software-RAID unter Linux. Es wird im How-to beschrieben. Und wenn alles nicht hilft, dann wird es Zeit, sich mit einem Backup zu befassen. (^-^) Sandy
Am Sa 26.03.2005 22:55 schrieb Sandy Drobic
<5>ReiserFS: hdc2: checking transaction log (hdc2) <5>ReiserFS: hdc2: Using r5 hash to sort names
Das scheint wohl die Ursache des Problems zu sein. Ist es m?glich, dass das Laufwerk nicht ganz sauber heruntergefahren wurde? Ansonsten m?sste das ausstehende Transaction Log leer sein. Ich weiss jetzt leider auch nicht genau, in welcher Datei das Transaction Log gespeichert ist. Sonst k?nntest du dort mal reinschauen.
Die Platte hdc ist die zus?tzliche IDE-Platte auf der ich gerade mein Rettungssystem (9.2) installiert habe. Die hat eigentlich mit dem RAID nichts zu tun. Wie meinst das dies die Ursache sein k?nnte?
<6>md: autorun ... <6>md: considering sdb2 ... <6>md: adding sdb2 ... <6>md: adding sda2 ... <6>md: created md0 <6>md: bind<sda2> <6>md: bind<sdb2> <6>md: running: <sdb2><sda2> <3>md: md0: raid array is not clean -- starting background reconstruction
sdc2 wird nicht eingebunden, da sie nicht in sync ist mit dem Rest des RAID. Die Rekonstruktion des RAID kann recht lange dauern, durchaus auch mal einen halben Tag!
ok, es ist bereits mehr als 2 Tage mit dem Rettungssystem "up". Ich denke ich brauch nicht darauf hoffen das sich das RAID selbst erholt. Aber eines verstehe ich nicht. Es ist ein RAID5 mit drei Partitionen. Ein Problem mit sdc2 d?rfte doch kein Problem sein, oder? Viele Gr??e Sven
Sven Gehr wrote:
Am Sa 26.03.2005 22:55 schrieb Sandy Drobic
: Hallo zusammen,
<5>ReiserFS: hdc2: checking transaction log (hdc2) <5>ReiserFS: hdc2: Using r5 hash to sort names
Das scheint wohl die Ursache des Problems zu sein. Ist es m?glich, dass das Laufwerk nicht ganz sauber heruntergefahren wurde? Ansonsten m?sste das ausstehende Transaction Log leer sein. Ich weiss jetzt leider auch nicht genau, in welcher Datei das Transaction Log gespeichert ist. Sonst k?nntest du dort mal reinschauen.
Die Platte hdc ist die zus?tzliche IDE-Platte auf der ich gerade mein Rettungssystem (9.2) installiert habe. Die hat eigentlich mit dem RAID nichts zu tun. Wie meinst das dies die Ursache sein k?nnte?
Entweder du hast kein RAID5 oder dir fehlt eine Platte. RAID5 benötigt per Definition mindestens 3 Platten.
<6>md: autorun ... <6>md: considering sdb2 ... <6>md: adding sdb2 ... <6>md: adding sda2 ... <6>md: created md0 <6>md: bind<sda2> <6>md: bind<sdb2> <6>md: running: <sdb2><sda2> <3>md: md0: raid array is not clean -- starting background reconstruction
Hier werden nur 2 Platten für das RAID gefunden. Wo ist die dritte Platte?
sdc2 wird nicht eingebunden, da sie nicht in sync ist mit dem Rest des RAID. Die Rekonstruktion des RAID kann recht lange dauern, durchaus auch mal einen halben Tag!
ok, es ist bereits mehr als 2 Tage mit dem Rettungssystem "up". Ich denke ich brauch nicht darauf hoffen das sich das RAID selbst erholt.
Aber eines verstehe ich nicht. Es ist ein RAID5 mit drei Partitionen. Ein Problem mit sdc2 d?rfte doch kein Problem sein, oder?
Das RAID scheint anderer Meinung zu sein. Sandy
Am So 27.03.2005 20:15 schrieb Sandy Drobic
Die Platte hdc ist die zus?tzliche IDE-Platte auf der ich gerade mein Rettungssystem (9.2) installiert habe. Die hat eigentlich mit dem RAID nichts zu tun. Wie meinst das dies die Ursache sein k?nnte?
Entweder du hast kein RAID5 oder dir fehlt eine Platte. RAID5 ben?tigt per Definition mindestens 3 Platten.
Ja, das ist mir schon klar. Das RAID bestand aus sda, sdb und sdc. Am Controller sind auch alle Platten noch vorhanden. Und die ?berpr?fung mit dem Controller-BIOS meldet auch das die Platten in Ordnung sind. Wenn aber doch bei dieser Konstellation einer der Platten ausf?llt l?uft doch das RAID weiter, oder liege ich da falsch?
<6>md: autorun ... <6>md: considering sdb2 ... <6>md: adding sdb2 ... <6>md: adding sda2 ... <6>md: created md0 <6>md: bind<sda2> <6>md: bind<sdb2> <6>md: running: <sdb2><sda2> <3>md: md0: raid array is not clean -- starting background reconstruction
Hier werden nur 2 Platten f?r das RAID gefunden. Wo ist die dritte Platte?
Das ist ja das was ich nicht verstehe. Im Bootlog werden auch alle drei Platten korrekt gefunden.
sdc2 wird nicht eingebunden, da sie nicht in sync ist mit dem Rest des RAID. Die Rekonstruktion des RAID kann recht lange dauern, durchaus auch mal einen halben Tag!
ok, es ist bereits mehr als 2 Tage mit dem Rettungssystem "up". Ich denke ich brauch nicht darauf hoffen das sich das RAID selbst erholt.
Aber eines verstehe ich nicht. Es ist ein RAID5 mit drei Partitionen. Ein Problem mit sdc2 d?rfte doch kein Problem sein, oder?
Das RAID scheint anderer Meinung zu sein.
Ich werde morgen mal versuchen eine neue Platte f?r die fehlende einzubauen. Viele Gr??e Sven
Hi, Sven Gehr scribbled on 26.03.2005 21:40:
Hallo zusammen,
[...]
Im SW-RAID-HowTo finde ich nicht was man in solch einem Fall machen kann und auch im Web habe ich nichts gefunden. Hat jemand von Euch eine Idee was ich tun kann?
Schau doch mal in die mdadm ML, und/oder poste dort Deinen Fall (linux-raid [ at ] vger.kernel.org).
Viele Gr??e Sven
Gruß Torsten
Hallo Sven, ich hatte vor Kurzem etwas ähnliches. Allerdings habe ich mit einem halb-kaputten RAID5 (mit nur 2 Platten) rumgespielt und dabei offensichtlich einen 2. Fehler produziert. Damit war das RAID futsch. On Saturday 26 March 2005 21:40, Sven Gehr wrote:
<6>md: autorun ... <6>md: considering sdb2 ...
Also, hier hat er sdb2 als RAID Partition gefunden ...
<6>md: adding sdb2 ... <6>md: adding sda2 ... <6>md: created md0 <6>md: bind<sda2> <6>md: bind<sdb2> <6>md: running: <sdb2><sda2>
und mit sda2 verbunden.
<3>md: md0: raid array is not clean -- starting background reconstruction
leider stellt er fest, dass das RAID fehlerhaft ist, also sda2 passt nicht zu sdb2. Bei RAID5 mit nur 2 Platten ist das nicht gut.
<6>raid5: automatically using best checksumming function: pIII_sse <4> pIII_sse : 2500.000 MB/sec <4>raid5: using function: pIII_sse (2500.000 MB/sec) <6>md: raid5 personality registered as nr 4 <6>raid5: device sdb2 operational as raid disk 1 <6>raid5: device sda2 operational as raid disk 0 <3>raid5: cannot start dirty degraded array for md0
Das sagt er Dir hier nochmal deutlich.
<4>RAID5 conf printout: <4> --- rd:3 wd:2 fd:1 <4> disk 0, o:1, dev:sda2 <4> disk 1, o:1, dev:sdb2 <1>raid5: failed to run raid set md0 <3>md: pers->run() failed ... <4>md :do_md_run() returned -22 <6>md: md0 stopped. <6>md: unbind<sdb2> <6>md: export_rdev(sdb2) <6>md: unbind<sda2> <6>md: export_rdev(sda2) <6>md: ... autorun DONE. <6>md: Autodetecting RAID arrays. <3>md: could not bd_claim sdb2. <3>md: could not bd_claim sda2.
ok, sda2+sdb2 hat nicht geklappt ...
<6>md: autorun ... <6>md: considering sdc2 ...
nächster Versuch mit sda2+sdb2+sdc2
<6>md: adding sdc2 ... <6>md: adding sdb2 ... <6>md: adding sda2 ... <6>md: created md0 <6>md: bind<sda2> <6>md: bind<sdb2> <6>md: bind<sdc2> <6>md: running: <sdc2><sdb2><sda2> <4>md: kicking non-fresh sdc2 from array!
sdc2 gefällt ihm aber nicht bleiben sda2+sdb2 ... der Rest wie oben. Mal eine ganz wilde Vermutung: Du hast versucht, der kaputten Platte wieder Leben ein zu hauchen? Torsten
Am So 27.03.2005 21:46 schrieb Torsten Foertsch
ich hatte vor Kurzem etwas ?hnliches. Allerdings habe ich mit einem halb-kaputten RAID5 (mit nur 2 Platten) rumgespielt und dabei offensichtlich einen 2. Fehler produziert. Damit war das RAID futsch.
<6>md: autorun ... <6>md: considering sdb2 ...
Also, hier hat er sdb2 als RAID Partition gefunden ...
<6>md: ?adding sdb2 ... <6>md: ?adding sda2 ... <6>md: created md0 <6>md: bind<sda2> <6>md: bind<sdb2> <6>md: running: <sdb2><sda2>
und mit sda2 verbunden.
<3>md: md0: raid array is not clean -- starting background reconstruction
leider stellt er fest, dass das RAID fehlerhaft ist, also sda2 passt nicht zu sdb2. Bei RAID5 mit nur 2 Platten ist das nicht gut.
Ja, aber ich hatte doch ein RAID5 mit 3 Platten.
<4>RAID5 conf printout: <4> --- rd:3 wd:2 fd:1 <4> disk 0, o:1, dev:sda2 <4> disk 1, o:1, dev:sdb2 <1>raid5: failed to run raid set md0 <3>md: pers->run() failed ... <4>md :do_md_run() returned -22 <6>md: md0 stopped. <6>md: unbind<sdb2> <6>md: export_rdev(sdb2) <6>md: unbind<sda2> <6>md: export_rdev(sda2) <6>md: ... autorun DONE. <6>md: Autodetecting RAID arrays. <3>md: could not bd_claim sdb2. <3>md: could not bd_claim sda2.
ok, sda2+sdb2 hat nicht geklappt ...
<6>md: autorun ... <6>md: considering sdc2 ...
n?chster Versuch mit sda2+sdb2+sdc2
<6>md: ?adding sdc2 ... <6>md: ?adding sdb2 ... <6>md: ?adding sda2 ... <6>md: created md0 <6>md: bind<sda2> <6>md: bind<sdb2> <6>md: bind<sdc2> <6>md: running: <sdc2><sdb2><sda2> <4>md: kicking non-fresh sdc2 from array!
sdc2 gef?llt ihm aber nicht bleiben sda2+sdb2 ... der Rest wie oben.
Mal eine ganz wilde Vermutung: Du hast versucht, der kaputten Platte wieder Leben ein zu hauchen?
Nein, sind drei gleiche Platten alle vom Typ (STSSP = Sau teuere SCSI Server Platten). Wie gesagt, Das Ganze System lief ohne Probleme. Nach dem Neustart ging nichts mehr. Wie vorhin schon gesagt werde ich mal versuchen Morgen eine Platte austutauschen. Sollte das nichts bringen. Gibt es die M?glichkeit die Partitionen, etwas mit dd, auf neue Platten zu kopieren und dann wieder als RAID zu aktivieren? Viele Gr??e Sven
Sven Gehr wrote:
Nein, sind drei gleiche Platten alle vom Typ (STSSP = Sau teuere SCSI Server Platten). Wie gesagt, Das Ganze System lief ohne Probleme. Nach dem Neustart ging nichts mehr.
Wenn das alles schon SCSI-Platten sind, warum hast du das nicht als Hardware-RAID konfiguriert. Ein RAID-Controller ist bei Ebay schon für recht wenig Geld zu haben. Ein Mylex Acceleraid 170 etwa kostet ca. 50-80 Euro und hat alles, was man von einem RAID-Controller erwartet. Wird zudem noch praktisch von jedem Betriebssystem unterstützt und bietet zusammen mit der richtigen Hardware auch Hotplug. Bei meinem alten RAID-Controller wurde das RAID5 angehalten, sobald eine Inkonsistenz festgestellt wurde. Erst, wenn das RAID wieder komplett war, konnte ich es nutzen. Ich vermute, das es bei deinem Software-RAID genause ist. Bisher dürften die Daten noch rettbar sein, solange du nicht das RAID insgesamt niedermachst oder eine der beiden verbliebenen Platten irgendwie killst. (^-^)
Wie vorhin schon gesagt werde ich mal versuchen Morgen eine Platte austutauschen. Sollte das nichts bringen. Gibt es die M?glichkeit die Partitionen, etwas mit dd, auf neue Platten zu kopieren und dann wieder als RAID zu aktivieren?
Wenn die Platten nicht defekt sind, wird das kaum etwas bringen. Versuche lieber mal, dich mit der Diagnose von Software-RAID zu befassen und den genauen Fehler festzustellen. Es hat nicht viel zu bedeuten, dass alle Platten von BIOS erkannt werden. Wie bereits geschrieben, versuche doch einfach mal nach der Anleitung zum Ersetzen einer Platte vorzugehen. - Platte sdc aus dem RAID nehmen - LowLevel-Format der Platte. Nur wenn keine Fehler dann weiter: - Partitionen einrichten, entweder per Hand oder wie in der Anleitung mit sfdisk. - Platte wieder einbinden und RAID Rebuild anstossen. Sandy
Hallo, [...]
Wenn die Platten nicht defekt sind, wird das kaum etwas bringen. Versuche lieber mal, dich mit der Diagnose von Software-RAID zu befassen und den genauen Fehler festzustellen.
Es hat nicht viel zu bedeuten, dass alle Platten von BIOS erkannt werden. Wie bereits geschrieben, versuche doch einfach mal nach der Anleitung zum Ersetzen einer Platte vorzugehen. - Platte sdc aus dem RAID nehmen - LowLevel-Format der Platte. Nur wenn keine Fehler dann weiter: - Partitionen einrichten, entweder per Hand oder wie in der Anleitung mit sfdisk. - Platte wieder einbinden und RAID Rebuild anstossen.
Ich habe die Platte sdc mal abgeklemmt. Ich habe allerdings keine SCSI-Platte vorrätig. Kann ich zum testen auch die Partition mit gleicher Größe auf einer IDE-Platte anlegen? Viele Grüße Sven
Am Mon, 2005-03-28 um 13.37 schrieb Sven Gehr:
Ich habe die Platte sdc mal abgeklemmt. Ich habe allerdings keine SCSI-Platte vorrätig. Kann ich zum testen auch die Partition mit gleicher Größe auf einer IDE-Platte anlegen?
Hallo Sven, die Platte ist dem Raid egal, nur die Partionsgrößen sollten stimmen. Im Prinzip geht ein SW-Raid sogar mit gleich großen Partionen auf einer einzigen Platte, die Geschwindigkeit wird halt sehr einschläfernd und die Sicherheit ist im Eimer. Für Raid sollten möglichst gleiche Platten verwendet werden, denn die langsamste bremst das gesamte System aus. Noch einen schönen Rest des Osterfestes. Edmund
Am Mo 28.03.2005 13:56 schrieb Edmund Neubert
Am Mon, 2005-03-28 um 13.37 schrieb Sven Gehr:
Hallo,
Ich habe die Platte sdc mal abgeklemmt. Ich habe allerdings keine SCSI-Platte vorrätig. Kann ich zum testen auch die Partition mit gleicher Größe auf einer IDE-Platte anlegen?
die Platte ist dem Raid egal, nur die Partionsgrößen sollten stimmen. Im Prinzip geht ein SW-Raid sogar mit gleich großen Partionen auf einer einzigen Platte, die Geschwindigkeit wird halt sehr einschläfernd und die Sicherheit ist im Eimer.
Für Raid sollten möglichst gleiche Platten verwendet werden, denn die langsamste bremst das gesamte System aus.
Ich werde jetzt zunächst einmal den SCSI-Controller und das Kabel tauschen. Damit ich das als mögliche Fehlerquelle ausschließen kann. Wenn das auch nichts bringt werde ich ein IDE-Platte mit gleicher Partitionsgröße ins System hängen. Was ich an der Sache nach wie vor nicht verstehe ist: Ein RAID5 besteht aus 3 Platten. Fällt eine davon aus passiert doch eigentlich noch nichts. Genauso wenn ich die deffekte Platte abklemme müßte es doch weiter laufen.
Noch einen schönen Rest des Osterfestes.
Mein Osterfest ist leider im Eimer aber trotzdem Danke und ebenfalls ein schönes Fest. Viele Grüße Sven
Am Mon, 2005-03-28 um 14.36 schrieb Sven Gehr:
Am Mo 28.03.2005 13:56 schrieb Edmund Neubert
: Am Mon, 2005-03-28 um 13.37 schrieb Sven Gehr:
Jedes Raid-Level hat ein Minimum an Partionen, für Raid 0 oder 1 benötigst Du 2, bei Raid 5 jedoch mindestens 3 Partionen. Hier noch etwas zum lesen. http://schering.si.uni-hannover.de/stuff/gaertner/WD719X/Linux/Docu/SCSI%20-... http://www.linuxfaq.de/cgi-bin/fom?amp=&file=413 Gruß Edmund
Hallo,
Jedes Raid-Level hat ein Minimum an Partionen, für Raid 0 oder 1 benötigst Du 2, bei Raid 5 jedoch mindestens 3 Partionen.
bedeutet das wenn ich ein RAID5 mit 3 Partitionen erstelle und eine ausfällt das RAID nicht mehr läuft? Was macht das denn für einen Sinn?
Hier noch etwas zum lesen.
http://schering.si.uni-hannover.de/stuff/gaertner/WD719X/Linux/Docu/SCSI%20-... http://www.linuxfaq.de/cgi-bin/fom?amp=&file=413
Danke. Die Info's zu SCSI werde ich wohl weniger brauchen da ich schon mehr als 10 Jahre SCSI verwende. Der 2. Link sieht interessant aus, hier finde ich evtl. Info's zu den RAID-Tools. Viele Grüße Sven
Am Mo 28.03.2005 15:53 schrieb Sven Gehr
Am Mon, 2005-03-28 um 17.36 schrieb Sven Gehr:
Am Mo 28.03.2005 15:53 schrieb Sven Gehr
: Hallo zusammen,
ich habe nun folgendes gemacht. Die Partition die vom SW-RAID angemeckert wird (sdc2) abgeklemmt und eine neue Partition (hdc3) auf einer anderen Platte angelegt. Hierzu habe ich in Yast einfach die gleiche Größe (+67.8GB) angegen und als Partitions-Tp "Linux-RAID" angegeben.
Zur Erinnerung, ich arbeite im Moment mit einem Rettungssystem (9.2) das auf der Platte hdc (1=SWAP und 2=/) installiert ist. Dieses System "wußte" also von dem RAID noch nie etwas.
Wenn ich nun in dieser Konstellation boot erhalte ich im Bootlog:
[...] md: invalid raid superblock magic on hdc3 md: hdc3 has invalid sb, not importing! [...]
Habe ich beim anlegen der neuen RAID-Partition etwas falsch gemacht bzw. wie muß ich nun weiter vorgehen um das RAID mit dieser neuen Partition wieder zu aktivieren?
Viele Grüße Sven
Hallo Sven, lies Dir doch bitte mal auf http://www.linuxfaq.de/cgi-bin/fom?amp=&file=413 den Abschnitt 10.2.2. Der sichere Weg durch, möglicherweise kann Dir damit geholfen werden. Gruß Edmund
Am Mo 28.03.2005 18:37 schrieb Edmund Neubert
Am Mon, 2005-03-28 um 17.36 schrieb Sven Gehr:
Am Mo 28.03.2005 15:53 schrieb Sven Gehr
:
Hallo,
ich habe nun folgendes gemacht. Die Partition die vom SW-RAID angemeckert wird (sdc2) abgeklemmt und eine neue Partition (hdc3) auf einer anderen Platte angelegt. Hierzu habe ich in Yast einfach die gleiche Gr??e (+67.8GB) angegen und als Partitions-Tp "Linux-RAID" angegeben.
Zur Erinnerung, ich arbeite im Moment mit einem Rettungssystem (9.2) das auf der Platte hdc (1=SWAP und 2=/) installiert ist. Dieses System "wu?te" also von dem RAID noch nie etwas.
Wenn ich nun in dieser Konstellation boot erhalte ich im Bootlog:
[...] md: invalid raid superblock magic on hdc3 md: hdc3 has invalid sb, not importing! [...]
Habe ich beim anlegen der neuen RAID-Partition etwas falsch gemacht bzw. wie mu? ich nun weiter vorgehen um das RAID mit dieser neuen Partition wieder zu aktivieren?
lies Dir doch bitte mal auf http://www.linuxfaq.de/cgi-bin/fom?amp=&file=413 den Abschnitt 10.2.2. Der sichere Weg durch, m?glicherweise kann Dir damit geholfen werden.
Ok, ich habe mir das durchgelesen. Dabei ergeben sich f?r mich jedoch folgende Fragen. Ich habe noch zwei weitere SuSE-Systeme mit SoftwareRAID. Beim System mit SuSE-9.1 gibt es die Datei /etc/raidtab. Bei dem zweiten System mit 9.2 gibt es diese Datei ?berhaupt nicht. Bei beiden Sytemen l?uft jedoch das RAID was in der /proc/mdstat ersichtlich ist. Habe ich die M?glichkeit die beiden noch verbleibenden Partitionen (sda2 und sdb2) in Rohform zu sichern bevor ich den mkraid... durchf?hre? Was ich auch noch nicht wei? ist die Sache mit der Partitionsgr??e. Ist es ok wenn die Partition die gleiche Gr??e hat sich jedoch in der Anzahl der Bl?cke von den anderen beiden unterscheidet? Viele Gr??e Sven
Am Mo 28.03.2005 18:37 schrieb Edmund Neubert
Am Mon, 2005-03-28 um 17.36 schrieb Sven Gehr:
Am Mo 28.03.2005 15:53 schrieb Sven Gehr
:
Hallo nochmal,
lies Dir doch bitte mal auf http://www.linuxfaq.de/cgi-bin/fom?amp=&file=413 den Abschnitt 10.2.2. Der sichere Weg durch, m?glicherweise kann Dir damit geholfen werden.
Ich bin einfach mal der Anweisung gefolt. Ich habe die Datei /etc/raidtaberstellt: raiddev /dev/md0 raid-level 5 nr-raid-disks 3 nr-spare-disks 0 parity-algorithm left-symmetric persistent-superblock 1 chunk-size 32 device /dev/sda2 raid-disk 0 device /dev/sdb2 raid-disk 1 device /dev/hdc3 raid-disk 2 Beim Aufruf von 'mkraid -f /dev/md0' erhalte ich: WARNING! NOTE: if you are recovering a double-disk error or some other failure mode that made your array unrunnable but data is still intact then it's strongly recommended to use the lsraid utility and to read the lsraid HOWTO. If your RAID array holds useful and not yet backed up data then --force and the hot-add/hot-remove functionality should be used with extreme care! If your /etc/raidtab file is not in sync with the real array configuration, then --force might DESTROY ALL YOUR DATA. It's especially dangerous to use -f if the array is in degraded mode. If your /etc/raidtab file matches the real layout of on-disk data then recreating the array will not hurt your data, but be aware of the risks of doing this anyway: freshly created RAID1 and RAID5 arrays do a full resync of their mirror/parity blocks, which, if the raidtab is incorrect, the resync will wipe out data irrecoverably. Also, if your array is in degraded mode then the raidtab must match the degraded config exactly, otherwise you'll get the same kind of data destruction during resync. (see the failed-disk raidtab option.) You have been warned! [ If your array holds no data, or you have it all backed up, or if you know precisely what you are doing and you stil l want to proceed then use the --really-force (or -R) flag. ] Habe erst mal davon abgesehen die Funktion --really-force aufzurufen da ich die Daten nicht verlieren m?chte. Ich habe im Web einige User mit dem gleichen Problem gefunden. Hier wird als m?gliche L?sung der Befehl: mdadm --assemble /dev/md0 --force /dev/sda2 /dev/sdb2 /dev/hdc3 aufgef?hrt. Au?erdem gibt es die M?glichkeit mit 'mdadm --examine ...' der Zustand des RAID's ermitteln. Hierbei bekomme ich f?r sda2 und sdb2 folgende Ausgabe: ##################### /dev/sda2 ##################### Magic : a92b4efc Version : 00.90.00 UUID : 2a22312d:d2b5e927:ba9b13e1:b0767882 Creation Time : Tue Aug 17 13:49:11 2004 Raid Level : raid5 Device Size : 71143680 (67.85 GiB 72.85 GB) Raid Devices : 3 Total Devices : 2 Preferred Minor : 0 Update Time : Sat Mar 26 09:19:48 2005 State : dirty Active Devices : 2 Working Devices : 2 Failed Devices : 1 Spare Devices : 0 Checksum : 991ae008 - correct Events : 0.6245547 Layout : left-symmetric Chunk Size : 128K Number Major Minor RaidDevice State this 1 8 18 1 active sync /dev/sdb2 0 0 8 2 0 active sync /dev/sda2 1 1 8 18 1 active sync /dev/sdb2 2 2 0 0 2 faulty removed ###################################################### ##################### /dev/sdb2 ##################### Magic : a92b4efc Version : 00.90.00 UUID : 2a22312d:d2b5e927:ba9b13e1:b0767882 Creation Time : Tue Aug 17 13:49:11 2004 Raid Level : raid5 Device Size : 71143680 (67.85 GiB 72.85 GB) Raid Devices : 3 Total Devices : 2 Preferred Minor : 0 Update Time : Sat Mar 26 09:19:48 2005 State : dirty Active Devices : 2 Working Devices : 2 Failed Devices : 1 Spare Devices : 0 Checksum : 991adff6 - correct Events : 0.6245547 Layout : left-symmetric Chunk Size : 128K Number Major Minor RaidDevice State this 0 8 2 0 active sync /dev/sda2 0 0 8 2 0 active sync /dev/sda2 1 1 8 18 1 active sync /dev/sdb2 2 2 0 0 2 faulty removed ###################################################### So wie es f?r mich aussieht sind die beiden Partitionen sda2 und sdb2 ok. Hat jemand Erfahrung mit 'mdadm --assemble /dev/md0 --force ...' ? Viele Gr??e Sven
participants (5)
-
Edmund Neubert
-
Sandy Drobic
-
Sven Gehr
-
Torsten E.
-
Torsten Foertsch