Keiner der bei RAID helfen kann????
Dies ist der dritte re-post da ich bisher leider keine Hilfe gefunden habe. JEDER Hinweis ist willkommen!!! Quintessenz: ------------ Wie kann ich hda und hdb entfernen, ohne dass dass die raid 5 arrays auf hdc, sda und sdb sich neu synchronisieren wollen. Die Details: ------------ Ich habe den Umstieg von suse 9.0 auf 9.2 zum Anlass genommen auf neue Festplatten "umzuziehen". Unter 9.0 hatte ich zwei festplatten mit LVM: hda und hdb. Für die Installation von suse 9.2 habe ich 3 weitere angeschlossen die ich partioniert habe und zwei raid 5 arrays zugeordnet habe. Eins für das root fs das andere für daten inklusive home via LVM2 (alles mit yast2). Alles hat bestens funktioniert das neue system bootet und läuft bestens, die alten Daten von hda und hdb sind migriert und ich wollte nun die alten Platten abklemmen (ich boote mit grup im boot sektor einer diskette). Das system bootet aber "hängt" beim ersten schreibzugriff auf die festplatten (boot.msg) mit massiver festplatten aktivität und kommt nicht mehr weiter. Vorher huscht eine Meldung vorbei, dass die arrays neu sychronisiert werden müssen. Nun dies ended auch nach mehr als 96 Stunden nicht! Ich komm in das System nicht mehr rein, es sei den ich klemm die beiden Platten wieder an, dann läuft alles ohne Probleme. Klemm ich andere Platten an ändern sich die Symtome auch nicht. Meine Frage: Wo ist das Problem; wie kann ich die beiden Platten abklemmen und das System trotzdem starten? Im Anhang befinden sich * /etc/raidtab des 9.2 systems * cat /proc/mdstat des laufenden :-) systems :-glup Personalities : [raid5] md1 : active raid5 sdb7[2] sda7[1] hdc7[0] 381222144 blocks level 5, 128k chunk, algorithm 2 [3/3] [UUU] md0 : active raid5 sdb6[2] sda6[1] hdc6[0] 8401664 blocks level 5, 128k chunk, algorithm 2 [3/3] [UUU] unused devices: <none> # autogenerated /etc/raidtab by YaST2 raiddev /dev/md0 raid-level 5 nr-raid-disks 3 nr-spare-disks 0 persistent-superblock 1 parity-algorithm left-symmetric chunk-size 128 device /dev/hdc6 raid-disk 0 device /dev/sda6 raid-disk 1 device /dev/sdb6 raid-disk 2 raiddev /dev/md1 raid-level 5 nr-raid-disks 3 nr-spare-disks 0 persistent-superblock 1 parity-algorithm left-symmetric chunk-size 128 device /dev/hdc7 raid-disk 0 device /dev/sda7 raid-disk 1 device /dev/sdb7 raid-disk 2
Am Mittwoch, den 23.02.2005, 13:20 +0100 schrieb nospam:
Dies ist der dritte re-post da ich bisher leider keine Hilfe gefunden habe. JEDER Hinweis ist willkommen!!!
Hallo Nospam, vielleicht weiss es ja keiner. Oder den Leuten hier ist dein Name zu unreal... cu Daniel -- Daniel Hanke Linux/Unix Systemadministrator, RHCE windream GmbH - Wasserstrasse 219 - 44799 Bochum Telefon +49 234 9734 0 - Telefax +49 234 9734 520 http://www.windream.com
-----BEGIN PGP SIGNED MESSAGE----- Hash: SHA1 nospam wrote: | Dies ist der dritte re-post da ich bisher leider keine Hilfe gefunden habe. | JEDER Hinweis ist willkommen!!! | | Quintessenz: | ------------ | Wie kann ich hda und hdb entfernen, ohne dass dass die raid 5 arrays auf | hdc, sda und sdb sich neu synchronisieren wollen. | Wenn die Dateien fstab und raidtab keinen Eintrag mehr zum ersten Raid haben sollten es doch eigentlich gehen. Verrutsch ggf. deine hdc durch entfernen der ersten Platten in der Bezeichnung? -----BEGIN PGP SIGNATURE----- Version: GnuPG v1.2.6 (GNU/Linux) Comment: Using GnuPG with Thunderbird - http://enigmail.mozdev.org iD4DBQFCHHhZgRRKXJrQjTsRApiTAJ0fZftnGUlpYc9rF7uOehylZe8rYgCY08tG Ki/NljfxzNgWlRldrjrTfw== =Nd65 -----END PGP SIGNATURE-----
nospam schrieb:
Dies ist der dritte re-post da ich bisher leider keine Hilfe gefunden habe. JEDER Hinweis ist willkommen!!! Wenn sowohl hda als auch hdb abgeklemmt werden, ist der erste IDE-Kanal nicht mehr belegt. Wird dann nicht die erste Platte am anderen Kanal (also die frühere hdc) zu hda ? Und dann würde das in der raidtab aufgeführte device hdc fehlen ...
Was passiert, wenn Du nur eine Platte abklemmst ?
participants (4)
-
Daniel Hanke
-
nospam
-
Rainer Kaluscha
-
Ralf Prengel