[opensuse-es] Reparación de RAID 1
Hola a tod@s: En un servidor, estaba implementado un RAID 1 con 4 discos WD Caviar de 500 GB cada uno; de pronto, el servidor arranca y muestra un mensaje de algo relacionado con el volumen lògico. Al revisar detenidamente, el sistema muestra que no puede arrancar el RAID, debido a una falla en uno de los discos que integran el RAID; el segundo disco, para ser exactos (en GNU/Linux aparece como /dev/sdc, sin particiones). He retirado el disco del servidor, con la esperanza que el RAID pueda arrancar, pero solo muestra una críptica consola de GRUB; sospecho que la raíz del sistema operativo estaba en el disco duro que falló. En otras ocasiones, he podido reemplazar discos y reensamblar RAIDs desde el sistema operativo; ahora el problema radica en que no tengo sistema operativo desde el cual operar. ¿Alguien ha enfrentado y sobrevivido a una situación similar y puede ayudarme ? Quedo atento a sus comentarios/indicaciones/sugerencias. Cordialmente, Cuervo Linuxero -- No recibo/envío información elaborados en/para M$-Word, M$-Excel, M$-PowerPoint, M$-Outlook o formatos privativos similares. Le invito a leer mis razones: http://www.gnu.org/philosophy/no-word-attachments.es.html -- Para dar de baja la suscripción, mande un mensaje a: opensuse-es+unsubscribe@opensuse.org Para obtener el resto de direcciones-comando, mande un mensaje a: opensuse-es+help@opensuse.org
El Mon, 20 Sep 2010 22:46:47 -0500, RŌNIN escribió:
No dices el tipo de raid que tienes (hardware -controladora-, software - md-, o fakeraid -dm-).
Sí, pero para eso sirve el raid1, para poder iniciar el equipo aún con el array degradado (un sólo disco) hasta que lo sustituyas. Eso sí, me parece que el software raid requiere intervención manual para poder arrancar el sistema.
Quizá te falle el GRUB, aunque es algo raro... Prueba a iniciar con alguna LiveCD que te permita iniciar un sistema instalado. Saludos, -- Camaleón -- Para dar de baja la suscripción, mande un mensaje a: opensuse-es+unsubscribe@opensuse.org Para obtener el resto de direcciones-comando, mande un mensaje a: opensuse-es+help@opensuse.org
Hola a tod@s: El día 21 de septiembre de 2010 01:40, Camaleón escribió:
No dices el tipo de raid que tienes (hardware -controladora-, software - md-, o fakeraid -dm-).
Es cierto, perdón por el olvido. El RAID es por software.
Así es, pero como no tengo sistema operativo (en el RAID) desde el cual operar, no sé qué hacer.
Quizá te falle el GRUB, aunque es algo raro... Prueba a iniciar con alguna LiveCD que te permita iniciar un sistema instalado.
Así es, he iniciado desde un LiveCD y con mdadm --examine /dev/sd*, he podido orientarme un poco sobre la situación y composición del RAID (no implementé éste servidor y por lo tanto, lo desconozco en absoluto) ... pero nada más. :-( ¿Cómo puedo reestablecer el sistema operativo en el RAID, reemplazo el disco averiado y debo hacer algo más?. ¿Puedo restaurar el RAID usando un LiveCD ? Cordialmente, Cuervo Linuxero -- No recibo/envío información elaborados en/para M$-Word, M$-Excel, M$-PowerPoint, M$-Outlook o formatos privativos similares. Le invito a leer mis razones: http://www.gnu.org/philosophy/no-word-attachments.es.html -- Para dar de baja la suscripción, mande un mensaje a: opensuse-es+unsubscribe@opensuse.org Para obtener el resto de direcciones-comando, mande un mensaje a: opensuse-es+help@opensuse.org
El Tue, 21 Sep 2010 09:36:58 -0500, RŌNIN escribió:
O.k.
Hombre, "sistema" tienes que tener :-) lo que podrás será iniciarlo porque GRUB no está donde la BIOS espera encontrarlo o porque GRUB no encuentra la partición de inicio.
Sería interesante que iniciaras el equipo normalmente (te marcará el array como "degraded" pero podrás trabajar normalmente) para poder investigar si se trata de un falso positivo o para poder reconstruir el array con un disco nuevo. Mira a ver si te sirve lo que te ha comentado Francisco, en arrays por software ando pez :-)
¿Puedo restaurar el RAID usando un LiveCD ?
Hum... podrás usarla para arreglar las cosas (ubicación de GRUB o editar los archivos de configuración) pero si quieres ejecutar comandos entiendo que tendrás que crear un entorno "chrooteado". Saludos, -- Camaleón -- Para dar de baja la suscripción, mande un mensaje a: opensuse-es+unsubscribe@opensuse.org Para obtener el resto de direcciones-comando, mande un mensaje a: opensuse-es+help@opensuse.org
RŌNIN escribió:
* El problema es que seguramente no instalaste grub en ambos discos. * Cambia el disco estropeado y tienes que arrancar desde el disco que esta correcto, bien sea desde un disquete de grub, live cd o lo que sea en cualquier caso tienes que cambiar el orden de arranque priorizando el correcto. * Cambia el disco dañado y desde grub o desde el live cd, suponiendo que el disco correcto fuera el segundo seria algo como: grub entrar en grub root (sdb1,0) trabajar sobre la primera particion del segundo disco, donde esten los stages. setup (sdb1) instalar grub sobre el mbr del segundo disco quit salir de grub * Reinicia desde el segundo disco (ya cambiado en al bios), particiona el disco nuevo como estuviera antes (si no lo has hecho desde el live cd, no hace falta formatear), suponiendo que tuviera una sola particion y añadela con mdadm para reconstruir el raid. * mdadm /dev/md0 --add /dev/sda1 cat /proc/mdstat para ver el progreso. * Cuando termine, cambia en /boot/grub/device.map la referencia del disco viejo por el nuevo. * Inserta grub en el disco nuevo tal como se indico anteriormente cambiando sdb por sda, ya puedes cambiar en la bios el orden para probarlo y ya tienes en los dos el arranque, por si te vuelve a ocurrir. -- Para dar de baja la suscripción, mande un mensaje a: opensuse-es+unsubscribe@opensuse.org Para obtener el resto de direcciones-comando, mande un mensaje a: opensuse-es+help@opensuse.org
Hola a tod@s: El día 21 de septiembre de 2010 15:44, jose maria escribió:
He intentado hallar las particiones que estaban antes en el disco averiado, y para ello he utilizado el TestDisk, pero en el análisis no me muestra ninguna partición :( A continuación, reproduzco el archivo de registro del TestDisk: Sat Sep 25 15:26:13 2010 Command line: TestDisk TestDisk 6.12-WIP, Data Recovery Utility, July 28, 2010 Christophe GRENIER <grenier@cgsecurity.org> http://www.cgsecurity.org OS: Linux, kernel 2.6.35.4.64bit (#3 SMP Mon Aug 30 04:27:48 UTC 2010) x86_64 Compiler: GCC 4.4 - Jul 28 2010 13:32:25 ext2fs lib: 1.41.12, ntfs lib: 10:0:0, reiserfs lib: 0.3.1-rc8, ewf lib: 20100226 /dev/sda: LBA, LBA48, DCO support /dev/sda: size 976773168 sectors /dev/sda: user_max 976773168 sectors /dev/sda: dco 976773168 sectors /dev/sdb: LBA, HPA, LBA48, DCO support /dev/sdb: size 976773168 sectors /dev/sdb: user_max 976773168 sectors /dev/sdb: native_max 976773168 sectors /dev/sdb: dco 976773168 sectors Warning: can't get size for Disk /dev/mapper/control - 0 B - CHS 1 1 1, sector size=512 /dev/sr0 is not an ATA disk Hard disk list Disk /dev/sda - 500 GB / 465 GiB - CHS 60801 255 63, sector size=512 - ATA WDC WD5000AAKS-6 Disk /dev/sdb - 500 GB / 465 GiB - CHS 60801 255 63, sector size=512 - ATA SAMSUNG HD502HJ Disk /dev/sr0 - 124 MB / 118 MiB - CHS 60673 1 1 (RO), sector size=2048 - HL-DT-ST DVDRAM GH20NS10 Partition table type (auto): Intel Disk /dev/sda - 500 GB / 465 GiB - ATA WDC WD5000AAKS-6 Partition table type: Intel Analyse Disk /dev/sda - 500 GB / 465 GiB - CHS 60801 255 63 Current partition structure: No partition is bootable Ask the user for vista mode Allow partial last cylinder : No search_vista_part: 0 search_part() Disk /dev/sda - 500 GB / 465 GiB - CHS 60801 255 63 recover_EXT2: s_block_group_nr=0/12, s_mnt_count=3/4294967295, s_blocks_per_group=8192, s_inodes_per_group=2008 recover_EXT2: s_blocksize=1024 recover_EXT2: s_blocks_count 104320 recover_EXT2: part_size 208640 Linux 0 1 1 12 252 47 208640 EXT3 Sparse superblock, 106 MB / 101 MiB Raid magic value at 12/252/48 Raid apparent size: 208640 sectors Raid chunk size: 0 bytes md1 md 0.90.0 Raid 1: devices 0(8,1) 1(8,17) 2(8,33)* 3(8,49) Linux RAID 0 1 1 12 254 49 208768 [md1] md 0.90.0 Raid 1: devices 0(8,1) 1(8,17) 2(8,33)* 3(8,49), 106 MB / 101 MiB get_geometry_from_list_part_aux head=255 nbr=3 get_geometry_from_list_part_aux head=8 nbr=2 get_geometry_from_list_part_aux head=16 nbr=2 get_geometry_from_list_part_aux head=32 nbr=2 get_geometry_from_list_part_aux head=64 nbr=2 get_geometry_from_list_part_aux head=128 nbr=2 get_geometry_from_list_part_aux head=240 nbr=2 get_geometry_from_list_part_aux head=255 nbr=3 Results Linux 0 1 1 12 254 63 208782 EXT3 Sparse superblock, 106 MB / 101 MiB Linux RAID 0 1 1 12 254 63 208782 [md1] md 0.90.0 Raid 1: devices 0(8,1) 1(8,17) 2(8,33)* 3(8,49), 106 MB / 101 MiB interface_write() No partition found or selected for recovery ¿Qué herramienta o procedimiento puedo utilizar/seguir para recuperar las particiones del disco? Quedo a la espera de sus comentarios/sugerencias/indicaciones. Cordialmente, Cuervo Linuxero -- No recibo/envío información elaborados en/para M$-Word, M$-Excel, M$-PowerPoint, M$-Outlook o formatos privativos similares. Le invito a leer mis razones: http://www.gnu.org/philosophy/no-word-attachments.es.html -- Para dar de baja la suscripción, mande un mensaje a: opensuse-es+unsubscribe@opensuse.org Para obtener el resto de direcciones-comando, mande un mensaje a: opensuse-es+help@opensuse.org
-----BEGIN PGP SIGNED MESSAGE----- Hash: SHA1 El 2010-09-25 a las 11:08 -0500, RŌNIN escribió:
¿Qué herramienta o procedimiento puedo utilizar/seguir para recuperar las particiones del disco?
Gpart. Pero probablemente las particiones sean las mismas en el disco dañado que en los intactos. Si el sistema es inarrancable, arranca con otro disco más, o una live, activa el raid en modo degradado, e investiga el fstab. Luego, actúa. - -- Saludos -----BEGIN PGP SIGNATURE----- Version: GnuPG v2.0.12 (GNU/Linux) iEYEARECAAYFAkyfVqIACgkQtTMYHG2NR9UM1gCcD65ytvz++vAq1vNKIiFQI+F1 AYYAnRZfEFn+6Wto8tqNQmkg7vkobjjP =r/1Z -----END PGP SIGNATURE-----
Hola a tod@s: El día 26 de septiembre de 2010 09:20, Carlos E. R. escribió:
Si el sistema es inarrancable, arranca con otro disco más, o una live, activa el raid en modo degradado, e investiga el fstab. Luego, actúa.
¿Puedes explicarme cómo hacer lo que me aconsejas, por favor ? Quedo atento a sus comentarios/indicaciones/sugerencias. Cordialmente, Cuervo Linuxero -- No recibo/envío información elaborados en/para M$-Word, M$-Excel, M$-PowerPoint, M$-Outlook o formatos privativos similares. Le invito a leer mis razones: http://www.gnu.org/philosophy/no-word-attachments.es.html -- Para dar de baja la suscripción, mande un mensaje a: opensuse-es+unsubscribe@opensuse.org Para obtener el resto de direcciones-comando, mande un mensaje a: opensuse-es+help@opensuse.org
Hola a tod@s: El día 21 de septiembre de 2010 15:44, jose maria escribió:
Seguí éstas instrucciones y ya el sistema arranca desde el otro disco.
Aquí tengo problemas, pues no sé cómo estaba particionado el disco antes (los demás discos tienen 3 particiones, según pude ver). Cuando inicio el sistema con 3 o los 4 discos puestos (he clonado el disco averiado a un un disco nuevo), el sistema arranca y luego aparece lo siguiente: raid10: not enough operational mirrors for md2 md: pers -> run () failed mdadm: failed to RUN_ARRAY /dev/md2: Input/output error mdadm: Not enough devices to start the array mdadm: /dev/md0 has been started with 3 drives (out of 4). Reading all physical volumes. This may take a while ... No volume groups found Volume group "VolGroup00" not found mount: could not find filesystem '/dev/root' setuproot: moving /dev failed: No such file or directory setuproot: error mounting /proc: No such file or directory setuproot: error mounting /sys: No such file or directory switchroot: mount failed: No such file or directory kernel panic - not sysncing: Attempted to kill init! He intentado con un LiveCD, pero cuando listo los dispositivos en /dev no aparece ningún md*, así que no sé qué hacer. Quedo atento a sus comentarios/indicaciones/sugerencias. Cordialmente, Cuervo Linuxero -- No recibo/envío información elaborados en/para M$-Word, M$-Excel, M$-PowerPoint, M$-Outlook o formatos privativos similares. Le invito a leer mis razones: http://www.gnu.org/philosophy/no-word-attachments.es.html -- Para dar de baja la suscripción, mande un mensaje a: opensuse-es+unsubscribe@opensuse.org Para obtener el resto de direcciones-comando, mande un mensaje a: opensuse-es+help@opensuse.org
-----BEGIN PGP SIGNED MESSAGE----- Hash: SHA1 El 2010-10-09 a las 01:26 -0500, RŌNIN escribió:
El día 21 de septiembre de 2010 15:44, jose maria escribió:
...
Seguí éstas instrucciones y ya el sistema arranca desde el otro disco.
Algo es algo.
Mmm. Posiblemente estaría igual, las mismas particiones.
¿raid diez? :-o No me gusta. http://en.wikipedia.org/wiki/RAID_10#RAID_10_.28RAID_1.2B0.29 disco 1 | > raid 1 | disco 2 | | > raid 0 disco 3 | | > raid 1 | disco 4 | Clonar el disco no se si es correcto, sería mejor dejar que se reconstruya a partir de lo que esté bueno en el ordenador. Habría que regenerar el disco 4 a partir del 3. Es decir, averiguar cual es el espejo del disco averiado y usar las utilidades de regeneración del raid para clonar ese. Los otros dos discos son inútiles para esta parte del proceso. Lo que no entiendo es porqué no es capaz de arrancar degradado. El problema es que para conseguir leer cosas de ese sistema necesitas los tres discos. En un raid 1 puedes leer cosas del otro disco, como el "/etc/mdadm.conf", el fstab... El que hizo ese sistema debiera haberlo documentado en papel. Esto es una manzana envenenada.
El resto de errores son irrelevantes.
He intentado con un LiveCD, pero cuando listo los dispositivos en /dev no aparece ningún md*, así que no sé qué hacer.
Podría tener los mismos errores del anterior. Habria que añadir los elementos del raid sin equivocarse, a mano. - -- Saludos Carlos E. R. (desde 11.2 x86_64 "Emerald" en Telcontar) -----BEGIN PGP SIGNATURE----- Version: GnuPG v2.0.12 (GNU/Linux) iEYEARECAAYFAkywZ7MACgkQtTMYHG2NR9UuuACfdgam5fRqv0NkURZP/Dj1MtyM MlUAoJGtwbffe/Blr/DhuHHZQvHMJ7hq =PaZX -----END PGP SIGNATURE-----
RŌNIN escribió:
Aquí tengo problemas, pues no sé cómo estaba particionado el disco antes (los demás discos tienen 3 particiones, según pude ver).
* por lo que parece tienes mas de un raid.
Cuando inicio el sistema con 3 o los 4 discos puestos (he clonado el disco averiado a un un disco nuevo),
* ¿que has clonado el disco averiado a un disco nuevo? es que no estaba averiado?, no hagas inventos raros.
* El error es que tienes un raid 1+0 y no un raid 1 , al menos en md2. * De momento limitate a arreglar el desaguisado del raid donde este el sistema, teoricamente md0.
* Mal asunto para arreglarlo por e-mail. * la cuestion es la siguiente: * lo primero es averiguar cuantos raid tienes. * mira en /proc/mdstat y /etc/mdadm.conf puede que en este fichero este la informacion. * lo siguiente seria quitar las particiones del disco fallido de todos los raids. * mdadm /dev/mdX --fail --remove /dev/sdaX y las demas particiones de sus mds. * con la opcion --examine puedes ver las caracteristicas de los raids en las particiones de los otros discos, lanza las salidas a un fichero junto con un fdisk -l, lo cual te dara una idea aproximada del asunto. * para los raids donde no este el sistema mdadm --stop /dev/mdX. * para forzar un arranque degradado mdadm --assemble --force /dev/mdX /dev/sdX /dev/sdY * En cualquier caso lo fundamental es arreglar el raid donde se aloja el sistema seguramente md0, las particiones no tienen que ser iguales asegurate de que NO son inferiores a las existentes, de todas maneras si el 1+0 afecta al sistema cambia eso en cuanto puedas tienes 4 discos un raid 5 de todo seria mucho mejor o un raid 1 pequeño en todos los discos para el sistema y raid 5 para datos. -- Para dar de baja la suscripción, mande un mensaje a: opensuse-es+unsubscribe@opensuse.org Para obtener el resto de direcciones-comando, mande un mensaje a: opensuse-es+help@opensuse.org
Hola a tod@s: El día 9 de octubre de 2010 13:43, jose maria escribió:
El sistema operativo del RAID no arranca, y desde un LiveCD no pude obtener la información.
Preferí no hacer nada, hasta que no se revise la información que obtuve.
Aquí está lo que muestra el sistema: [root@server ~]# mdadm --examine /dev/sda1 /dev/sda1: Magic : a92b4efc Version : 0.90.00 UUID : 4bee1196:320a9203:19e528fd:ab6af4c2 Creation Time : Fri Jan 11 11:22:08 2008 Raid Level : raid1 Used Dev Size : 104320 (101.89 MiB 106.82 MB) Array Size : 104320 (101.89 MiB 106.82 MB) Raid Devices : 4 Total Devices : 1 Preferred Minor : 127 Update Time : Fri Oct 8 23:51:34 2010 State : clean Active Devices : 1 Working Devices : 1 Failed Devices : 3 Spare Devices : 0 Checksum : 80acac2e - correct Events : 420 Number Major Minor RaidDevice State this 0 8 1 0 active sync /dev/sda1 0 0 8 1 0 active sync /dev/sda1 1 1 0 0 1 faulty removed 2 2 0 0 2 faulty removed 3 3 0 0 3 faulty removed [root@server ~]# mdadm --examine /dev/sda2 /dev/sda2: Magic : a92b4efc Version : 0.90.00 UUID : 4b411920:f40743e2:6076dcd4:29e86c7e Creation Time : Fri Jan 11 11:15:37 2008 Raid Level : raid10 Used Dev Size : 487765248 (465.17 GiB 499.47 GB) Array Size : 975530496 (930.34 GiB 998.94 GB) Raid Devices : 4 Total Devices : 3 Preferred Minor : 2 Update Time : Mon Sep 20 13:10:15 2010 State : active Active Devices : 3 Working Devices : 3 Failed Devices : 1 Spare Devices : 0 Checksum : 2623df43 - correct Events : 35358165 Layout : near=2 Chunk Size : 256K Number Major Minor RaidDevice State this 0 8 2 0 active sync /dev/sda2 0 0 8 2 0 active sync /dev/sda2 1 1 8 18 1 active sync /dev/sdb2 2 2 0 0 2 faulty removed 3 3 8 50 3 active sync /dev/sdd2 [root@server ~]# mdadm --examine /dev/sda3 /dev/sda3: Magic : a92b4efc Version : 0.90.00 UUID : d9fd798b:3236d155:fb6b7788:6a8c2596 Creation Time : Fri Jan 11 11:15:40 2008 Raid Level : raid10 Used Dev Size : 513792 (501.83 MiB 526.12 MB) Array Size : 1027584 (1003.67 MiB 1052.25 MB) Raid Devices : 4 Total Devices : 3 Preferred Minor : 0 Update Time : Sun Sep 19 05:04:01 2010 State : clean Active Devices : 3 Working Devices : 3 Failed Devices : 1 Spare Devices : 0 Checksum : af800978 - correct Events : 2024 Layout : near=2 Chunk Size : 256K Number Major Minor RaidDevice State this 0 8 3 0 active sync /dev/sda3 0 0 8 3 0 active sync /dev/sda3 1 1 8 19 1 active sync /dev/sdb3 2 2 0 0 2 faulty removed 3 3 8 51 3 active sync /dev/sdd3 [root@server ~]# mdadm --examine /dev/sdb1 /dev/sdb1: Magic : a92b4efc Version : 0.90.00 UUID : 4bee1196:320a9203:19e528fd:ab6af4c2 Creation Time : Fri Jan 11 11:22:08 2008 Raid Level : raid1 Used Dev Size : 104320 (101.89 MiB 106.82 MB) Array Size : 104320 (101.89 MiB 106.82 MB) Raid Devices : 4 Total Devices : 3 Preferred Minor : 126 Update Time : Fri Oct 8 23:39:31 2010 State : clean Active Devices : 3 Working Devices : 3 Failed Devices : 1 Spare Devices : 0 Checksum : 80aca9b8 - correct Events : 418 Number Major Minor RaidDevice State this 1 8 17 1 active sync /dev/sdb1 0 0 8 1 0 active sync /dev/sda1 1 1 8 17 1 active sync /dev/sdb1 2 2 0 0 2 faulty removed 3 3 8 49 3 active sync /dev/sdd1 [root@server ~]# mdadm --examine /dev/sdb2 /dev/sdb2: Magic : a92b4efc Version : 0.90.00 UUID : 4b411920:f40743e2:6076dcd4:29e86c7e Creation Time : Fri Jan 11 11:15:37 2008 Raid Level : raid10 Used Dev Size : 487765248 (465.17 GiB 499.47 GB) Array Size : 975530496 (930.34 GiB 998.94 GB) Raid Devices : 4 Total Devices : 3 Preferred Minor : 2 Update Time : Mon Sep 20 13:10:15 2010 State : active Active Devices : 3 Working Devices : 3 Failed Devices : 1 Spare Devices : 0 Checksum : 2623df55 - correct Events : 35358165 Layout : near=2 Chunk Size : 256K Number Major Minor RaidDevice State this 1 8 18 1 active sync /dev/sdb2 0 0 8 2 0 active sync /dev/sda2 1 1 8 18 1 active sync /dev/sdb2 2 2 0 0 2 faulty removed 3 3 8 50 3 active sync /dev/sdd2 [root@server ~]# mdadm --examine /dev/sdb3 /dev/sdb3: Magic : a92b4efc Version : 0.90.00 UUID : d9fd798b:3236d155:fb6b7788:6a8c2596 Creation Time : Fri Jan 11 11:15:40 2008 Raid Level : raid10 Used Dev Size : 513792 (501.83 MiB 526.12 MB) Array Size : 1027584 (1003.67 MiB 1052.25 MB) Raid Devices : 4 Total Devices : 3 Preferred Minor : 0 Update Time : Sun Sep 19 05:04:01 2010 State : clean Active Devices : 3 Working Devices : 3 Failed Devices : 1 Spare Devices : 0 Checksum : af80098a - correct Events : 2024 Layout : near=2 Chunk Size : 256K Number Major Minor RaidDevice State this 1 8 19 1 active sync /dev/sdb3 0 0 8 3 0 active sync /dev/sda3 1 1 8 19 1 active sync /dev/sdb3 2 2 0 0 2 faulty removed 3 3 8 51 3 active sync /dev/sdd3 [root@server ~]# mdadm --examine /dev/sdd1 /dev/sdd1: Magic : a92b4efc Version : 0.90.00 UUID : 4bee1196:320a9203:19e528fd:ab6af4c2 Creation Time : Fri Jan 11 11:22:08 2008 Raid Level : raid1 Used Dev Size : 104320 (101.89 MiB 106.82 MB) Array Size : 104320 (101.89 MiB 106.82 MB) Raid Devices : 4 Total Devices : 3 Preferred Minor : 126 Update Time : Fri Oct 8 23:39:31 2010 State : clean Active Devices : 3 Working Devices : 3 Failed Devices : 1 Spare Devices : 0 Checksum : 80aca9dc - correct Events : 418 Number Major Minor RaidDevice State this 3 8 49 3 active sync /dev/sdd1 0 0 8 1 0 active sync /dev/sda1 1 1 8 17 1 active sync /dev/sdb1 2 2 0 0 2 faulty removed 3 3 8 49 3 active sync /dev/sdd1 [root@server ~]# mdadm --examine /dev/sdd2 /dev/sdd2: Magic : a92b4efc Version : 0.90.00 UUID : 4b411920:f40743e2:6076dcd4:29e86c7e Creation Time : Fri Jan 11 11:15:37 2008 Raid Level : raid10 Used Dev Size : 487765248 (465.17 GiB 499.47 GB) Array Size : 975530496 (930.34 GiB 998.94 GB) Raid Devices : 4 Total Devices : 3 Preferred Minor : 2 Update Time : Mon Sep 20 13:12:27 2010 State : clean Active Devices : 1 Working Devices : 1 Failed Devices : 2 Spare Devices : 0 Checksum : 283f65f3 - correct Events : 35358170 Layout : near=2 Chunk Size : 256K Number Major Minor RaidDevice State this 3 8 50 3 active sync /dev/sdd2 0 0 0 0 0 removed 1 1 0 0 1 faulty removed 2 2 0 0 2 faulty removed 3 3 8 50 3 active sync /dev/sdd2 [root@server ~]# mdadm --examine /dev/sdd3 /dev/sdd3: Magic : a92b4efc Version : 0.90.00 UUID : d9fd798b:3236d155:fb6b7788:6a8c2596 Creation Time : Fri Jan 11 11:15:40 2008 Raid Level : raid10 Used Dev Size : 513792 (501.83 MiB 526.12 MB) Array Size : 1027584 (1003.67 MiB 1052.25 MB) Raid Devices : 4 Total Devices : 3 Preferred Minor : 0 Update Time : Sun Sep 19 05:04:01 2010 State : clean Active Devices : 3 Working Devices : 3 Failed Devices : 1 Spare Devices : 0 Checksum : af8009ae - correct Events : 2024 Layout : near=2 Chunk Size : 256K Number Major Minor RaidDevice State this 3 8 51 3 active sync /dev/sdd3 0 0 8 3 0 active sync /dev/sda3 1 1 8 19 1 active sync /dev/sdb3 2 2 0 0 2 faulty removed 3 3 8 51 3 active sync /dev/sdd3
De ésto último no hice nada ... espero que la información obtenida sea de utilidad. Quedo atento a sus comentarios/indicaciones/sugerencias. Cordialmente, Cuervo Linuxero -- No recibo/envío información elaborados en/para M$-Word, M$-Excel, M$-PowerPoint, M$-Outlook o formatos privativos similares. Le invito a leer mis razones: http://www.gnu.org/philosophy/no-word-attachments.es.html -- Para dar de baja la suscripción, mande un mensaje a: opensuse-es+unsubscribe@opensuse.org Para obtener el resto de direcciones-comando, mande un mensaje a: opensuse-es+help@opensuse.org
On Tuesday 21 September 2010 05:46:47 RŌNIN wrote:
Si es por software deberias tener el grub grabado en todos los discos : Grabar el boot record en el segundo disco del RAID en una shell
grup
grub> device (hd0) /dev/sdb (aquí poner el disco a modificar) root (hd0,0) (seleccionar partición root) setup (hd0) (graba el sector boot) quitar las variables resume del grub -- Para dar de baja la suscripción, mande un mensaje a: opensuse-es+unsubscribe@opensuse.org Para obtener el resto de direcciones-comando, mande un mensaje a: opensuse-es+help@opensuse.org
El Mon, 20 Sep 2010 22:46:47 -0500, RŌNIN escribió:
No dices el tipo de raid que tienes (hardware -controladora-, software - md-, o fakeraid -dm-).
Sí, pero para eso sirve el raid1, para poder iniciar el equipo aún con el array degradado (un sólo disco) hasta que lo sustituyas. Eso sí, me parece que el software raid requiere intervención manual para poder arrancar el sistema.
Quizá te falle el GRUB, aunque es algo raro... Prueba a iniciar con alguna LiveCD que te permita iniciar un sistema instalado. Saludos, -- Camaleón -- Para dar de baja la suscripción, mande un mensaje a: opensuse-es+unsubscribe@opensuse.org Para obtener el resto de direcciones-comando, mande un mensaje a: opensuse-es+help@opensuse.org
Hola a tod@s: El día 21 de septiembre de 2010 01:40, Camaleón escribió:
No dices el tipo de raid que tienes (hardware -controladora-, software - md-, o fakeraid -dm-).
Es cierto, perdón por el olvido. El RAID es por software.
Así es, pero como no tengo sistema operativo (en el RAID) desde el cual operar, no sé qué hacer.
Quizá te falle el GRUB, aunque es algo raro... Prueba a iniciar con alguna LiveCD que te permita iniciar un sistema instalado.
Así es, he iniciado desde un LiveCD y con mdadm --examine /dev/sd*, he podido orientarme un poco sobre la situación y composición del RAID (no implementé éste servidor y por lo tanto, lo desconozco en absoluto) ... pero nada más. :-( ¿Cómo puedo reestablecer el sistema operativo en el RAID, reemplazo el disco averiado y debo hacer algo más?. ¿Puedo restaurar el RAID usando un LiveCD ? Cordialmente, Cuervo Linuxero -- No recibo/envío información elaborados en/para M$-Word, M$-Excel, M$-PowerPoint, M$-Outlook o formatos privativos similares. Le invito a leer mis razones: http://www.gnu.org/philosophy/no-word-attachments.es.html -- Para dar de baja la suscripción, mande un mensaje a: opensuse-es+unsubscribe@opensuse.org Para obtener el resto de direcciones-comando, mande un mensaje a: opensuse-es+help@opensuse.org
El Tue, 21 Sep 2010 09:36:58 -0500, RŌNIN escribió:
O.k.
Hombre, "sistema" tienes que tener :-) lo que podrás será iniciarlo porque GRUB no está donde la BIOS espera encontrarlo o porque GRUB no encuentra la partición de inicio.
Sería interesante que iniciaras el equipo normalmente (te marcará el array como "degraded" pero podrás trabajar normalmente) para poder investigar si se trata de un falso positivo o para poder reconstruir el array con un disco nuevo. Mira a ver si te sirve lo que te ha comentado Francisco, en arrays por software ando pez :-)
¿Puedo restaurar el RAID usando un LiveCD ?
Hum... podrás usarla para arreglar las cosas (ubicación de GRUB o editar los archivos de configuración) pero si quieres ejecutar comandos entiendo que tendrás que crear un entorno "chrooteado". Saludos, -- Camaleón -- Para dar de baja la suscripción, mande un mensaje a: opensuse-es+unsubscribe@opensuse.org Para obtener el resto de direcciones-comando, mande un mensaje a: opensuse-es+help@opensuse.org
RŌNIN escribió:
* El problema es que seguramente no instalaste grub en ambos discos. * Cambia el disco estropeado y tienes que arrancar desde el disco que esta correcto, bien sea desde un disquete de grub, live cd o lo que sea en cualquier caso tienes que cambiar el orden de arranque priorizando el correcto. * Cambia el disco dañado y desde grub o desde el live cd, suponiendo que el disco correcto fuera el segundo seria algo como: grub entrar en grub root (sdb1,0) trabajar sobre la primera particion del segundo disco, donde esten los stages. setup (sdb1) instalar grub sobre el mbr del segundo disco quit salir de grub * Reinicia desde el segundo disco (ya cambiado en al bios), particiona el disco nuevo como estuviera antes (si no lo has hecho desde el live cd, no hace falta formatear), suponiendo que tuviera una sola particion y añadela con mdadm para reconstruir el raid. * mdadm /dev/md0 --add /dev/sda1 cat /proc/mdstat para ver el progreso. * Cuando termine, cambia en /boot/grub/device.map la referencia del disco viejo por el nuevo. * Inserta grub en el disco nuevo tal como se indico anteriormente cambiando sdb por sda, ya puedes cambiar en la bios el orden para probarlo y ya tienes en los dos el arranque, por si te vuelve a ocurrir. -- Para dar de baja la suscripción, mande un mensaje a: opensuse-es+unsubscribe@opensuse.org Para obtener el resto de direcciones-comando, mande un mensaje a: opensuse-es+help@opensuse.org
Hola a tod@s: El día 21 de septiembre de 2010 15:44, jose maria escribió:
He intentado hallar las particiones que estaban antes en el disco averiado, y para ello he utilizado el TestDisk, pero en el análisis no me muestra ninguna partición :( A continuación, reproduzco el archivo de registro del TestDisk: Sat Sep 25 15:26:13 2010 Command line: TestDisk TestDisk 6.12-WIP, Data Recovery Utility, July 28, 2010 Christophe GRENIER <grenier@cgsecurity.org> http://www.cgsecurity.org OS: Linux, kernel 2.6.35.4.64bit (#3 SMP Mon Aug 30 04:27:48 UTC 2010) x86_64 Compiler: GCC 4.4 - Jul 28 2010 13:32:25 ext2fs lib: 1.41.12, ntfs lib: 10:0:0, reiserfs lib: 0.3.1-rc8, ewf lib: 20100226 /dev/sda: LBA, LBA48, DCO support /dev/sda: size 976773168 sectors /dev/sda: user_max 976773168 sectors /dev/sda: dco 976773168 sectors /dev/sdb: LBA, HPA, LBA48, DCO support /dev/sdb: size 976773168 sectors /dev/sdb: user_max 976773168 sectors /dev/sdb: native_max 976773168 sectors /dev/sdb: dco 976773168 sectors Warning: can't get size for Disk /dev/mapper/control - 0 B - CHS 1 1 1, sector size=512 /dev/sr0 is not an ATA disk Hard disk list Disk /dev/sda - 500 GB / 465 GiB - CHS 60801 255 63, sector size=512 - ATA WDC WD5000AAKS-6 Disk /dev/sdb - 500 GB / 465 GiB - CHS 60801 255 63, sector size=512 - ATA SAMSUNG HD502HJ Disk /dev/sr0 - 124 MB / 118 MiB - CHS 60673 1 1 (RO), sector size=2048 - HL-DT-ST DVDRAM GH20NS10 Partition table type (auto): Intel Disk /dev/sda - 500 GB / 465 GiB - ATA WDC WD5000AAKS-6 Partition table type: Intel Analyse Disk /dev/sda - 500 GB / 465 GiB - CHS 60801 255 63 Current partition structure: No partition is bootable Ask the user for vista mode Allow partial last cylinder : No search_vista_part: 0 search_part() Disk /dev/sda - 500 GB / 465 GiB - CHS 60801 255 63 recover_EXT2: s_block_group_nr=0/12, s_mnt_count=3/4294967295, s_blocks_per_group=8192, s_inodes_per_group=2008 recover_EXT2: s_blocksize=1024 recover_EXT2: s_blocks_count 104320 recover_EXT2: part_size 208640 Linux 0 1 1 12 252 47 208640 EXT3 Sparse superblock, 106 MB / 101 MiB Raid magic value at 12/252/48 Raid apparent size: 208640 sectors Raid chunk size: 0 bytes md1 md 0.90.0 Raid 1: devices 0(8,1) 1(8,17) 2(8,33)* 3(8,49) Linux RAID 0 1 1 12 254 49 208768 [md1] md 0.90.0 Raid 1: devices 0(8,1) 1(8,17) 2(8,33)* 3(8,49), 106 MB / 101 MiB get_geometry_from_list_part_aux head=255 nbr=3 get_geometry_from_list_part_aux head=8 nbr=2 get_geometry_from_list_part_aux head=16 nbr=2 get_geometry_from_list_part_aux head=32 nbr=2 get_geometry_from_list_part_aux head=64 nbr=2 get_geometry_from_list_part_aux head=128 nbr=2 get_geometry_from_list_part_aux head=240 nbr=2 get_geometry_from_list_part_aux head=255 nbr=3 Results Linux 0 1 1 12 254 63 208782 EXT3 Sparse superblock, 106 MB / 101 MiB Linux RAID 0 1 1 12 254 63 208782 [md1] md 0.90.0 Raid 1: devices 0(8,1) 1(8,17) 2(8,33)* 3(8,49), 106 MB / 101 MiB interface_write() No partition found or selected for recovery ¿Qué herramienta o procedimiento puedo utilizar/seguir para recuperar las particiones del disco? Quedo a la espera de sus comentarios/sugerencias/indicaciones. Cordialmente, Cuervo Linuxero -- No recibo/envío información elaborados en/para M$-Word, M$-Excel, M$-PowerPoint, M$-Outlook o formatos privativos similares. Le invito a leer mis razones: http://www.gnu.org/philosophy/no-word-attachments.es.html -- Para dar de baja la suscripción, mande un mensaje a: opensuse-es+unsubscribe@opensuse.org Para obtener el resto de direcciones-comando, mande un mensaje a: opensuse-es+help@opensuse.org
-----BEGIN PGP SIGNED MESSAGE----- Hash: SHA1 El 2010-09-25 a las 11:08 -0500, RŌNIN escribió:
¿Qué herramienta o procedimiento puedo utilizar/seguir para recuperar las particiones del disco?
Gpart. Pero probablemente las particiones sean las mismas en el disco dañado que en los intactos. Si el sistema es inarrancable, arranca con otro disco más, o una live, activa el raid en modo degradado, e investiga el fstab. Luego, actúa. - -- Saludos -----BEGIN PGP SIGNATURE----- Version: GnuPG v2.0.12 (GNU/Linux) iEYEARECAAYFAkyfVqIACgkQtTMYHG2NR9UM1gCcD65ytvz++vAq1vNKIiFQI+F1 AYYAnRZfEFn+6Wto8tqNQmkg7vkobjjP =r/1Z -----END PGP SIGNATURE-----
Hola a tod@s: El día 26 de septiembre de 2010 09:20, Carlos E. R. escribió:
Si el sistema es inarrancable, arranca con otro disco más, o una live, activa el raid en modo degradado, e investiga el fstab. Luego, actúa.
¿Puedes explicarme cómo hacer lo que me aconsejas, por favor ? Quedo atento a sus comentarios/indicaciones/sugerencias. Cordialmente, Cuervo Linuxero -- No recibo/envío información elaborados en/para M$-Word, M$-Excel, M$-PowerPoint, M$-Outlook o formatos privativos similares. Le invito a leer mis razones: http://www.gnu.org/philosophy/no-word-attachments.es.html -- Para dar de baja la suscripción, mande un mensaje a: opensuse-es+unsubscribe@opensuse.org Para obtener el resto de direcciones-comando, mande un mensaje a: opensuse-es+help@opensuse.org
Hola a tod@s: El día 21 de septiembre de 2010 15:44, jose maria escribió:
Seguí éstas instrucciones y ya el sistema arranca desde el otro disco.
Aquí tengo problemas, pues no sé cómo estaba particionado el disco antes (los demás discos tienen 3 particiones, según pude ver). Cuando inicio el sistema con 3 o los 4 discos puestos (he clonado el disco averiado a un un disco nuevo), el sistema arranca y luego aparece lo siguiente: raid10: not enough operational mirrors for md2 md: pers -> run () failed mdadm: failed to RUN_ARRAY /dev/md2: Input/output error mdadm: Not enough devices to start the array mdadm: /dev/md0 has been started with 3 drives (out of 4). Reading all physical volumes. This may take a while ... No volume groups found Volume group "VolGroup00" not found mount: could not find filesystem '/dev/root' setuproot: moving /dev failed: No such file or directory setuproot: error mounting /proc: No such file or directory setuproot: error mounting /sys: No such file or directory switchroot: mount failed: No such file or directory kernel panic - not sysncing: Attempted to kill init! He intentado con un LiveCD, pero cuando listo los dispositivos en /dev no aparece ningún md*, así que no sé qué hacer. Quedo atento a sus comentarios/indicaciones/sugerencias. Cordialmente, Cuervo Linuxero -- No recibo/envío información elaborados en/para M$-Word, M$-Excel, M$-PowerPoint, M$-Outlook o formatos privativos similares. Le invito a leer mis razones: http://www.gnu.org/philosophy/no-word-attachments.es.html -- Para dar de baja la suscripción, mande un mensaje a: opensuse-es+unsubscribe@opensuse.org Para obtener el resto de direcciones-comando, mande un mensaje a: opensuse-es+help@opensuse.org
-----BEGIN PGP SIGNED MESSAGE----- Hash: SHA1 El 2010-10-09 a las 01:26 -0500, RŌNIN escribió:
El día 21 de septiembre de 2010 15:44, jose maria escribió:
...
Seguí éstas instrucciones y ya el sistema arranca desde el otro disco.
Algo es algo.
Mmm. Posiblemente estaría igual, las mismas particiones.
¿raid diez? :-o No me gusta. http://en.wikipedia.org/wiki/RAID_10#RAID_10_.28RAID_1.2B0.29 disco 1 | > raid 1 | disco 2 | | > raid 0 disco 3 | | > raid 1 | disco 4 | Clonar el disco no se si es correcto, sería mejor dejar que se reconstruya a partir de lo que esté bueno en el ordenador. Habría que regenerar el disco 4 a partir del 3. Es decir, averiguar cual es el espejo del disco averiado y usar las utilidades de regeneración del raid para clonar ese. Los otros dos discos son inútiles para esta parte del proceso. Lo que no entiendo es porqué no es capaz de arrancar degradado. El problema es que para conseguir leer cosas de ese sistema necesitas los tres discos. En un raid 1 puedes leer cosas del otro disco, como el "/etc/mdadm.conf", el fstab... El que hizo ese sistema debiera haberlo documentado en papel. Esto es una manzana envenenada.
El resto de errores son irrelevantes.
He intentado con un LiveCD, pero cuando listo los dispositivos en /dev no aparece ningún md*, así que no sé qué hacer.
Podría tener los mismos errores del anterior. Habria que añadir los elementos del raid sin equivocarse, a mano. - -- Saludos Carlos E. R. (desde 11.2 x86_64 "Emerald" en Telcontar) -----BEGIN PGP SIGNATURE----- Version: GnuPG v2.0.12 (GNU/Linux) iEYEARECAAYFAkywZ7MACgkQtTMYHG2NR9UuuACfdgam5fRqv0NkURZP/Dj1MtyM MlUAoJGtwbffe/Blr/DhuHHZQvHMJ7hq =PaZX -----END PGP SIGNATURE-----
RŌNIN escribió:
Aquí tengo problemas, pues no sé cómo estaba particionado el disco antes (los demás discos tienen 3 particiones, según pude ver).
* por lo que parece tienes mas de un raid.
Cuando inicio el sistema con 3 o los 4 discos puestos (he clonado el disco averiado a un un disco nuevo),
* ¿que has clonado el disco averiado a un disco nuevo? es que no estaba averiado?, no hagas inventos raros.
* El error es que tienes un raid 1+0 y no un raid 1 , al menos en md2. * De momento limitate a arreglar el desaguisado del raid donde este el sistema, teoricamente md0.
* Mal asunto para arreglarlo por e-mail. * la cuestion es la siguiente: * lo primero es averiguar cuantos raid tienes. * mira en /proc/mdstat y /etc/mdadm.conf puede que en este fichero este la informacion. * lo siguiente seria quitar las particiones del disco fallido de todos los raids. * mdadm /dev/mdX --fail --remove /dev/sdaX y las demas particiones de sus mds. * con la opcion --examine puedes ver las caracteristicas de los raids en las particiones de los otros discos, lanza las salidas a un fichero junto con un fdisk -l, lo cual te dara una idea aproximada del asunto. * para los raids donde no este el sistema mdadm --stop /dev/mdX. * para forzar un arranque degradado mdadm --assemble --force /dev/mdX /dev/sdX /dev/sdY * En cualquier caso lo fundamental es arreglar el raid donde se aloja el sistema seguramente md0, las particiones no tienen que ser iguales asegurate de que NO son inferiores a las existentes, de todas maneras si el 1+0 afecta al sistema cambia eso en cuanto puedas tienes 4 discos un raid 5 de todo seria mucho mejor o un raid 1 pequeño en todos los discos para el sistema y raid 5 para datos. -- Para dar de baja la suscripción, mande un mensaje a: opensuse-es+unsubscribe@opensuse.org Para obtener el resto de direcciones-comando, mande un mensaje a: opensuse-es+help@opensuse.org
Hola a tod@s: El día 9 de octubre de 2010 13:43, jose maria escribió:
El sistema operativo del RAID no arranca, y desde un LiveCD no pude obtener la información.
Preferí no hacer nada, hasta que no se revise la información que obtuve.
Aquí está lo que muestra el sistema: [root@server ~]# mdadm --examine /dev/sda1 /dev/sda1: Magic : a92b4efc Version : 0.90.00 UUID : 4bee1196:320a9203:19e528fd:ab6af4c2 Creation Time : Fri Jan 11 11:22:08 2008 Raid Level : raid1 Used Dev Size : 104320 (101.89 MiB 106.82 MB) Array Size : 104320 (101.89 MiB 106.82 MB) Raid Devices : 4 Total Devices : 1 Preferred Minor : 127 Update Time : Fri Oct 8 23:51:34 2010 State : clean Active Devices : 1 Working Devices : 1 Failed Devices : 3 Spare Devices : 0 Checksum : 80acac2e - correct Events : 420 Number Major Minor RaidDevice State this 0 8 1 0 active sync /dev/sda1 0 0 8 1 0 active sync /dev/sda1 1 1 0 0 1 faulty removed 2 2 0 0 2 faulty removed 3 3 0 0 3 faulty removed [root@server ~]# mdadm --examine /dev/sda2 /dev/sda2: Magic : a92b4efc Version : 0.90.00 UUID : 4b411920:f40743e2:6076dcd4:29e86c7e Creation Time : Fri Jan 11 11:15:37 2008 Raid Level : raid10 Used Dev Size : 487765248 (465.17 GiB 499.47 GB) Array Size : 975530496 (930.34 GiB 998.94 GB) Raid Devices : 4 Total Devices : 3 Preferred Minor : 2 Update Time : Mon Sep 20 13:10:15 2010 State : active Active Devices : 3 Working Devices : 3 Failed Devices : 1 Spare Devices : 0 Checksum : 2623df43 - correct Events : 35358165 Layout : near=2 Chunk Size : 256K Number Major Minor RaidDevice State this 0 8 2 0 active sync /dev/sda2 0 0 8 2 0 active sync /dev/sda2 1 1 8 18 1 active sync /dev/sdb2 2 2 0 0 2 faulty removed 3 3 8 50 3 active sync /dev/sdd2 [root@server ~]# mdadm --examine /dev/sda3 /dev/sda3: Magic : a92b4efc Version : 0.90.00 UUID : d9fd798b:3236d155:fb6b7788:6a8c2596 Creation Time : Fri Jan 11 11:15:40 2008 Raid Level : raid10 Used Dev Size : 513792 (501.83 MiB 526.12 MB) Array Size : 1027584 (1003.67 MiB 1052.25 MB) Raid Devices : 4 Total Devices : 3 Preferred Minor : 0 Update Time : Sun Sep 19 05:04:01 2010 State : clean Active Devices : 3 Working Devices : 3 Failed Devices : 1 Spare Devices : 0 Checksum : af800978 - correct Events : 2024 Layout : near=2 Chunk Size : 256K Number Major Minor RaidDevice State this 0 8 3 0 active sync /dev/sda3 0 0 8 3 0 active sync /dev/sda3 1 1 8 19 1 active sync /dev/sdb3 2 2 0 0 2 faulty removed 3 3 8 51 3 active sync /dev/sdd3 [root@server ~]# mdadm --examine /dev/sdb1 /dev/sdb1: Magic : a92b4efc Version : 0.90.00 UUID : 4bee1196:320a9203:19e528fd:ab6af4c2 Creation Time : Fri Jan 11 11:22:08 2008 Raid Level : raid1 Used Dev Size : 104320 (101.89 MiB 106.82 MB) Array Size : 104320 (101.89 MiB 106.82 MB) Raid Devices : 4 Total Devices : 3 Preferred Minor : 126 Update Time : Fri Oct 8 23:39:31 2010 State : clean Active Devices : 3 Working Devices : 3 Failed Devices : 1 Spare Devices : 0 Checksum : 80aca9b8 - correct Events : 418 Number Major Minor RaidDevice State this 1 8 17 1 active sync /dev/sdb1 0 0 8 1 0 active sync /dev/sda1 1 1 8 17 1 active sync /dev/sdb1 2 2 0 0 2 faulty removed 3 3 8 49 3 active sync /dev/sdd1 [root@server ~]# mdadm --examine /dev/sdb2 /dev/sdb2: Magic : a92b4efc Version : 0.90.00 UUID : 4b411920:f40743e2:6076dcd4:29e86c7e Creation Time : Fri Jan 11 11:15:37 2008 Raid Level : raid10 Used Dev Size : 487765248 (465.17 GiB 499.47 GB) Array Size : 975530496 (930.34 GiB 998.94 GB) Raid Devices : 4 Total Devices : 3 Preferred Minor : 2 Update Time : Mon Sep 20 13:10:15 2010 State : active Active Devices : 3 Working Devices : 3 Failed Devices : 1 Spare Devices : 0 Checksum : 2623df55 - correct Events : 35358165 Layout : near=2 Chunk Size : 256K Number Major Minor RaidDevice State this 1 8 18 1 active sync /dev/sdb2 0 0 8 2 0 active sync /dev/sda2 1 1 8 18 1 active sync /dev/sdb2 2 2 0 0 2 faulty removed 3 3 8 50 3 active sync /dev/sdd2 [root@server ~]# mdadm --examine /dev/sdb3 /dev/sdb3: Magic : a92b4efc Version : 0.90.00 UUID : d9fd798b:3236d155:fb6b7788:6a8c2596 Creation Time : Fri Jan 11 11:15:40 2008 Raid Level : raid10 Used Dev Size : 513792 (501.83 MiB 526.12 MB) Array Size : 1027584 (1003.67 MiB 1052.25 MB) Raid Devices : 4 Total Devices : 3 Preferred Minor : 0 Update Time : Sun Sep 19 05:04:01 2010 State : clean Active Devices : 3 Working Devices : 3 Failed Devices : 1 Spare Devices : 0 Checksum : af80098a - correct Events : 2024 Layout : near=2 Chunk Size : 256K Number Major Minor RaidDevice State this 1 8 19 1 active sync /dev/sdb3 0 0 8 3 0 active sync /dev/sda3 1 1 8 19 1 active sync /dev/sdb3 2 2 0 0 2 faulty removed 3 3 8 51 3 active sync /dev/sdd3 [root@server ~]# mdadm --examine /dev/sdd1 /dev/sdd1: Magic : a92b4efc Version : 0.90.00 UUID : 4bee1196:320a9203:19e528fd:ab6af4c2 Creation Time : Fri Jan 11 11:22:08 2008 Raid Level : raid1 Used Dev Size : 104320 (101.89 MiB 106.82 MB) Array Size : 104320 (101.89 MiB 106.82 MB) Raid Devices : 4 Total Devices : 3 Preferred Minor : 126 Update Time : Fri Oct 8 23:39:31 2010 State : clean Active Devices : 3 Working Devices : 3 Failed Devices : 1 Spare Devices : 0 Checksum : 80aca9dc - correct Events : 418 Number Major Minor RaidDevice State this 3 8 49 3 active sync /dev/sdd1 0 0 8 1 0 active sync /dev/sda1 1 1 8 17 1 active sync /dev/sdb1 2 2 0 0 2 faulty removed 3 3 8 49 3 active sync /dev/sdd1 [root@server ~]# mdadm --examine /dev/sdd2 /dev/sdd2: Magic : a92b4efc Version : 0.90.00 UUID : 4b411920:f40743e2:6076dcd4:29e86c7e Creation Time : Fri Jan 11 11:15:37 2008 Raid Level : raid10 Used Dev Size : 487765248 (465.17 GiB 499.47 GB) Array Size : 975530496 (930.34 GiB 998.94 GB) Raid Devices : 4 Total Devices : 3 Preferred Minor : 2 Update Time : Mon Sep 20 13:12:27 2010 State : clean Active Devices : 1 Working Devices : 1 Failed Devices : 2 Spare Devices : 0 Checksum : 283f65f3 - correct Events : 35358170 Layout : near=2 Chunk Size : 256K Number Major Minor RaidDevice State this 3 8 50 3 active sync /dev/sdd2 0 0 0 0 0 removed 1 1 0 0 1 faulty removed 2 2 0 0 2 faulty removed 3 3 8 50 3 active sync /dev/sdd2 [root@server ~]# mdadm --examine /dev/sdd3 /dev/sdd3: Magic : a92b4efc Version : 0.90.00 UUID : d9fd798b:3236d155:fb6b7788:6a8c2596 Creation Time : Fri Jan 11 11:15:40 2008 Raid Level : raid10 Used Dev Size : 513792 (501.83 MiB 526.12 MB) Array Size : 1027584 (1003.67 MiB 1052.25 MB) Raid Devices : 4 Total Devices : 3 Preferred Minor : 0 Update Time : Sun Sep 19 05:04:01 2010 State : clean Active Devices : 3 Working Devices : 3 Failed Devices : 1 Spare Devices : 0 Checksum : af8009ae - correct Events : 2024 Layout : near=2 Chunk Size : 256K Number Major Minor RaidDevice State this 3 8 51 3 active sync /dev/sdd3 0 0 8 3 0 active sync /dev/sda3 1 1 8 19 1 active sync /dev/sdb3 2 2 0 0 2 faulty removed 3 3 8 51 3 active sync /dev/sdd3
De ésto último no hice nada ... espero que la información obtenida sea de utilidad. Quedo atento a sus comentarios/indicaciones/sugerencias. Cordialmente, Cuervo Linuxero -- No recibo/envío información elaborados en/para M$-Word, M$-Excel, M$-PowerPoint, M$-Outlook o formatos privativos similares. Le invito a leer mis razones: http://www.gnu.org/philosophy/no-word-attachments.es.html -- Para dar de baja la suscripción, mande un mensaje a: opensuse-es+unsubscribe@opensuse.org Para obtener el resto de direcciones-comando, mande un mensaje a: opensuse-es+help@opensuse.org
On Tuesday 21 September 2010 05:46:47 RŌNIN wrote:
Si es por software deberias tener el grub grabado en todos los discos : Grabar el boot record en el segundo disco del RAID en una shell
grup
grub> device (hd0) /dev/sdb (aquí poner el disco a modificar) root (hd0,0) (seleccionar partición root) setup (hd0) (graba el sector boot) quitar las variables resume del grub -- Para dar de baja la suscripción, mande un mensaje a: opensuse-es+unsubscribe@opensuse.org Para obtener el resto de direcciones-comando, mande un mensaje a: opensuse-es+help@opensuse.org
participants (5)
-
Camaleón
-
Carlos E. R.
-
francisco f
-
jose maria
-
RŌNIN