[opensuse-es] Los raid por software se pueden particionar
-----BEGIN PGP SIGNED MESSAGE----- Hash: SHA1 Y aparecen como /dev/md0p1: Command (m for help): p Disk /dev/md0: 3199 MB, 3199533056 bytes 2 heads, 4 sectors/track, 781136 cylinders Units = cylinders of 8 * 512 = 4096 bytes Disk identifier: 0xad18f3d2 Device Boot Start End Blocks Id System /dev/md0p1 1 48829 195314 83 Linux /dev/md0p2 48830 781136 2929228 83 Linux o también: Disk /dev/md0: 3199 MB, 3199533056 bytes 2 heads, 4 sectors/track, 781136 cylinders Units = cylinders of 8 * 512 = 4096 bytes Disk identifier: 0xad18f3d2 Device Boot Start End Blocks Id System /dev/md0p1 1 48829 195314 83 Linux /dev/md0p2 48830 781136 2929228 5 Extended /dev/md0p5 48830 97658 195314 83 Linux /dev/md0p6 97659 146487 195314 83 Linux /dev/md0p7 146488 195316 195314 83 Linux /dev/md0p8 195317 244145 195314 83 Linux /dev/md0p9 244146 292974 195314 83 Linux /dev/md0p10 292975 341803 195314 83 Linux /dev/md0p11 341804 390632 195314 83 Linux /dev/md0p12 390633 439461 195314 83 Linux /dev/md0p13 439462 488290 195314 83 Linux /dev/md0p14 488291 537119 195314 83 Linux /dev/md0p15 537120 585948 195314 83 Linux /dev/md0p16 585949 634777 195314 83 Linux /dev/md0p17 634778 683606 195314 83 Linux /dev/md0p18 683607 732435 195314 83 Linux /dev/md0p19 732436 781136 194802 83 Linux es decir, sin el tonto limite de 15 particiones. Habrá que ver al reiniciar que dice el kernel, claro. - -- Saludos Carlos E.R. -----BEGIN PGP SIGNATURE----- Version: GnuPG v2.0.9 (GNU/Linux) iEYEARECAAYFAklY8WEACgkQtTMYHG2NR9X+VACeKUXCh5zD9InaI+VKhVyKub5F fkMAnjSbXy0pdbIh497UbhAGIwZxMnEf =XoTl -----END PGP SIGNATURE-----
Carlos E. R. escribió:
Y aparecen como /dev/md0p1:
Command (m for help): p
Disk /dev/md0: 3199 MB, 3199533056 bytes 2 heads, 4 sectors/track, 781136 cylinders Units = cylinders of 8 * 512 = 4096 bytes Disk identifier: 0xad18f3d2
Device Boot Start End Blocks Id System /dev/md0p1 1 48829 195314 83 Linux /dev/md0p2 48830 781136 2929228 83 Linux
o también:
Disk /dev/md0: 3199 MB, 3199533056 bytes 2 heads, 4 sectors/track, 781136 cylinders Units = cylinders of 8 * 512 = 4096 bytes Disk identifier: 0xad18f3d2
Device Boot Start End Blocks Id System /dev/md0p1 1 48829 195314 83 Linux /dev/md0p2 48830 781136 2929228 5 Extended /dev/md0p5 48830 97658 195314 83 Linux /dev/md0p6 97659 146487 195314 83 Linux /dev/md0p7 146488 195316 195314 83 Linux /dev/md0p8 195317 244145 195314 83 Linux /dev/md0p9 244146 292974 195314 83 Linux /dev/md0p10 292975 341803 195314 83 Linux /dev/md0p11 341804 390632 195314 83 Linux /dev/md0p12 390633 439461 195314 83 Linux /dev/md0p13 439462 488290 195314 83 Linux /dev/md0p14 488291 537119 195314 83 Linux /dev/md0p15 537120 585948 195314 83 Linux /dev/md0p16 585949 634777 195314 83 Linux /dev/md0p17 634778 683606 195314 83 Linux /dev/md0p18 683607 732435 195314 83 Linux /dev/md0p19 732436 781136 194802 83 Linux
es decir, sin el tonto limite de 15 particiones. Habrá que ver al reiniciar que dice el kernel, claro.
-- Saludos Carlos E.R.
Y si pierdes una "partición" el resto qué? -- Saludos. César Enfréntate a los malos; enfréntate a los crueles; enfréntate a todos, menos a los tontos. Son demasiados y siempre serás derrotado. (Proverbio hindú) -- Para dar de baja la suscripción, mande un mensaje a: opensuse-es+unsubscribe@opensuse.org Para obtener el resto de direcciones-comando, mande un mensaje a: opensuse-es+help@opensuse.org
-----BEGIN PGP SIGNED MESSAGE----- Hash: SHA1 El 2008-12-29 a las 16:51 +0100, csalinux escribió:
Y si pierdes una "partición" el resto qué?
Define "perder" :-? ¿Quieres decir que tenga errores? Pues igual que una particion normal, sólo que si tienes que reconstruir el raid es todo el raid (que contiene todas las particiones) loque tienes que reconstruir. Y esto es similar a lo que tienes con un pseudoraid por hardware. Ten en cuenta que el raid es md0. Number Major Minor RaidDevice State 0 22 77 0 active sync /dev/hdd13 1 3 17 1 active sync /dev/hda17 Veamos, lo que tengo es: | --> formateo /dev/hdd13 | | equis --> formateo > /dev/md0 < particiones --> formateo /dev/hda17 | | /dev/md0pX --> formateo | --> formateo Mientras que lo habitual es: /dev/hda5 | > /dev/md0 --> formateo /dev/hdc5 | /dev/hda6 | > /dev/md1 --> formateo /dev/hdc6 | /dev/hda7 | > /dev/md2 --> formateo /dev/hdc7 | etc, lo cual te limita al mismo número de particiones físicas. Ojo, que lo que yo he hecho no es para usarlo, sino como prueba de concepto. Es una duda que tenía desde hace años. También se podría hacer un sistema mixto. Es una flexibilidad más que no es conocida. - -- Saludos Carlos E.R. -----BEGIN PGP SIGNATURE----- Version: GnuPG v2.0.9 (GNU/Linux) iEYEARECAAYFAklY95YACgkQtTMYHG2NR9UgqQCcDFQkharKwNG3x09ld6AtEgjA bAUAn26otIuRKjWOZkBbkL5vcH+HAKcg =lpgb -----END PGP SIGNATURE-----
2008/12/29, Carlos E. R.:
Y aparecen como /dev/md0p1:
Device Boot Start End Blocks Id System /dev/md0p1 1 48829 195314 83 Linux /dev/md0p2 48830 781136 2929228 83 Linux
Supongo que debe seguir un concepto similar al de LVM donde también se podrán hacer particiones (sub-volúmenes) dentro de los propios grupos de volúmenes :-? Saludos, -- Camaleón -- Para dar de baja la suscripción, mande un mensaje a: opensuse-es+unsubscribe@opensuse.org Para obtener el resto de direcciones-comando, mande un mensaje a: opensuse-es+help@opensuse.org
-----BEGIN PGP SIGNED MESSAGE----- Hash: SHA1 El 2008-12-29 a las 17:28 +0100, Camaleón escribió:
2008/12/29, Carlos E. R.:
Y aparecen como /dev/md0p1:
Device Boot Start End Blocks Id System /dev/md0p1 1 48829 195314 83 Linux /dev/md0p2 48830 781136 2929228 83 Linux
Supongo que debe seguir un concepto similar al de LVM donde también se podrán hacer particiones (sub-volúmenes) dentro de los propios grupos de volúmenes :-?
Puede ser. Desde el momento en que tienes un dispositivo, lo puedes particionar siempre; otra cosa es que el kernel reconozca las particiones, esto es, les de también nombres de dispositivos. Por particionar, puedes particionar hasta ficheros. Les asignas un loop, y a ver si fdisk traga. Como todavía no he rebotado el ordenador, no estoy seguro de qué dispositivos son. En /usr/src/linux/Documentation/devices.txt pone: 9 block Metadisk (RAID) devices 0 = /dev/md0 First metadisk group 1 = /dev/md1 Second metadisk group ... The metadisk driver is used to span a filesystem across multiple physical disks. pero no veo listados los md0p, y como no he rebotado, no puedo ver los major,minor. - -- Saludos Carlos E.R. -----BEGIN PGP SIGNATURE----- Version: GnuPG v2.0.9 (GNU/Linux) iEYEARECAAYFAklY/JAACgkQtTMYHG2NR9VHWwCeK2PILgIJ+nv8epHqxnRxhOmN RCEAoInYpafOOVrLJfJjEW4t4HVIW9p5 =HklA -----END PGP SIGNATURE-----
El 29/12/08, Carlos E. R. escribió:
Como todavía no he rebotado el ordenador, no estoy seguro de qué dispositivos son. En /usr/src/linux/Documentation/devices.txt pone:
9 block Metadisk (RAID) devices 0 = /dev/md0 First metadisk group 1 = /dev/md1 Second metadisk group ...
The metadisk driver is used to span a filesystem across multiple physical disks.
pero no veo listados los md0p, y como no he rebotado, no puedo ver los major,minor.
En el manual de md pone algo, dentro de la sección "kernel parameters" (raid=part y md=xx) pero no sé ni cómo se aplica ni para qué sirve exactamente O:-) Saludos, -- Camaleón -- Para dar de baja la suscripción, mande un mensaje a: opensuse-es+unsubscribe@opensuse.org Para obtener el resto de direcciones-comando, mande un mensaje a: opensuse-es+help@opensuse.org
-----BEGIN PGP SIGNED MESSAGE-----
Hash: SHA1
Content-ID:
pero no veo listados los md0p, y como no he rebotado, no puedo ver los major,minor.
En el manual de md pone algo, dentro de la sección "kernel parameters" (raid=part y md=xx) pero no sé ni cómo se aplica ni para qué sirve exactamente O:-)
Es otra cosa. Los dispositivos raid los puedes activar después de montar, o se pueden autodetectar por el kernel al arrancar: /dev/hda17 13905 14294 3132643+ fd Linux raid autodetect /dev/hdd13 9935 10323 3124611 fd Linux raid autodetect Eso es necesario para poder arrancar desde un raid, aunque haga falta que el kernel esté en un /boot por separado. <6>device-mapper: ioctl: 4.13.0-ioctl (2007-10-18) initialised: dm-devel@redhat.com <6>md: md0 stopped. <6>md: bind<hda17> <6>md: bind<hdd13> <6>md: raid1 personality registered for level 1 <6>raid1: raid set md0 active with 2 out of 2 mirrors Lo que no sé es como sabe el kernel que particiones son los miembros de un determinado arreglo, porque pueden haber varios. ¿Puede tener que ver eso de "persistent superblocks"? Bueno, pues esos parámetros que mencionas tienen que ver con toda esa historia. Un ejemplo del manual (que no entiendo tampoco, no creas): e:\loadlin\loadlin e:\zimage root=/dev/md0 md=0,0,4,0,/dev/hdb2,/dev/hdc3 ro - -- Saludos Carlos E.R. -----BEGIN PGP SIGNATURE----- Version: GnuPG v2.0.9 (GNU/Linux) iEYEARECAAYFAklZG20ACgkQtTMYHG2NR9WCQgCfX5+PfsCWPPmrxKnAnXrFMjzj arsAoI2x69xBr5CbgIcqnqOdEizJmHdL =oPkC -----END PGP SIGNATURE-----
El 29/12/08, Carlos E. R. escribió:
El 2008-12-29 a las 18:03 +0100, Camaleón escribió:
En el manual de md pone algo, dentro de la sección "kernel parameters" (raid=part y md=xx) pero no sé ni cómo se aplica ni para qué sirve exactamente O:-)
Es otra cosa. Los dispositivos raid los puedes activar después de montar, o se pueden autodetectar por el kernel al arrancar:
/dev/hda17 13905 14294 3132643+ fd Linux raid autodetect /dev/hdd13 9935 10323 3124611 fd Linux raid autodetect
Eso es necesario para poder arrancar desde un raid, aunque haga falta que el kernel esté en un /boot por separado.
<6>device-mapper: ioctl: 4.13.0-ioctl (2007-10-18) initialised: dm-devel@redhat.com <6>md: md0 stopped. <6>md: bind<hda17> <6>md: bind<hdd13> <6>md: raid1 personality registered for level 1 <6>raid1: raid set md0 active with 2 out of 2 mirrors
Lo que no sé es como sabe el kernel que particiones son los miembros de un determinado arreglo, porque pueden haber varios. ¿Puede tener que ver eso de "persistent superblocks"?
Bueno, pues esos parámetros que mencionas tienen que ver con toda esa historia. Un ejemplo del manual (que no entiendo tampoco, no creas):
e:\loadlin\loadlin e:\zimage root=/dev/md0 md=0,0,4,0,/dev/hdb2,/dev/hdc3 ro
Buf... ni idea, pero buscando en gugle por el nombre de la partición dentro del raid (/dev/md0p1), he visto un hilo interesante: Partitions Raid Devices(md0) http://www.linuxfromscratch.org/pipermail/livecd/2007-September/004936.html http://www.linuxfromscratch.org/pipermail/livecd/2007-September/004937.html No es para suse, ni mucho menos (creo que están hablando de una livecd...) pero explica un poco este concepto de particiones dentro de raids y cómo activarlas (¿ensamblaje?) >:-? Saludos, -- Camaleón -- Para dar de baja la suscripción, mande un mensaje a: opensuse-es+unsubscribe@opensuse.org Para obtener el resto de direcciones-comando, mande un mensaje a: opensuse-es+help@opensuse.org
-----BEGIN PGP SIGNED MESSAGE----- Hash: SHA1 El 2008-12-29 a las 20:03 +0100, Camaleón escribió:
Buf... ni idea, pero buscando en gugle por el nombre de la partición dentro del raid (/dev/md0p1), he visto un hilo interesante:
Partitions Raid Devices(md0) http://www.linuxfromscratch.org/pipermail/livecd/2007-September/004936.html http://www.linuxfromscratch.org/pipermail/livecd/2007-September/004937.html
No es para suse, ni mucho menos (creo que están hablando de una livecd...) pero explica un poco este concepto de particiones dentro de raids y cómo activarlas (¿ensamblaje?) >:-?
Sí, es eso, efectivamente. Bueno, como ya he dicho, no he rebotado todavía, ya me enteraré cuando lo haga si el kernel lo detecta o hace falta decirselo. De momento los devices no existen, y el fdisk ya dijo que falló el sync y que necesito reiniciar. Pero me es inconveniente hacerlo ahora mismo. - -- Saludos Carlos E.R. -----BEGIN PGP SIGNATURE----- Version: GnuPG v2.0.9 (GNU/Linux) iEYEARECAAYFAklZKtAACgkQtTMYHG2NR9V+dQCfYHv2ccAggQUY0JiYU+ohouzJ TKgAnRt2M5zFfS6UTYcM8jmW8+c8ElZz =5QNt -----END PGP SIGNATURE-----
Hola :) El Monday 29 December 2008, Carlos E. R. escribió:
El 2008-12-29 a las 20:03 +0100, Camaleón escribió:
Buf... ni idea, pero buscando en gugle por el nombre de la partición dentro del raid (/dev/md0p1), he visto un hilo interesante:
Partitions Raid Devices(md0) http://www.linuxfromscratch.org/pipermail/livecd/2007-September/004936.ht ml http://www.linuxfromscratch.org/pipermail/livecd/2007-September/004937.ht ml
No es para suse, ni mucho menos (creo que están hablando de una livecd...) pero explica un poco este concepto de particiones dentro de raids y cómo activarlas (¿ensamblaje?) >:-?
Sí, es eso, efectivamente. Bueno, como ya he dicho, no he rebotado todavía, ya me enteraré cuando lo haga si el kernel lo detecta o hace falta decirselo. De momento los devices no existen, y el fdisk ya dijo que falló el sync y que necesito reiniciar. Pero me es inconveniente hacerlo ahora mismo.
En el caso de RAID por sw no lo he probado nunca, pero si son particiones de discos, puedes usar: blockdev --rereadpt para releer la tabla de particiones después de particionar. Mira a ver si te vale. De todas maneras, particionar un RAID no es algo habitual. Ten en cuenta que si te falla un disco del RAID, se verán afectas todas las particiones del RAID que se encuentran en ese disco por lo que es peor el remedio que la enfermedad. Es algo similar que hacer RAID con particiones de discos. Si te falla el disco, te afecta todos los RAIDs que tienes sobre las particiones de ese disco. A la hora de cambiar el disco, tendrá que reconstruir tantos RAIDs como particiones tengas lo cual te puede crear un buen cuello de botella. Si a esto sumamos que tienes, por ejemplo, un RAID 5 de /dev/sda1 + /dev/sda 2 + /dev/sdc7 y te falla el disco /dev/sda ... despídete de los datos ya que has perdido /dev/sda1 y /dev/sda2 -> pérdida de 2 discos de un RAID 5 = pérdida de datos. Si es un RAID 0, pero porque en el momento que pierdes 1 disco ya has perdido todos los datos. Tened cuidado cuando hagáis este tipo de experimentos porque el que se pueda hacer no significa que sea buena idea ;) Y si hacéis esots experimentos, ... tened una buena copia de seguridad ;) Rafa -- "We cannot treat computers as Humans. Computers need love." rgriman@skype.com -- Para dar de baja la suscripción, mande un mensaje a: opensuse-es+unsubscribe@opensuse.org Para obtener el resto de direcciones-comando, mande un mensaje a: opensuse-es+help@opensuse.org
-----BEGIN PGP SIGNED MESSAGE----- Hash: SHA1 El 2008-12-30 a las 04:08 +0100, Rafa Grimán escribió:
Hola :)
El Monday 29 December 2008, Carlos E. R. escribió:
livecd...) pero explica un poco este concepto de particiones dentro de raids y cómo activarlas (¿ensamblaje?) >:-?
Sí, es eso, efectivamente. Bueno, como ya he dicho, no he rebotado todavía, ya me enteraré cuando lo haga si el kernel lo detecta o hace falta decirselo. De momento los devices no existen, y el fdisk ya dijo que falló el sync y que necesito reiniciar. Pero me es inconveniente hacerlo ahora mismo.
En el caso de RAID por sw no lo he probado nunca, pero si son particiones de discos, puedes usar:
blockdev --rereadpt
para releer la tabla de particiones después de particionar. Mira a ver si te vale.
Podría ser... pero no tiene importancia, ya rebotaré cuando pueda. Es habitual cuando particionas que el fdisk se queje: informa al kernel de que ha hecho cambios en la tabla, y a veces se queja de que ha fallado y que necesitas rebotar.
De todas maneras, particionar un RAID no es algo habitual. Ten en cuenta que si te falla un disco del RAID, se verán afectas todas las particiones del RAID que se encuentran en ese disco por lo que es peor el remedio que la enfermedad.
Bueno, vale, pero es que tu te mueves en una liga distinta ;-) Es habitual en ordenadores "menores" hacer varias particiones, de sistema, de datos, de home... y en raid por software habitualmente cada una es un raid distinto: mdo, md1, md2... y esos cuatro o cinco raids realmente están en los mismos discos. Es decir, tu haces hda1, hda2, hda3, y hdc1, hdc2, hdc3; luego unes los unos haciendo md0, los doses haciendo md1, etc. Logicamente si falla el hda, se te van al carajo todos los raids, y tienes tres operaciones de reconstrucción. Mi propuesta es ligeramente distinta: hacer un unico array, y luego particionarlo. En caso de fallo de disco, es un solo raid el que falla, aunque contenga varias particiones, y un solo hilo de reconstrucción. En tu liga, cada raid es una cabina o lo que sea, y albergará un unico sistema de ficheros de varios teras con replicaciones a varios niveles :-P
Es algo similar que hacer RAID con particiones de discos. Si te falla el disco, te afecta todos los RAIDs que tienes sobre las particiones de ese disco. A la hora de cambiar el disco, tendrá que reconstruir tantos RAIDs como particiones tengas lo cual te puede crear un buen cuello de botella.
Claro; pero con mi propuesta, sólo reconstruyes un arreglo.
Si a esto sumamos que tienes, por ejemplo, un RAID 5 de /dev/sda1 + /dev/sda 2 + /dev/sdc7 y te falla el disco /dev/sda ... despídete de los datos ya que has perdido /dev/sda1 y /dev/sda2 -> pérdida de 2 discos de un RAID 5 = pérdida de datos. Si es un RAID 0, pero porque en el momento que pierdes 1 disco ya has perdido todos los datos.
Tened cuidado cuando hagáis este tipo de experimentos porque el que se pueda hacer no significa que sea buena idea ;) Y si hacéis esots experimentos, ... tened una buena copia de seguridad ;)
En mi caso, son experimentos con gaseosa. El arreglo está vacío, y está hecho con dos particiones de 3 gigas en raid 1. Sólo lo uso para experimentar y aprender. No tengo unos buses rápidos, mi raid es muy lento: hdparm dice que 37MB/s) Luego de este experimento con particionamiento lo borraré, imagino. - -- Saludos Carlos E.R. -----BEGIN PGP SIGNATURE----- Version: GnuPG v2.0.9 (GNU/Linux) iEYEARECAAYFAklZofYACgkQtTMYHG2NR9VDwACfcArWTcXwvfLkwJNDHw1Pkmzg i+sAn36UySpi8aDskdz5/A+mQ20r8m3T =tkK/ -----END PGP SIGNATURE-----
El Martes, 30 de Diciembre de 2008, Carlos E. R. escribió:
El 2008-12-30 a las 04:08 +0100, Rafa Grimán escribió: Mi propuesta es ligeramente distinta: hacer un unico array, y luego particionarlo. En caso de fallo de disco, es un solo raid el que falla, aunque contenga varias particiones, y un solo hilo de reconstrucción.
Lo intente :) pero me salio por peteneras, si lo consigues avisa.
Es algo similar que hacer RAID con particiones de discos. Si te falla el disco, te afecta todos los RAIDs que tienes sobre las particiones de ese disco. A la hora de cambiar el disco, tendrá que reconstruir tantos RAIDs como particiones tengas lo cual te puede crear un buen cuello de botella.
Claro; pero con mi propuesta, sólo reconstruyes un arreglo.
Bueno, pero el tiempo es mas o menos el mismo. En el de software con multiples particiones mdo,md1... las hace una a una, no todas de golpe.
Si a esto sumamos que tienes, por ejemplo, un RAID 5 de /dev/sda1 + /dev/sda 2 + /dev/sdc7 y te falla el disco /dev/sda ... despídete de los datos ya que has perdido /dev/sda1 y /dev/sda2 -> pérdida de 2 discos de un RAID 5 = pérdida de datos. Si es un RAID 0, pero porque en el momento que pierdes 1 disco ya has perdido todos los datos.
¿y a quien se le ocurre montar un RAID con particiones del mismo disco? a no ser que sea para pruebas tontas -- Para dar de baja la suscripción, mande un mensaje a: opensuse-es+unsubscribe@opensuse.org Para obtener el resto de direcciones-comando, mande un mensaje a: opensuse-es+help@opensuse.org
-----BEGIN PGP SIGNED MESSAGE----- Hash: SHA1 El 2008-12-30 a las 08:16 +0100, francisco f escribió:
El Martes, 30 de Diciembre de 2008, Carlos E. R. escribió:
El 2008-12-30 a las 04:08 +0100, Rafa Grimán escribió: Mi propuesta es ligeramente distinta: hacer un unico array, y luego particionarlo. En caso de fallo de disco, es un solo raid el que falla, aunque contenga varias particiones, y un solo hilo de reconstrucción.
Lo intente :) pero me salio por peteneras, si lo consigues avisa.
¿Hiciste la misma prueba que yo y te falló? ¿Que pasó?
Es algo similar que hacer RAID con particiones de discos. Si te falla el disco, te afecta todos los RAIDs que tienes sobre las particiones de ese disco. A la hora de cambiar el disco, tendrá que reconstruir tantos RAIDs como particiones tengas lo cual te puede crear un buen cuello de botella.
Claro; pero con mi propuesta, sólo reconstruyes un arreglo.
Bueno, pero el tiempo es mas o menos el mismo. En el de software con multiples particiones mdo,md1... las hace una a una, no todas de golpe.
Tiene sentido.
Si a esto sumamos que tienes, por ejemplo, un RAID 5 de /dev/sda1 + /dev/sda 2 + /dev/sdc7 y te falla el disco /dev/sda ... despídete de los datos ya que has perdido /dev/sda1 y /dev/sda2 -> pérdida de 2 discos de un RAID 5 = pérdida de datos. Si es un RAID 0, pero porque en el momento que pierdes 1 disco ya has perdido todos los datos.
¿y a quien se le ocurre montar un RAID con particiones del mismo disco?
Imagino que a nadie.
a no ser que sea para pruebas tontas
Efectivamente, sirve para pruebas de concepto. Alguno he leido por ahí que lo hace con ramdisk, para más velocidad en las pruebas, con discos de pocos megas. Puedes hacerles gamberradas, como escribirles errores, aunque no me preguntes exactamente como, porque no lo se. - -- Saludos Carlos E.R. -----BEGIN PGP SIGNATURE----- Version: GnuPG v2.0.9 (GNU/Linux) iEYEARECAAYFAklaAhUACgkQtTMYHG2NR9W5sgCfbpZU6defO1/N8VPEDxS/NBM1 qRoAn3msyHW0kv0lQn0tCLcwc6uGjgxE =Li9V -----END PGP SIGNATURE-----
El Martes, 30 de Diciembre de 2008, Carlos E. R. escribió:
El 2008-12-30 a las 08:16 +0100, francisco f escribió:
El Martes, 30 de Diciembre de 2008, Carlos E. R. escribió:
El 2008-12-30 a las 04:08 +0100, Rafa Grimán escribió: Mi propuesta es ligeramente distinta: hacer un unico array, y luego particionarlo. En caso de fallo de disco, es un solo raid el que falla, aunque contenga varias particiones, y un solo hilo de reconstrucción.
Lo intente :) pero me salio por peteneras, si lo consigues avisa.
¿Hiciste la misma prueba que yo y te falló? ¿Que pasó?
Hace tiempo, conseguias partir el raid y no daba error pero 'ande luego' de salir ya no hacia ni caso. Como solo usaba 3 particiones y vi que era tiempo perdido el probar lo deje. -- Para dar de baja la suscripción, mande un mensaje a: opensuse-es+unsubscribe@opensuse.org Para obtener el resto de direcciones-comando, mande un mensaje a: opensuse-es+help@opensuse.org
Hola :) El Tuesday 30 December 2008, Carlos E. R. escribió:
El 2008-12-30 a las 04:08 +0100, Rafa Grimán escribió:
Hola :)
El Monday 29 December 2008, Carlos E. R. escribió:
livecd...) pero explica un poco este concepto de particiones dentro de raids y cómo activarlas (¿ensamblaje?) >:-?
Sí, es eso, efectivamente. Bueno, como ya he dicho, no he rebotado todavía, ya me enteraré cuando lo haga si el kernel lo detecta o hace falta decirselo. De momento los devices no existen, y el fdisk ya dijo que falló el sync y que necesito reiniciar. Pero me es inconveniente hacerlo ahora mismo.
En el caso de RAID por sw no lo he probado nunca, pero si son particiones de discos, puedes usar:
blockdev --rereadpt
para releer la tabla de particiones después de particionar. Mira a ver si te vale.
Podría ser... pero no tiene importancia, ya rebotaré cuando pueda. Es habitual cuando particionas que el fdisk se queje: informa al kernel de que ha hecho cambios en la tabla, y a veces se queja de que ha fallado y que necesitas rebotar.
Este comando debería valer porque informa al kenrel de la nueva tabla de particiones, claro que con RAID no sé si se comportará igual.
De todas maneras, particionar un RAID no es algo habitual. Ten en cuenta que si te falla un disco del RAID, se verán afectas todas las particiones del RAID que se encuentran en ese disco por lo que es peor el remedio que la enfermedad.
Bueno, vale, pero es que tu te mueves en una liga distinta ;-)
No me refería tanto al tamaño del RAID o el número de discos 0;) Me refería a que cuando se hacen ciertas configuraciones hay que tener en cuenta las consecuencias de si algo falla. Tenemos un cliente que tiene el disco del sistema de la siguiente forma: sda1 sda2 sda3 sdb1 sdb2 sbd3 sda1 y sb1 son un sw RAID 1. sda2 es un "dd" de sda1 antes de aplicar actualizaciones y sdb2 es un "dd" de sda1 después de aplicar una actualización. Creo que sda3 era una imagen del sistema original y sdb3 era otra instalación. Vamos que el tío quiere protegerse de "cualquier" fallo, cosa que es imposible, pero bueno es lo que él diseñó y es lo que le tranquiliza.
Es habitual en ordenadores "menores" hacer varias particiones, de sistema, de datos, de home... y en raid por software habitualmente cada una es un raid distinto: mdo, md1, md2... y esos cuatro o cinco raids realmente están en los mismos discos. Es decir, tu haces hda1, hda2, hda3, y hdc1, hdc2, hdc3; luego unes los unos haciendo md0, los doses haciendo md1, etc. Logicamente si falla el hda, se te van al carajo todos los raids, y tienes tres operaciones de reconstrucción.
Esa es la puñeta. Es parecido a lo que tiene este cliente nuestro. Nosotros generalmente aconsejamos RAID 1 para / y RAID 5 ó 6 ó 10 ó 50 (dependiendo del tipo de datos) para /home o /datos o el pto de montaje que quiera el cliente. Si es un cliente HPC tenemos un /scratch como RAID 0.
Mi propuesta es ligeramente distinta: hacer un unico array, y luego particionarlo. En caso de fallo de disco, es un solo raid el que falla, aunque contenga varias particiones, y un solo hilo de reconstrucción.
Eso sí es mucho mejor. Como dices: una única reconstrucción. Más efectivo y consume menos recursos.
En tu liga, cada raid es una cabina o lo que sea, y albergará un unico sistema de ficheros de varios teras con replicaciones a varios niveles :-P
Depende, puede haber varios sistemas de ficheros en varios RAIDs diferentes. Depende un poco de lo que vaya a hacer el cliente. Luego a lo mejor hay que unir los LUNs con un gestor de volúmenes. Por ejemplo, si el cliente va a montar 100 TB, no es aconsejable hacer un único LUN de 100 TB. Es aconsejable hacer varios LUNS (RAID 5 ó 6 o el que sea) y luego con un gestor de volúmenes hacer un stripe sobre esos LUNs creando un único sistema de ficheros. De esta manera te proteges frente a caídas de múltiples discos simultáneamente.
Es algo similar que hacer RAID con particiones de discos. Si te falla el disco, te afecta todos los RAIDs que tienes sobre las particiones de ese disco. A la hora de cambiar el disco, tendrá que reconstruir tantos RAIDs como particiones tengas lo cual te puede crear un buen cuello de botella.
Claro; pero con mi propuesta, sólo reconstruyes un arreglo.
Efectivamente :)
Si a esto sumamos que tienes, por ejemplo, un RAID 5 de /dev/sda1 + /dev/sda 2 + /dev/sdc7 y te falla el disco /dev/sda ... despídete de los datos ya que has perdido /dev/sda1 y /dev/sda2 -> pérdida de 2 discos de un RAID 5 = pérdida de datos. Si es un RAID 0, pero porque en el momento que pierdes 1 disco ya has perdido todos los datos.
Tened cuidado cuando hagáis este tipo de experimentos porque el que se pueda hacer no significa que sea buena idea ;) Y si hacéis esots experimentos, ... tened una buena copia de seguridad ;)
En mi caso, son experimentos con gaseosa. El arreglo está vacío, y está hecho con dos particiones de 3 gigas en raid 1. Sólo lo uso para experimentar y aprender. No tengo unos buses rápidos, mi raid es muy lento: hdparm dice que 37MB/s)
Luego de este experimento con particionamiento lo borraré, imagino.
OK. Pensé que era para datos 0:) Por cierto, si no es mucha indiscreción: ¿cuántos discos tienes y de qué capacidades? Lo pregunto porque hablas de muchas particiones y me tienes intrigado 0:) Rafa -- "We cannot treat computers as Humans. Computers need love." rgriman@skype.com -- Para dar de baja la suscripción, mande un mensaje a: opensuse-es+unsubscribe@opensuse.org Para obtener el resto de direcciones-comando, mande un mensaje a: opensuse-es+help@opensuse.org
-----BEGIN PGP SIGNED MESSAGE-----
Hash: SHA1
Content-ID:
Hola :)
El Tuesday 30 December 2008, Carlos E. R. escribió:
El 2008-12-30 a las 04:08 +0100, Rafa Grimán escribió:
En el caso de RAID por sw no lo he probado nunca, pero si son particiones de discos, puedes usar:
blockdev --rereadpt
para releer la tabla de particiones después de particionar. Mira a ver si te vale.
Podría ser... pero no tiene importancia, ya rebotaré cuando pueda. Es habitual cuando particionas que el fdisk se queje: informa al kernel de que ha hecho cambios en la tabla, y a veces se queja de que ha fallado y que necesitas rebotar.
Este comando debería valer porque informa al kenrel de la nueva tabla de particiones, claro que con RAID no sé si se comportará igual.
Pero se supone que el fdisk intentó esa operación y le falló. O eso dijo. Bueno, probaré ese comando, pero cuando no tenga cosas que escriban a disco en ejecución, por si las moscas.
De todas maneras, particionar un RAID no es algo habitual. Ten en cuenta que si te falla un disco del RAID, se verán afectas todas las particiones del RAID que se encuentran en ese disco por lo que es peor el remedio que la enfermedad.
Bueno, vale, pero es que tu te mueves en una liga distinta ;-)
No me refería tanto al tamaño del RAID o el número de discos 0;) Me refería a que cuando se hacen ciertas configuraciones hay que tener en cuenta las consecuencias de si algo falla. Tenemos un cliente que tiene el disco del sistema de la siguiente forma: sda1 sda2 sda3 sdb1 sdb2 sbd3
sda1 y sb1 son un sw RAID 1. sda2 es un "dd" de sda1 antes de aplicar actualizaciones y sdb2 es un "dd" de sda1 después de aplicar una actualización. Creo que sda3 era una imagen del sistema original y sdb3 era otra instalación.
Vamos que el tío quiere protegerse de "cualquier" fallo, cosa que es imposible, pero bueno es lo que él diseñó y es lo que le tranquiliza.
Bueno, tiene cierto sentido. Yo he visto sistemas parecidos en los ordenadores que controlan las macrocentrales telefonicas: el sistema está en una partición, y otra partición duplica los datos y no está montada. Hay algún comando para iniciar de uno o de otro. Y además, el disco entero está duplicado: pero no es un raid, es el ordenador entero el que está duplicado, cpu y memoria y buses y de todo, en hot swap entero o por trozos. Tecnología del tipo de los de la nasa, tamaño armario ropero. Pueden hacer cosas como parar una de las mitades del ordenador, dejarla congelada, y correr una actualización de sistema en la mitad activa. Si funciona, al dia siguiente reactivan la otra mitad para que replique todo. Si falla, lo que hacen es conmutar lado, y replicar al revés, la antigua en la nueva. Y todo eso sin parar el servicio ni un minuto: da miedo. Y no era yo, porque podía aparecer el jefe del proyecto por la sala a las tres de la madrugada para verlo... Hay una pagina en la wikipedia, si recordara el nombre... ah, si: http://en.wikipedia.org/wiki/5ESS y el ordenador en "suelto": http://en.wikipedia.org/wiki/3B21D
Es habitual en ordenadores "menores" hacer varias particiones, de sistema, de datos, de home... y en raid por software habitualmente cada una es un raid distinto: mdo, md1, md2... y esos cuatro o cinco raids realmente están en los mismos discos. Es decir, tu haces hda1, hda2, hda3, y hdc1, hdc2, hdc3; luego unes los unos haciendo md0, los doses haciendo md1, etc. Logicamente si falla el hda, se te van al carajo todos los raids, y tienes tres operaciones de reconstrucción.
Esa es la puñeta. Es parecido a lo que tiene este cliente nuestro. Nosotros generalmente aconsejamos RAID 1 para / y RAID 5 ó 6 ó 10 ó 50 (dependiendo del tipo de datos) para /home o /datos o el pto de montaje que quiera el cliente.
Si es un cliente HPC tenemos un /scratch como RAID 0.
Mi propuesta es ligeramente distinta: hacer un unico array, y luego particionarlo. En caso de fallo de disco, es un solo raid el que falla, aunque contenga varias particiones, y un solo hilo de reconstrucción.
Eso sí es mucho mejor. Como dices: una única reconstrucción. Más efectivo y consume menos recursos.
Sin embargo comentó francisco que las hacen en secuencia, no simultaneas. A no ser que sea capaz de reconstruir varios arreglos si están en discos distintos.
En tu liga, cada raid es una cabina o lo que sea, y albergará un unico sistema de ficheros de varios teras con replicaciones a varios niveles :-P
Depende, puede haber varios sistemas de ficheros en varios RAIDs diferentes. Depende un poco de lo que vaya a hacer el cliente. Luego a lo mejor hay que unir los LUNs con un gestor de volúmenes. Por ejemplo, si el cliente va a montar 100 TB, no es aconsejable hacer un único LUN de 100 TB. Es aconsejable hacer varios LUNS (RAID 5 ó 6 o el que sea) y luego con un gestor de volúmenes hacer un stripe sobre esos LUNs creando un único sistema de ficheros. De esta manera te proteges frente a caídas de múltiples discos simultáneamente.
Me estaba preguntando si existirá una manera de juntar sistemas de ficheros en un macrosistema de ficheros. Incluso en caso de corrupción de datos, sería uno de los sistemas el corrompido, no el resto. es decir, no juntar raids y luego formatear el conjunto, sino raids con su formateo independiente, y luego unidos de alguna manera. En MsDOS existía un comando para unir un directorio a otro, pero me parece que tampoco es esto que digo.
Por cierto, si no es mucha indiscreción: ¿cuántos discos tienes y de qué capacidades? Lo pregunto porque hablas de muchas particiones y me tienes intrigado 0:)
Uno de 40GB, otro de 160GB, y otro de 320GB, 6, 16 y 20 particiones, en orden de adquisición: como son de distintas añadas, las capacidades cambian. Sin contar los externos para backups o cosas guardadas a largo plazo, encriptadas a veces. Y no, no tengo ninguno de tera ni quiero. Les tengo miedo todavía. Ultimamente me fijo en el precio por megabyte para decidirme. - -- Saludos Carlos E.R. -----BEGIN PGP SIGNATURE----- Version: GnuPG v2.0.9 (GNU/Linux) iEYEARECAAYFAklaRtoACgkQtTMYHG2NR9X7tgCfY5zd/4L2lR6amvzgMpM12NrB 5VEAnjOdhotwqjo0cvemwNHWQQgO+VDH =wcwD -----END PGP SIGNATURE-----
El 30 de diciembre de 2008 14:05, Carlos E. R.
Y no, no tengo ninguno de tera ni quiero. Les tengo miedo todavía. Ultimamente me fijo en el precio por megabyte para decidirme.
precio por megabyte????????????? Que antiguo! Ahora se habla de Terabytes!!!!!!!!!! 80 dolares el terabyte, te parece caro? http://www.tigerdirect.com/applications/searchtools/item-Details.asp?EdpNo=3333210&SRCCODE=WEM1805C&cm_mmc=Email-_-Main-_-WEM1805-_-compo -- Para dar de baja la suscripción, mande un mensaje a: opensuse-es+unsubscribe@opensuse.org Para obtener el resto de direcciones-comando, mande un mensaje a: opensuse-es+help@opensuse.org
2008/12/30 Juan Erbes
El 30 de diciembre de 2008 14:05, Carlos E. R.
escribió: Y no, no tengo ninguno de tera ni quiero. Les tengo miedo todavía. Ultimamente me fijo en el precio por megabyte para decidirme.
precio por megabyte?????????????
Que antiguo!
Ahora se habla de Terabytes!!!!!!!!!!
80 dolares el terabyte, te parece caro?
Ups! Me olvide del disco de 1.5 TB, por si el de 1 TB, te queda chico: http://www.tigerdirect.com/applications/searchtools/item-Details.asp?EdpNo=4138742&sku=TSD-1500AS&SRCCODE=WEM1805C&cm_mmc=Email-_-Main-_-WEM1805-_-compo -- Para dar de baja la suscripción, mande un mensaje a: opensuse-es+unsubscribe@opensuse.org Para obtener el resto de direcciones-comando, mande un mensaje a: opensuse-es+help@opensuse.org
-----BEGIN PGP SIGNED MESSAGE-----
Hash: SHA1
Content-ID:
El 30 de diciembre de 2008 14:05, Carlos E. R. <> escribió:
Y no, no tengo ninguno de tera ni quiero. Les tengo miedo todavía. Ultimamente me fijo en el precio por megabyte para decidirme.
precio por megabyte?????????????
Que antiguo!
Ahora se habla de Terabytes!!!!!!!!!!
80 dolares el terabyte, te parece caro?
Aquí tienes precios por gigabyte: http://www.alternate.es/html/shop/productListing4C.html?cat1=7&cat2=54&cat3=0&cat1=7&cat2=304&cat3=0&tgid=68&treeName=HARDWARE&Level1=Discos+duros&Level2=SATA&Level3=3%2C5+pulgadasSeagate En seagate, a 9 centimos el giga de barracuda de un tera (ST31000333AS 1 TB, Barracuda 7200.11), o a 27 centimos el de 250 (ST3250310NS, Barracuda ES.2, 24/7). La diferencia es que el segundo está especificado para uso continuo. No tienen uno de un tera 24/7, solo llegan a medio, a 19 centimos (ST3500320NS Barracuda ES.2, 24/7), lo cual coincide con lo que venimos diciendo que los de tera no son tan fiables todavía. - -- Saludos Carlos E.R. -----BEGIN PGP SIGNATURE----- Version: GnuPG v2.0.9 (GNU/Linux) iEYEARECAAYFAklaih8ACgkQtTMYHG2NR9VJegCfSlolK8VWw3s9lO/WZOwIoHBC L5QAn0rrGoOf5FhBeboTiITjr0KnFnIL =35kB -----END PGP SIGNATURE-----
Carlos E. R. vàreu escriure:
Content-ID:
Lo que no sé es como sabe el kernel que particiones son los miembros de un determinado arreglo, porque pueden haber varios. ¿Puede tener que ver eso de "persistent superblocks"?
Bueno, pues esos parámetros que mencionas tienen que ver con toda esa historia. Un ejemplo del manual (que no entiendo tampoco, no creas):
e:\loadlin\loadlin e:\zimage root=/dev/md0 md=0,0,4,0,/dev/hdb2,/dev/hdc3
Los datos de las particiones y del raid están en el fichero mdadm.conf. Cuando creas el initrd (comando mkinitd) y si la variable correspondiente en el sysconfig está marcada, se crean los ficheros del raid para cuando se inicie el kernel. Saludos, -- Oscar Curero - Linux user: 306877 -- GPG keyID: 0xE0EA0B24 -- -- Para dar de baja la suscripción, mande un mensaje a: opensuse-es+unsubscribe@opensuse.org Para obtener el resto de direcciones-comando, mande un mensaje a: opensuse-es+help@opensuse.org
participants (8)
-
Camaleón
-
Carlos E. R.
-
Carlos E. R.
-
csalinux
-
francisco f
-
Juan Erbes
-
Oscar Curero
-
Rafa Grimán