Mailinglist Archive: opensuse-es (1180 mails)

< Previous Next >
Re: [suse-linux-s] Como hago mirror de un disco??
  • From: "Carlos E. R." <robin.listas@xxxxxxxxx>
  • Date: Thu, 8 Dec 2005 02:06:29 +0100 (CET)
  • Message-id: <Pine.LNX.4.61.0512080115010.24173@xxxxxxxxxxxxxxxx>
-----BEGIN PGP SIGNED MESSAGE-----
Hash: SHA1


El 2005-12-08 a las 00:10 +0100, Jerry Westrick escribió:

> Pues con mi español malo, no me atrevo meterme en esta lista amenudo, pero
> creo que te puedo ayudar enterder esto, y ademas ayudar instalarlo.

No es tan malo :-)

> Tu pregunta es "para que me sirve un Raid-1, si el raid me copia los
> errores?".
>
> Pues la preguta es muy valida. Y la respuesta es, "Por si te muere un disco".

Si, pero Carlos Arturo (the OP) tiene otro tipo de problema, y es que se
le va la electricidad en el momento más inoportuno. Cuando falla la
corriente mientras el sistema está escribiendo algo, el resultado es
impredecible: puede haber suerte y no pasar nada (raro), o pueden quedar
ficheros incompletos, indices apuntando a donde no deben, incongruencias,
clusters perdidos... y si tiene un sistema raid, la probabilidad de que
ambos queden afectados es muy alta. Si el sistema grabara primero en un
disco, y un minuto después actualizara el segundo, pues todavía.

En principios, sistemas de ficheros con diario (journal) son más
resistentes, como el reiserfs. Si, el reiser aguanta mejor, y recupera
rápido... la mayoría de las veces; pero a veces falla estrepitosamente, y
entonces no tiene recuperación.

La única solución cuando hay fallos de electricidad imprevisibles es una
SAI (UPS en inglés). No hay otra.


> Los discos de PC son grandes, rapidos, y baratos. Los discos de IBM para los
> "MainFrames" son pequieños, mas rapidos, y carisimos! Los discos de mainframe
> no se mueren nunca! En los 20 años que trabajé en los mainframes de IBM no
> oyí de ningun disco muerto. Los discos de PC's tienen escrito en zu emblema
> un numero de "MTF" (MTF quere dicir "Mean Time to Failure" y es el numero
> promedio de horas que el disco va a trabajar antes de morir). El disco del
> pc se vay hay morir, solo queda las preguntas "Quando?" y "Que pasará con mis
> datos quando pasa".

Todos los sistemas (desde una resistencia hasta un avión) tienen un MTBF:
mean time between failures, tiempo medio entre fallos; sólo que los fallos
no necesariamente serán catastróficos. Es un parámetro de ingeniería,
normalmente estadístico y medido (bueno, vale, se puede calcular...
dicen). Lo que puede ocurrir es que sea gigantesco.

Por ejemplo dos Seagates de PC. Uno "U series" de 60 GiB dice tener un
MTBF de 600000 horas de funcionamiento a 25 grados. Otro modelo
barracuda dice el mismo MTBF, pero esta vez dice que tiene un tiempo de
vida estimado de 5 años.

Si observas, 600000 horas son 68 años. Pero si tienes seiscientos
discos funcionando mil horas, agluno habrá fallado en ese tiempo. Es un
parámetro estadísticos.

Además, en los sistemas serios se hace un "curado" de los dispositivos,
para evitar los fallos que ocurren al principio de su vida (un porcentaje
alto).


Por cierto... :-) Yo si he visto discos duros de maquinas grandes
estropearse. Lo que pasa es que la máquina avisó con antelación y lo
reemplazamos antes de que se averiara, y además sin apagar ni parar el
servicio. O sea, en realidad tampoco vi que se estropeara el disco :-p

- --
Saludos
Carlos E.R.
-----BEGIN PGP SIGNATURE-----
Version: GnuPG v1.4.0 (GNU/Linux)
Comment: Made with pgp4pine 1.76

iD8DBQFDl4cntTMYHG2NR9URAm/TAJ9NIs62tLw50SPCDlN7aBLRLlPFBQCfTnWl
ZQcVdrIfcXE5jwo0fJdXm9A=
=koIs
-----END PGP SIGNATURE-----
< Previous Next >