Hola :) On Friday 24 July 2009 18:55:41 Camaleón wrote:
El 2009-07-24 a las 18:14 +0200, Rafa Grimán escribió:
On Friday 24 July 2009 11:57:47 Camaleón wrote:
[...]
Pero desde el punto de vista del usuario casero, que no usa raid, no usa sais, no hace backups tan a menudo como debería... y que un apagón le deje tieso, pues no cuela.
¿Qué es lo que no cuela?
Pues que los sistemas de archivos deben ser "a prueba de bombas". Sin excusas, sin pedir que el usuario tenga "x" hardware o que tenga "x" configuración. Deben poner más empeño en la fiabilidad de los datos.
Pero eso es muy complicado. Mira, vamos con los ejemplos de los coches que nunca me dejan usar. Renault (creo que fue Renault) dijo que podía garantizar 0 muertos en las carreteras. ¿Truco? Ninguno, sólo pedía que la velocidad máxima tanto dentro de población como fuera de población fuese como mucho 50 KM/h. No es hacer trampas ni hay truco ni nada de eso. Las pruebas de choques de los vehículos se hacen a 50 - 55 KM/h y el coche queda completamente destrozado. Ya no te digo nada cuando chocan dos vehículos de frente a la misma velocidad. Aquí ocurre lo mismo. Yo te garantizo que no pierdes ni un sólo bit, ahora bien, olvídate del rendimiento. Hoy por hoy, con la tecnología y conocimientos que tenemos no se puede hacer otra cosa: o sacrificas velocidad o sacrificas datos (vidas en el caso del coche). En ambos casos la sociedad ha decidido sacrificar datos (vidas), ¡pero que no le quiten la velocidad! Debido a esto, hay que hacer workarounds: cachés, baterías, ... Que, en el caso del coche, son cinturones, airbags, ...
Ni con el Fat32 he perdido nunca ni un sólo archivo (tanto en entornos caseros como en empresa), luego espero "algo más" de sistemas de archivos de alto rendimiento como puedan ser XFS, ReiserFS, o ZFS, la verdad, y sin necesidad de comprar hierros a precios desorbitantes para evitar que una corrupción del sistema de archivos me deje los datos a "0" ;-)
No tiene nada que ver con precios desorbitantes ni hw específico. Tiene que ver que la velocidad (o ancho de banda e IOPS) de los discos ya que no han evolucionado a la misma velocidad que el resto de los componentes (CPU, RAM, Buses). Como el disco duro sigue siendo un trasto antiguo que "va a pedales", los desarrolladores de sistemas de ficheros han tenido que ingeniárselas para poder solventar un problema hardware. por lo que han echado mano de la RAM y ha aparecido un problema nuevo: la volatilidad de los datos.
Si los fabricantes de discos duros hubieran sacado los SSD hace muchos años, posiblemente esto no hubiese ocurrido o no sería tan grave. Ahora que han aparecido los SSD, aparece un nuevo problema: las celdas se estropean "muy rápido". Lo de "muy rápido" lo pongo porque son muy sensibles al número de escrituras que realices. Si es un sistema de ficheros read-only, los SSD te duran una eternidad, pero si es read-write ... ya puedes ir comprando los SSD por kilos.
El tema del número de "escrituras limitadas" en los SSD ha cambiado un poco. No sé en qué estado concreto se encuentran ahora pero los discos SSD de Intel tienen también un MTBF como los de los discos magnéticos, de horas.
Sigue bajo comparado con los discos tradicionales. Como bien dices, ha cambiado y seguirá mejorando. En un par de años estará a la par o muy por encima y es la tendencia de los fabricantes. Cuando eso se resuelva ... nos quedará mejorar el rendimiento de los buses de datos ;) [...] Rafa -- "We cannot treat computers as Humans. Computers need love." rgriman@skype.com rgriman@jabberes.org -- Para dar de baja la suscripción, mande un mensaje a: opensuse-es+unsubscribe@opensuse.org Para obtener el resto de direcciones-comando, mande un mensaje a: opensuse-es+help@opensuse.org