El 2009-07-24 a las 19:13 +0200, Rafa Grimán escribió:
On Friday 24 July 2009 18:55:41 Camaleón wrote:
¿Qué es lo que no cuela?
Pues que los sistemas de archivos deben ser "a prueba de bombas". Sin excusas, sin pedir que el usuario tenga "x" hardware o que tenga "x" configuración. Deben poner más empeño en la fiabilidad de los datos.
Pero eso es muy complicado. Mira, vamos con los ejemplos de los coches que nunca me dejan usar. Renault (creo que fue Renault) dijo que podía garantizar 0 muertos en las carreteras. ¿Truco? Ninguno, sólo pedía que la velocidad máxima tanto dentro de población como fuera de población fuese como mucho 50 KM/h. No es hacer trampas ni hay truco ni nada de eso. Las pruebas de choques de los vehículos se hacen a 50 - 55 KM/h y el coche queda completamente destrozado. Ya no te digo nada cuando chocan dos vehículos de frente a la misma velocidad.
Aquí ocurre lo mismo. Yo te garantizo que no pierdes ni un sólo bit, ahora bien, olvídate del rendimiento.
Hoy por hoy, con la tecnología y conocimientos que tenemos no se puede hacer otra cosa: o sacrificas velocidad o sacrificas datos (vidas en el caso del coche). En ambos casos la sociedad ha decidido sacrificar datos (vidas), ¡pero que no le quiten la velocidad!
Debido a esto, hay que hacer workarounds: cachés, baterías, ... Que, en el caso del coche, son cinturones, airbags, ...
Bueno, precisamente en los coches siguen intentando mejorar sus carencias que son, casualmente, hacerlos inmunes a las burradas que hacen los conductores (que en la analogía con los discos duros y los sistemas de archivos son los usuarios). Y lo hacen añadiendo sensores de todo tipo: paradas automáticas en caso de peligro de colisisón, redireccionamiento automático para evitar una salida de pista, se aparcan de manera automática, lo despierta si detecta que se está durmiendo o que pierde la concentración, vamos, que el usuario es el primer "enemigo" que tiene la carretera, así que, dejemos que los sistemas computerizados se encarguen... de todo. Dentro de poco hasta conducirán solos. Es decir, el sistema de archivos no puede depender de lo que el usuario crea que es lo mejor (sai, controladora raid con batería, etc...) ni de pensar que se encuentra en un entorno "óptimo" de funcionamiento. Eso son entornos utópicos, irreales, que se dan en un porcentaje muy bajo :-) El sistema de archivos tiene que actuar de manera independiente, y debe prever el mayor número de situaciones (los apagones bruscos del sistema en primer lugar :-P).
El tema del número de "escrituras limitadas" en los SSD ha cambiado un poco. No sé en qué estado concreto se encuentran ahora pero los discos SSD de Intel tienen también un MTBF como los de los discos magnéticos, de horas.
Sigue bajo comparado con los discos tradicionales. Como bien dices, ha cambiado y seguirá mejorando. En un par de años estará a la par o muy por encima y es la tendencia de los fabricantes.
¿Bajos? :-? Las de Intel tienen un MTBF de 2 millones de horas. Creo que eso es más que cualquier disco duro convencional.
Cuando eso se resuelva ... nos quedará mejorar el rendimiento de los buses de datos ;)
De ese "mal" también sufren los discos duros convencionales :-) Saludos, -- Camaleón -- Para dar de baja la suscripción, mande un mensaje a: opensuse-es+unsubscribe@opensuse.org Para obtener el resto de direcciones-comando, mande un mensaje a: opensuse-es+help@opensuse.org