-----BEGIN PGP SIGNED MESSAGE----- Hash: SHA1 El 2009-12-30 a las 10:17 +0100, Rafa Grimán escribió:
Hola :)
Eso se ha olvidado, damos por supuesto que la grabación ha sido correcta y no la verificamos por sistema. De hecho, si hago una copia de seguridad con rsync, no tengo manera fácil de comprobar la copia bit a bit.
Cierto, cada vez/año hay más estudios sobre esto mismo (en las USENIX y Linux Symposium) patrocinados por Universidades (MIT, Berkley, ...), Google y Yahoo, IBM, NetApp, LSI, ... porque las empresas/usuarios cada vez pierden más datos.
Pues a ver si llegan a algo. Con los discos tan gigantescos que tenemos, damos por supuesto que nuestros datos están seguros, pero no es así.
Vamos que unos por otros y la casa sin barrer.
Todo va mucho más deprisa y no hay tiempo para verificaciones de ningún tipo. Además, eso de verificar (depurar, probar, ...) es caro y nadie quiere invertir. Cada vez hay más líneas de código (leí hace poco que un firmware de un HDD puede tener 400 mil líneas de código!!!)
Ostras.
Un ejemplo de velocidad: Intel sacó hace poco el Nehalem (también conocido como i7). Se espera que saque ahora el Westmere, en el 2010 otro y en el 2011 otro. Y eso que es sólo para Enterprise, porque luego tienes la gama de desktop y luego los Atom. Esto es una salvajada, MHO.
Bastante. Mira, ayer hice una comparativa casera, y encontré que la conversión con ffmpeg a xvid de video es considerablemente más lenta usando threads que sin usarlo. Es más rápido convertir cuatro peliculas simultaneamente que una sóla con threads. O sea, que los desarrolladores no tienen claro todavía como paralelizar un proceso que se supone relativamente fácil de paralelizar, a priori.
También hay tecnologías que no acaban de salir e intentan exprimir hasta el límite más absurdo tecnologías antiguas. Por ejemplo, los 4 kb en discos duros. Hace 10 años (o más) que se lleva hablando de usar bloques de 4 KBytes en vez de 512 bytes en los discos duros. Hasta ahora nadie los había sacado y Western Digital anunció ya una gama de ellos para principios del 2010 (si es que no los acaba de sacar). 10 años hablando paja para sacarlo ahora que tenemos los SSD.
O el no poner cabezas indepedientes para cada plato...
Otro ejemplo es la tecnología RAID. RAID está bien cuando tienes discos <= 500 GBytes. Más que nada porque reconstruir un disco de 1 TB puede suponerte unas 22 horas, 22 horas de périda de rendimiento, de probabilidad de fallo, ... Pues echad números para reconstruir 2 GB de disco. Ahora es cuando se dan cuenta de este problema ...
Pues eso, dos cabezales independientes. Hasta saturar el bus, hay sitio de sobra.
Por cierto, el otro día leí algo de hacer a los programadores responsables de los fallos en el sw que escriben. No me parece mal.
¡Je! Creo que saqué ese tema hace algún tiempo. - -- Saludos Carlos E. R. -----BEGIN PGP SIGNATURE----- Version: GnuPG v2.0.9 (GNU/Linux) iEYEARECAAYFAks7UlkACgkQtTMYHG2NR9VTAACfaVy7blVoXnqDlAL9PLPGdRlP zGwAn2xoV5DcECSAzDZUiQnHL7lwb6AF =lOXc -----END PGP SIGNATURE-----