Hola :) On Saturday 18 July 2009 13:46:42 Camaleón wrote:
El 2009-07-18 a las 13:22 +0200, Carlos E. R. escribió:
El 2009-07-18 a las 13:01 +0200, Camaleón escribió:
No, varios usuarios, en varias comparativas distintas. Y los argumentos que dan me parecen, en fin, al menos dignos de considerar.
Eso es hablar en abstracto. El enlace que has puesto de slashdot hace referencia a una prueba determinada y a unos datos concretos. Y las pruebas de rendimiento de sistemas de archivos no son precisamente baladíes.
He puesto varios enlaces. Uno era respecto a la velocidad de Ubuntu y otro de la de Java.
Donde se puede ver que se ponen a discutir entre ellos mismos:
http://developers.slashdot.org/article.pl?sid=08/12/19/151229
Es decir, no saben qué es mejor o qué es peor. Son sólo comentarios sobre los resultados.
Los benchmarks son muy complicados de hacer y entender. Tengamos en cuenta varias cosas: - variables hw que influyen - variables sw que influyen - variables "Humanas" que influyen al realizar el benchmark - variables "Humanas" que influyen al interpretar el benchmark Esto nos lleva al Principio de Incertidumbre de Heisenberg, teoría del caos, .. ;) Los benhcmarks son muy complicados de hacer y entender, no es nada fácil y eso de llegar y decir: "Esto es mejor o peor porque tal benchmark lo dice ..." es muy arriesgado. Debido a todo esto: aparecen las "discusiones" o debates entre unos y otros y las "demostraciones" (¿FUDs?) cuando aparecen intereses económicos. Para los que hayan hecho carreras científicas, acordaos cuando leíais algún "paper" en el que se demostraba tal o cual cosa. Siempre había un profesor que le encontraba las vueltas y os decía: "Bueno, EMHO, este estudio ....". Y siempre había algún profesor que lo aceptaba ciegamente. Creo que lo he contado alguna vez, yo tuve un profesor de genética de poblaciones que demostró que el gen que codifica el número de teléfono de una persona está ligado al gen que codifica la altura de una persona. Obviamente, esto no es cierto, pero él lo demostró científicamente (aka matemáticamente).
La utilidad de los resultados puede ser discutible, pero la metodología no. Es abierta, los tests son abiertos y los resultados que ponen son los que han obtenido. Gusten o no, los resultados son resultados. Luego hay que interpretarlos.
Pues discuten los resultados precisamente, porque no se fían del método.
Pues que propongan ellos alguno mejor, que hablar y comentar es muy sencillo pero hacer las cosas es muy distinto >:-)
Por lo qu ehe visto, no critican las herramientas en sí sino cómo se ha hecho. Es decir, no es lo mismo ejecutar un iozone que un iozone -e o usar la -g o no usarla. Creo que la queja es esa, que no explican bien cómo y por qué han hecho lo que han hecho, al igual que no hay un estudio estadístico con sus varianzas, tamaño poblacional, desviaciones (y valores descartados), ...
Mira, en la wikipedía no ponen nada mal a esa batería de tests que tienen:
Jo, jo, otros también discuten la validez de la wikipedia >:-P
Pues los comentarios de "/." creo que ni siquiera entran en la categoría necesaria para ser "susceptibles de evaluación de calidad" >;-)
Nadie dice que los tests de Phoronix sean perfectos y fiables al 100%. Vamos, que son como todos, hay que cogerlos con pinzas.
"Fectivamente".
Como dice el refranero: "Por un perro que maté, mataperros me llamaron"
Yo no lo se, sólo digo que algunos lo discuten.
Y me parece bien que lo disctutan siempre y cuando aporten datos empíricos y concretos, y sobre todo, que propongan alguna alternativa mejor y más fiable.
Rafa -- "We cannot treat computers as Humans. Computers need love." rgriman@skype.com rgriman@jabberes.org -- Para dar de baja la suscripción, mande un mensaje a: opensuse-es+unsubscribe@opensuse.org Para obtener el resto de direcciones-comando, mande un mensaje a: opensuse-es+help@opensuse.org