-----BEGIN PGP SIGNED MESSAGE----- Hash: SHA1 El 2005-11-03 a las 21:02 +0100, Rafa Grimán escribió:
Hola :)
¡Hola, hola! Veo que te has pasado al lado grisaceo ;-)
Hay dos aplicaciones (IMHO) que son demasiado grandes: Mozilla (tanto el FireFox como el Mozilla completo) y OOo. Hace un par de días vi una comparativa en consumo de recursos de OOo y MS-Office y no había comparación. *NO* estoy diciendo que MS-Office sea mejor.
Cuando probé el Mozilla por primera vez (o el Netscape 6, no recuerdo cual fué) lo hice en la máquina que tenía entonces, un simple pentium 1 a 130 Mhz con 32 megas de memoria, con SuSE 6.4 posiblemente. Fué horroroso, sólo arrancar tardó como quizás 5 o 10 minutos. Tratar de tocar las preferencias fué como media hora. Sólo llegué a abrir una página de mi apache. Todo el mundo hablaba maravillas de él, pero yo tenía que seguir con el Netscape 4.7 - el cual, por cierto, era manejable sólo mientras la página no tuviera java. OO no había, era el staroffice, que tardaba bastante en arrancar, como un minuto; pero a partir de ahí era manejable. Pero, en esa misma máquina el Word en W95 trabajaba mucho más rápido, incluso el access era manejable. Es un hecho, el linux exige muchos recursos, mucha memoria. Pero la aplicación que más memoria gastaba, y con diferencia ¿sabes cual era? ¿En el SuSE 7.x? ¡El yast2! Y los desarrolladores de SuSE lo sabían, porque el programita se llamaba "bignfat" (+/-), o sea, grandeygordo. Si tratas de hacer una actualización en linea, empieza a consumir más de un mega por paquete, tiene un agujero de memoria, pero un agujero negro. En esa máquina tenía una swap de más 800 megas (32 megas reales, recuerda) sólo para uso del YOU...
soy programadora, y por mi experiencia les puedo decir, que la parte mas dificil del desarrollo de Software es lograr Software optimo y rápido,
Algunas veces se puede ver que hay una parte del programa, unas pocas lineas que consumen un tiempo disparatado. Entonces optimizar ese trozo si merece la pena. Yo una vez conseguí así hacer en segundos lo que un antivirus comercial tardaba el minuto largo. Hace ya años de eso.
Los de KDE desarrollaron una herramienta (y luego salieron otras) para analizar esto mismo: cuánto consume una función, si es más óptimo usar una funciónm u otra, ... Esta herramienta es valgrind (es un profiler). Ha salido tan buena que ahora se está usando en Mozilla, KDE, Gnome, ... y creo que en gcc.
Vi una demo de Antonio Larrosa y es una pasada :)"
Ah, yo usaba una que tenía el Borland C. Pero las más de las veces lo he hecho a mano (con printf reloj, por ejemplo). Y en Linux una vez, cuando empecé en este mundillo, usé un profiler bastante rudimentario del que no recuerdo el nombre, un tipo de trace - para descubrir que el programa no tardaba, eran las llamadas a sistema para leer del disco. El programador leía de disco usando una variante de "leer fichero" que no usaba buffer. Creo que se lo reporté a los programadores, que no respondieron... pero la siguiente versión era notablemente más rápido, habían cambiado eso. Interesante. Es bueno saber que han desarrollado un buen profiler. Lo he oido nombrar, pero no tengo el gusto de conocerlo. Claro, que tampoco desarrollo... en Linux no se hacerlo. :-( A ver que consiguen hacer con ella.
Y claro, hay maneras de programar que, empleadas desde el principio, son más eficientes.
Por ejemplo... es costumbre emplear ficheros de datos en formato ascii, por compatibilidad. Es cierto, pero emplear ficheros binarios supone a veces un aumento de velocidad muy considerable.
Antes, KDE hacía algo de esto: tenías un fichero ASCII que modificabas amanuense y luego se generaba un binario. No sé si seguirá así o no ... hace mucho que no me meto en esos jaleos 0:)
Pues no se cual será, pero las diferencias de velocidad al leer unos cuantos miles de datos en ascii o en binario son bastante notables. En una máquina actual, que no tenga otra cosa que hacer, no se nota; pero en una cargada o pobre de cpu, es muy, muy notable. Sobra el "parse", se lee directo. El problema es que, claro, salvo que se documente el formato y exista herramienta de traducción, los ficheros son inutiles para transferir a otra herramienta, y eso en análisis de datos es importante.
requiere mucho tiempo de análisis, tanto, que a veces no es rentable, es decir, no basta con que funcione, si no que funcione rápido; "probablemente" eso fue lo que paso con la versión 9.2, pero que corrigieron en la 10.
Creo que son modificaciones en el GCC y el KDE, que aparecieron más o menos entre la 9.2 y 9.3. Eso dijo Rafa. Ahora deben estar rindiendo resultados, me sospecho.
Algo de eso hay. Además, para la (Open)SUSE 10 han usadop gcc 4, que ha mejorado mucho.
¿No traerá los tipicos problemas con los plugins de terceros, como pasó con el cambio anterior de formato con el gcc? Eso fastidió bastante durante un tiempo.
Luego hay que sumar el proyecto SUPER y los parches de ConKolivas del kernel que también hacen lo suyo (especialmente en cosas relacionadas con el desktop). Por si eso fuera poco, han cambiado cosas del arranque para que se paralelicen (o carguen antes) algunas aplicaciones de forma que no es secuencial el arranque de algunos componentes.
Esa paralelización ya existe en el 9.3, y da guerra. A mi me la dió, no se si el fallo que reporté lo habrán corregido.
Por último, una de las cosas que ha permitido mejorar mucho es el hecho de tener a todos los betatesters que se han dedicado a probar el (Open)SUSE 10. Esto ha ayudado muchísimo!! Juntos con todas las ideas que han reportado :)
Imagino que si.
Por algún lado me pareció ver una versión light en la lista de opensuse - pero no lo mirado con atención, no lo encuentro y no se lo que es.
Se llama SLICK. La idea es tener un SUSE mínimo.
Ah, ese es el nombre. Tengo que mirarlo.
Más opiniones personales: - creo que cuanto más SW cargues ... más propenso es de sufrir algún ataque y aque es más complejo de administrar. Te tienes que preocupar de configurar y parchear más cosas. - en cuanto a si el tener más SW instalado ralentiza la máquina ... depende. Si lo tienes instalado, pero no se carga ... como si no estuviera ;)
Claro.
Yo tengo como cortafuegos un Pentium 200 MMX con 256 MB de RAM y SUSE Professional 9.3 y me va bien.
Esa cantidad de memoria hace milagros :-p
La verdad es que lo he instalado muy peladito, no carga servicios, he cambiado alguna cosa (muy poco), peor ni he recompilado ni he trapicheado (falta de tiempo ... :(
He visto nombrar Gentoo un par de veces en este hilo y hay que tener cuidado. Empecé con Gentoo hace unos 2 ó 3 años, lo dejé un tiempo y volví a ponerme hace unos 7 meses. Es una distribución muy buena, PERO, no hay que confundir el hecho de recompilar todo con mejorar el rendimiento. Me explico ...
Lo anoto. Algún día le echaré un vistazo, tengo curiosidad. - -- Saludos Carlos Robinson -----BEGIN PGP SIGNATURE----- Version: GnuPG v1.4.0 (GNU/Linux) Comment: Made with pgp4pine 1.76 iD8DBQFDaqdqtTMYHG2NR9URAoVIAJ9NsMXbs6o19oTwzd4jPmPOKClKbgCfVBK+ X/41nRyPDOMnE+2uCfpGdkE= =smZO -----END PGP SIGNATURE-----