Hola :) Vengo a contarons mis penas ... Estoy montando un cluster de HA y LB con la siguiente configuración en cada máquina: 16 CPUs 32 GB de RAM 8 tarjetas de red GigE (1 para heartbeat y 6 para channel bonding) 3 cabinas de discos a 4 gbit switch con backplane de 40 GB clientes IBM (no sé el modelo) con MS-WinXP SP2 Samba Resulta que la red da como máximo 20 MB/s lo cual me parece absurdo puesto que todo teóricamente es Gbit lo cual debería dar como máximo de 125 MB/s en cada tarjeta de red (sea servidor o cliente) aunque en un mondo real se suele conseguir unos 70 MB/s sin tunear nada. Lo curioso es que da 20 MB/s, independientemente del número de clientes, lo que escribas o leas, ... Pruebas que he hecho: netbench xdd copiar entre servidores* copiar entre PCs* copiar PCs-Servidor y a la inversa* al copiar hemos usado scp y SMB Da igual lo que hagas que sólo consigues 20 MB/s. Además, llegamos a un cuello de botella de 140 MB/s. Posibles cuellos de botella: cabina de discos - servidor: comprobado, están dando 350-400 MB/s por lo que no hay cuello de botella aquí CPUs: de las 16 CPUs, sólo llegamos a usar 6 en momentos de "máxima carga" (20 PCs leyendo y/o escribiendo) por lo que aún nos quedan 10 libres RAM: llega a consumir los 30 GB de RAM y no llega a usar la swap T. Red: lo compruebo esta semana, me llevo un switch para hacer pruebas, además de hacer pruebas con channel bonding con 1, 2, 3, 4, 5 y 6 tarjetas para ver si cambia el rendimiento switch: no tengo acceso aunque la persona que lo administra está allí y puedo darle la barrila PCs: no son nuestros y no somos Prime Contractor por lo que ... nada. Por lo que he visto en los PCs, tienen 1 GB RAM, t. red broadcom GigE y 2 discos duros (usamos el 2º disco, no el del sistema, que además son SATA y están en diferente controladora) Lo malo es que: - no quieren habilitar Jumbo Frames - los drivers de las NIC de los PCs no permiten afinar la configuración, ej: cambiar jumbo frames, cambiar las ventanas, ... Herramientas usadas para monitorizar: saidar xosview pcp (herramienta de SGI) *Los ficheros que copiamos son vídeo e imágenes iso. El tamaño más pequeño es de unos 6 GB. Otros ficheros los creamos con: cat fichero1 ... ficheron > fichero.cat y contiene vídeo. Por cierto, el sistema se usa para vídeo. Abriendo vídeos, cada PC consume unos 8 MB/s de red por lo que no se conseguiría llegar al cuello de botella (140 MB/s) hasta los 17,5 PCs. Lo malo es que van a ser unos 30 PCs. Vamos que si a alguien se le ocurre algo ... se lo agradecería ;) Si alguien sabe de switches o herramientas buenas para monitorizar un switch, pruebas de rendimiento, ... y me puede echar una mano ... se agradecería :) Gracias, Rafa -- "Even paranoids have enemies." Rafa Grimán OpenWengo: rgriman Skype: rgriman
-----BEGIN PGP SIGNED MESSAGE----- Hash: SHA1 El 2006-04-01 a las 12:38 +0200, rafagriman@gmail.com escribió:
Hola :)
Vengo a contarons mis penas ... Estoy montando un cluster de HA y LB con la siguiente configuración en cada máquina:
Ya me temía yo que si tu contabas un problema iba a ser de órdago :-P
16 CPUs 32 GB de RAM 8 tarjetas de red GigE (1 para heartbeat y 6 para channel bonding) 3 cabinas de discos a 4 gbit switch con backplane de 40 GB clientes IBM (no sé el modelo) con MS-WinXP SP2 Samba
A ver si me entero... ¿20 máquinas con "eso"? :-OO
Resulta que la red da como máximo 20 MB/s lo cual me parece absurdo puesto que todo teóricamente es Gbit lo cual debería dar como máximo de 125 MB/s en cada tarjeta de red (sea servidor o cliente) aunque en un mondo real se suele conseguir unos 70 MB/s sin tunear nada. Lo curioso es que da 20 MB/s, independientemente del número de clientes, lo que escribas o leas, ...
¿Quieres decir 20 megas por tarjeta, o 20 entre las 7?
Pruebas que he hecho:
netbench xdd copiar entre servidores* copiar entre PCs* copiar PCs-Servidor y a la inversa* al copiar hemos usado scp y SMB
Había una aplicación que medía el ancho de banda de la red a base de pings grandes. La que yo usaba no la he encontrado ultimamente, pero veamos... nimrodel:~ # ping -f -l10 -s20000 router WARNING: probably, rcvbuf is not enough to hold preload. PING router (192.168.1.1) 20000(20028) bytes of data. ......................... - --- router ping statistics --- 1025 packets transmitted, 1000 received, 2% packet loss, time 5717ms rtt min/avg/max/mdev = 7.488/55.074/62.857/5.755 ms, pipe 10, ipg/ewma 5.583/55.523 ms - --> la red marca 7..8 Mb/s, otras veces he conseguido más ajustando los parámetros. Seguramente hay alguna utilidad para hacer esto mejor y medir el ancho de banda en bruto de una red. Sería lo primero a determinar, antes que cpus, discos y demás, diagnosticar la red bruta. Si no da, pues a mirar los cables, para empezar. - -- Saludos Carlos Robinson -----BEGIN PGP SIGNATURE----- Version: GnuPG v1.4.0 (GNU/Linux) Comment: Made with pgp4pine 1.76 iD8DBQFELmGOtTMYHG2NR9URAl4RAJ4/BlZVPaUjKF3o5R07b+IisfzVcQCfRdVb Mg8bbY28/YXlvjVrjuTCWDE= =BR57 -----END PGP SIGNATURE-----
Hola :) El Sábado, 1 de Abril de 2006 13:18, Carlos E. R. escribió:
El 2006-04-01 a las 12:38 +0200, rafagriman@gmail.com escribi�:
Hola :)
Vengo a contarons mis penas ... Estoy montando un cluster de HA y LB con la siguiente configuraci�n en cada m�quina:
Ya me tem�a yo que si tu contabas un problema iba a ser de �rdago :-P
Es que en esta lista hay mucho nivel y seguro que alguien me da buenas ideas :) A mi lo único que se me ocurre es ir a por un ron o un tinto de verano ;)
16 CPUs 32 GB de RAM 8 tarjetas de red GigE (1 para heartbeat y 6 para channel bonding) 3 cabinas de discos a 4 gbit switch con backplane de 40 GB clientes IBM (no s� el modelo) con MS-WinXP SP2 Samba
A ver si me entero... �20 m�quinas con "eso"? :-OO
No, sólo son dos. Si tuviera que montar 20 me daba algo ... aunque seguro que mi jefe está deseando que sean 20 ;)
Resulta que la red da como m�ximo 20 MB/s lo cual me parece absurdo puesto que todo te�ricamente es Gbit lo cual deber�a dar como m�ximo de 125 MB/s en cada tarjeta de red (sea servidor o cliente) aunque en un mondo real se suele conseguir unos 70 MB/s sin tunear nada. Lo curioso es que da 20 MB/s, independientemente del n�mero de clientes, lo que escribas o leas, ...
�Quieres decir 20 megas por tarjeta, o 20 entre las 7?
20 MB/s cada tarjeta del channel bonding, cada tarjeta que no forma parte del channel bonding y cada tarjeta de cada PC. Cada tarjeta de red da 20 MB/s, sea el dispositivo que sea. Es más, mi portátil da los 20 MB/s más sostenidos que los PCs que hay montados. Esto es llamativo puesto que mi portátil sólo tiene un disco duro así que el rendimiento es menor, los buses PCI se suelen compartir en los portátiles, ... En cambio, los PCs dan una media de 20 MB/s pero no lo dan sostenido, hay picos de entre 10 y 25 MB/s. No sé, a lo mejor arranco con un Knoppix o el rescue de SUSE y hago una prueba a ver si afecta tanto el sistema operativo ...
Pruebas que he hecho:
netbench xdd copiar entre servidores* copiar entre PCs* copiar PCs-Servidor y a la inversa* al copiar hemos usado scp y SMB
Hab�a una aplicaci�n que med�a el ancho de banda de la red a base de pings grandes. La que yo usaba no la he encontrado ultimamente, pero veamos...
nimrodel:~ # ping -f -l10 -s20000 router WARNING: probably, rcvbuf is not enough to hold preload. PING router (192.168.1.1) 20000(20028) bytes of data. ......................... --- router ping statistics --- 1025 packets transmitted, 1000 received, 2% packet loss, time 5717ms rtt min/avg/max/mdev = 7.488/55.074/62.857/5.755 ms, pipe 10, ipg/ewma 5.583/55.523 ms
--> la red marca 7..8 Mb/s, otras veces he conseguido m�s ajustando los par�metros.
Esto del ping me ha gustado, la verdad es que no se me había ocurrido hacer un PoD (Ping of Death) ni similares ... GRACIAS !!!
Seguramente hay alguna utilidad para hacer esto mejor y medir el ancho de banda en bruto de una red. Ser�a lo primero a determinar, antes que cpus, discos y dem�s, diagnosticar la red bruta. Si no da, pues a mirar los cables, para empezar.
Eso es cierto, por eso acudo a vosotros por si conocéis alguna herramienta buena (a poder ser de OSS ;) que me permita diagnosticar la red. No sé si habrá alguna herramienta que permita detectar info de un switch (a parte de la que dan con el switch). Gracias :) !!! Rafa -- "Even paranoids have enemies." Rafa Grimán Systems Engineer Silicon Graphics Spain Santa Engracia, 120 - Planta Baja 28003 Madrid Spain Tel: +34 91 3984200 Tel: +34 91 3984201 Móvil: +34 628 117 940 http://www.sgi.com OpenWengo: rgriman Skype: rgriman
-----BEGIN PGP SIGNED MESSAGE----- Hash: SHA1 El 2006-04-01 a las 17:20 +0200, rafagriman@gmail.com escribió:
No sé, a lo mejor arranco con un Knoppix o el rescue de SUSE y hago una prueba a ver si afecta tanto el sistema operativo ...
Pues también.
Esto del ping me ha gustado, la verdad es que no se me había ocurrido hacer un PoD (Ping of Death) ni similares ... GRACIAS !!!
No me acordaba que lo llamaban así. El caso es que había una variante de ping especializada en hacer esto precisamente, pero no la encuentro: seguramente la han quitado. Yo la vi en la 7.
Seguramente hay alguna utilidad para hacer esto mejor y medir el ancho de banda en bruto de una red. Ser[ed]a lo primero a determinar, antes que cpus, discos y dem[e1]s, diagnosticar la red bruta. Si no da, pues a mirar los cables, para empezar.
Eso es cierto, por eso acudo a vosotros por si conocéis alguna herramienta buena (a poder ser de OSS ;) que me permita diagnosticar la red. No sé si habrá alguna herramienta que permita detectar info de un switch (a parte de la que dan con el switch).
La única manera que se me ocurre de probar un cable es con un osciloscopio y un generador de pulsos - que le voy a hacer, soy teleco ;-)
Gracias :) !!!
De nada, ya contarás - -- Saludos Carlos Robinson -----BEGIN PGP SIGNATURE----- Version: GnuPG v1.4.0 (GNU/Linux) Comment: Made with pgp4pine 1.76 iD8DBQFELp2ztTMYHG2NR9URAvtEAJ4sWRJX0xBcc0SxHmyz7ArJWM6X4QCfYcOk UTyUaZU5/YSDk408z2qjwz4= =KNK5 -----END PGP SIGNATURE-----
2006/4/1, rafagriman@gmail.com
Hola :)
Vengo a contarons mis penas ... Estoy montando un cluster de HA y LB con la siguiente configuración en cada máquina:
16 CPUs 32 GB de RAM 8 tarjetas de red GigE (1 para heartbeat y 6 para channel bonding)
te queda sobrando 1 tarjeta !!!! :-D por cierto.. entiendo que estas usando cables UTP cierto ???
3 cabinas de discos a 4 gbit switch con backplane de 40 GB
hehehehe.... que buenos juguetes encuentra usted y en especial este tipo de switch !!! lo vi una sola vez y no creia mucho en lo que miraba y mucho menos en los datos que me pasaron sobre ellos !!!
clientes IBM (no sé el modelo) con MS-WinXP SP2 Samba
Resulta que la red da como máximo 20 MB/s lo cual me parece absurdo puesto que todo teóricamente es Gbit lo cual debería dar como máximo de 125 MB/s en cada tarjeta de red (sea servidor o cliente) aunque en un mondo real se suele conseguir unos 70 MB/s sin tunear nada. Lo curioso es que da 20 MB/s, independientemente del número de clientes, lo que escribas o leas, ...
te recomendaria iniciar vuestros diagnosticos por los cables de red... talvez el cable este "medio raro" y no logre las tasas de transferencias que deberia !!!!
Pruebas que he hecho:
netbench xdd copiar entre servidores*
tines mas de un servidor ??? se es asi... (y se puedes) desconecta todos los demas pcs/servidores del switch y deje solamente los dos servidores (antes revisa los cables como mencione) y entonces haga las prubeas.
copiar entre PCs* copiar PCs-Servidor y a la inversa* al copiar hemos usado scp y SMB
Da igual lo que hagas que sólo consigues 20 MB/s. Además, llegamos a un cuello de botella de 140 MB/s.
no entiendo la ultima frase !!!! como que llegan a un cuello de botella de 140MB/s ??? supostamente no logras transferencias mayores que 20MB/s o si ???
Posibles cuellos de botella:
cabina de discos - servidor: comprobado, están dando 350-400 MB/s por lo que no hay cuello de botella aquí
CPUs: de las 16 CPUs, sólo llegamos a usar 6 en momentos de "máxima carga" (20 PCs leyendo y/o escribiendo) por lo que aún nos quedan 10 libres
RAM: llega a consumir los 30 GB de RAM y no llega a usar la swap
T. Red: lo compruebo esta semana, me llevo un switch para hacer pruebas, además de hacer pruebas con channel bonding con 1, 2, 3, 4, 5 y 6 tarjetas para ver si cambia el rendimiento
esta es una excelente prueba... personalemente creo que el problema vaya por este lado (cables y/o switch)
switch: no tengo acceso aunque la persona que lo administra está allí y puedo darle la barrila
buuuu !!!!! :-(
Lo malo es que:
- no quieren habilitar Jumbo Frames
algun motivo en especial ??? segun vosotros mismo deberia de ser una excelente altenartiva caso toda la red lo suporte !!!
Herramientas usadas para monitorizar: saidar xosview pcp (herramienta de SGI)
generalmente lo que hago para comprobar la performance de la red es crear una serie de 20 archivos de 10,100,500 y 1000 MiB con "dd" y copiarlos por la red atraves de scp. mmmm...no me pregunte el porque de tantos archivos de diferentes tamanos... creo que sea una costumbre mia de hace mucho tiempo !!!
*Los ficheros que copiamos son vídeo e imágenes iso. El tamaño más pequeño es de unos 6 GB. Otros ficheros los creamos con:
mmmm.. por curiosidad, que sistema de archivos estas usando ???
Por cierto, el sistema se usa para vídeo. Abriendo vídeos, cada PC consume unos 8 MB/s de red por lo que no se conseguiría llegar al cuello de botella (140 MB/s) hasta los 17,5 PCs. Lo malo es que van a ser unos 30 PCs.
mmmm.. complicado el tema !!!!
Vamos que si a alguien se le ocurre algo ... se lo agradecería ;) Si alguien sabe de switches o herramientas buenas para monitorizar un switch, pruebas de rendimiento, ... y me puede echar una mano ... se agradecería :)
podrias revisar este sitio http://www.psc.edu/networking/projects/tcptune/ acabo de encontrarlo y se ve algo interessante
Gracias,
suerte y salu2. -- -- Victor Hugo dos Santos Linux Counter #224399
Hola :) El Sábado, 1 de Abril de 2006 21:20, Victor Hugo dos Santos escribió:
2006/4/1, rafagriman@gmail.com
: Hola :)
Vengo a contarons mis penas ... Estoy montando un cluster de HA y LB con la siguiente configuraci�n en cada m�quina:
16 CPUs 32 GB de RAM 8 tarjetas de red GigE (1 para heartbeat y 6 para channel bonding)
te queda sobrando 1 tarjeta !!!! :-D
Sí, al final no la usamos 0:)
por cierto.. entiendo que estas usando cables UTP cierto ???
UTP cat 6. En cuanto al cableado de los patch pannel al switch, ... no te puedo decir nada porque ya estaba, si tengo tiempo levanto el suelo y miro.
3 cabinas de discos a 4 gbit switch con backplane de 40 GB
hehehehe.... que buenos juguetes encuentra usted y en especial este tipo de switch !!! lo vi una sola vez y no creia mucho en lo que miraba y mucho menos en los datos que me pasaron sobre ellos !!!
Te lo cambio ;) La verdad es que pienso que es el switch, que o bien está mal configurado o bien le "falta algo", pero no puedo/debo tocarlo.
clientes IBM (no s� el modelo) con MS-WinXP SP2 Samba
Resulta que la red da como m�ximo 20 MB/s lo cual me parece absurdo puesto que todo te�ricamente es Gbit lo cual deber�a dar como m�ximo de 125 MB/s en cada tarjeta de red (sea servidor o cliente) aunque en un mondo real se suele conseguir unos 70 MB/s sin tunear nada. Lo curioso es que da 20 MB/s, independientemente del n�mero de clientes, lo que escribas o leas, ...
te recomendaria iniciar vuestros diagnosticos por los cables de red... talvez el cable este "medio raro" y no logre las tasas de transferencias que deberia !!!!
OK :) Pediré a ver si alguien tiene un "FLUKE" y haremos pruebas. Prefiero el "FLUKE" a lo que comentaba Carlos porque soy un poco "ignorante" en esto de redes 0;)
Pruebas que he hecho:
netbench xdd copiar entre servidores*
tines mas de un servidor ???
Dos servidores como lo descrito anteriormente en HA y haciendo balanceo de carga.
se es asi... (y se puedes) desconecta todos los demas pcs/servidores del switch y deje solamente los dos servidores (antes revisa los cables como mencione) y entonces haga las prubeas.
OK :)
copiar entre PCs* copiar PCs-Servidor y a la inversa* al copiar hemos usado scp y SMB
Da igual lo que hagas que s�lo consigues 20 MB/s. Adem�s, llegamos a un cuello de botella de 140 MB/s.
no entiendo la ultima frase !!!!
Es verdad 0:) Lo máximo que consigo en cada PC son 20 MB/s y en el servidor 140 MB/s (channel bonding). Si en el servidor mido cada tarjeta por separado me da 20 MB/s ... luego no tiene sentido: channel bonding: 140 MB/s tarjeta sola: 20 MB/s
como que llegan a un cuello de botella de 140MB/s ??? supostamente no logras transferencias mayores que 20MB/s o si ???
Esa es una de las dudas. No tiene sentido lo que está ocurriendo ... No se me había ocurrido "snifar" la red por si hay alguna máquina "haciendo ruido" ... apuntado en el todo list.
Posibles cuellos de botella:
cabina de discos - servidor: comprobado, est�n dando 350-400 MB/s por lo que no hay cuello de botella aqu�
CPUs: de las 16 CPUs, s�lo llegamos a usar 6 en momentos de "m�xima carga" (20 PCs leyendo y/o escribiendo) por lo que a�n nos quedan 10 libres
RAM: llega a consumir los 30 GB de RAM y no llega a usar la swap
T. Red: lo compruebo esta semana, me llevo un switch para hacer pruebas, adem�s de hacer pruebas con channel bonding con 1, 2, 3, 4, 5 y 6 tarjetas para ver si cambia el rendimiento
esta es una excelente prueba... personalemente creo que el problema vaya por este lado (cables y/o switch)
switch: no tengo acceso aunque la persona que lo administra est� all� y puedo darle la barrila
buuuu !!!!!
:-(
Eso mismo pienso yo ... :(
Lo malo es que:
- no quieren habilitar Jumbo Frames
algun motivo en especial ???
Habría que habilitarlo en todos los PCs (según dicen) yo tengo entendido que no. Además, los PCs clientes no soportan jumbos ... o por lo menos en el driver de MS-Windows no aparece. Descargaron drivers de la web oficial y seguía sin aparecer la opción. Lo que sí aparece es la posibilidad de activar el QoS.
segun vosotros mismo deberia de ser una excelente altenartiva caso toda la red lo suporte !!!
Eso creo yo, intentaré presionar :)
Herramientas usadas para monitorizar: saidar xosview pcp (herramienta de SGI)
generalmente lo que hago para comprobar la performance de la red es crear una serie de 20 archivos de 10,100,500 y 1000 MiB con "dd" y copiarlos por la red atraves de scp. mmmm...no me pregunte el porque de tantos archivos de diferentes tamanos... creo que sea una costumbre mia de hace mucho tiempo !!!
Haré la prueba con ficheros pequeños también ... vaya lista me está saliendo ;)
*Los ficheros que copiamos son v�deo e im�genes iso. El tama�o m�s peque�o es de unos 6 GB. Otros ficheros los creamos con:
mmmm.. por curiosidad, que sistema de archivos estas usando ???
XFS en los servidores y NTFS en los clientes. En el caso de XFS (y a la hora de crear los volúmenes) se han tenido muy en cuenta cosas como tamaño de bloque, ...
Por cierto, el sistema se usa para v�deo. Abriendo v�deos, cada PC consume unos 8 MB/s de red por lo que no se conseguir�a llegar al cuello de botella (140 MB/s) hasta los 17,5 PCs. Lo malo es que van a ser unos 30 PCs.
mmmm.. complicado el tema !!!!
Ni te lo imaginas ;)
Vamos que si a alguien se le ocurre algo ... se lo agradecer�a ;) Si alguien sabe de switches o herramientas buenas para monitorizar un switch, pruebas de rendimiento, ... y me puede echar una mano ... se agradecer�a :)
podrias revisar este sitio http://www.psc.edu/networking/projects/tcptune/ acabo de encontrarlo y se ve algo interessante
Muchas gracias !!! Rafa -- "Even paranoids have enemies." OpenWengo: rgriman Skype: rgriman
-----BEGIN PGP SIGNED MESSAGE----- Hash: SHA1 El 2006-04-01 a las 21:45 +0200, rafagriman@gmail.com escribió:
OK :) Pediré a ver si alguien tiene un "FLUKE" y haremos pruebas. Prefiero el "FLUKE" a lo que comentaba Carlos porque soy un poco "ignorante" en esto de redes 0;)
Debía haberme imaginado que esa gente tendría inventado algún comprobador de cables de red, es obvio. Como también es obvio que costará una pasta, siendo Fluke. ¡Aún hay clases! :-) Hay comprobadores de cables en telefonía que van en un carrito y con un precio que debe rondar su peso... - -- Saludos Carlos Robinson -----BEGIN PGP SIGNATURE----- Version: GnuPG v1.4.0 (GNU/Linux) Comment: Made with pgp4pine 1.76 iD8DBQFELvx+tTMYHG2NR9URAnP8AKCIuHiB+P9+m5Ow8S8cB00zFSQ6IACfWIrd AwyKPC3Q/kk9dJcx1FAoSKg= =ZmUK -----END PGP SIGNATURE-----
2006/4/1, rafagriman@gmail.com
Hola :)
[...]
Por cierto, el sistema se usa para vídeo. Abriendo vídeos, cada PC consume unos 8 MB/s de red por lo que no se conseguiría llegar al cuello de botella (140 MB/s) hasta los 17,5 PCs. Lo malo es que van a ser unos 30 PCs.
mmmm... no entiendo muy bien vuestros calculos, pero segun veo deberia de sobrar ancho de banda en la red !!!! vea mis calculos y diga donde me equivoco !!! probando la actual configuracion se obtene que: - por cada tarjeta de red por separado se obtene una TT (tasa de transferencia) de 20MiB cuando en realidad segun usted deberia de ser unos 70MiB - probando las 6 tarjetas de red en conjunto (bounding) se obtene una TT de 140MiB (aca en teoria no deberia de ser unos 120MiB de TT ??? pues 6 tarjetas por 20MiB es igual a 120MiB !!! ) - cada PC abrindo un video consume unos 8MiB y son 30PCs en total o sea que se necesitaria un ancho de banda de 240MiB (8MiB*30PCs) para que no existira cuello de botella. Pues bine, en el otro correo que enviaste recien, mencionaste que existe un otro servidor con las mismas caracteristicas y que trabajar en el balanceo de carga o sea que tienes con los 2 servidores juntos un enlace actual de 280MiB (140MiB*2Servidores) y te deberia de sobrar unos 40MiB de TT !!! ahora, logico que la idea es obtener toda la performance de la red y no contar con el balanceo de carga de los 2 servidores !!! imaginate se uno de ellos se va de guata (= a tener problemas), entonces si, tendras problemas de cuello de botella !!! mmmm.. me equivoco en algo ??? Salu2 -- -- Victor Hugo dos Santos Linux Counter #224399
Hola :) El Sábado, 1 de Abril de 2006 22:06, Victor Hugo dos Santos escribió:
2006/4/1, rafagriman@gmail.com
: Hola :)
[...]
Por cierto, el sistema se usa para v�deo. Abriendo v�deos, cada PC consume unos 8 MB/s de red por lo que no se conseguir�a llegar al cuello de botella (140 MB/s) hasta los 17,5 PCs. Lo malo es que van a ser unos 30 PCs.
mmmm... no entiendo muy bien vuestros calculos, pero segun veo deberia de sobrar ancho de banda en la red !!!! vea mis calculos y diga donde me equivoco !!!
probando la actual configuracion se obtene que:
- por cada tarjeta de red por separado se obtene una TT (tasa de transferencia) de 20MiB cuando en realidad segun usted deberia de ser unos 70MiB
- probando las 6 tarjetas de red en conjunto (bounding) se obtene una TT de 140MiB (aca en teoria no deberia de ser unos 120MiB de TT ??? pues 6 tarjetas por 20MiB es igual a 120MiB !!! )
- cada PC abrindo un video consume unos 8MiB y son 30PCs en total o sea que se necesitaria un ancho de banda de 240MiB (8MiB*30PCs) para que no existira cuello de botella.
Pues bine, en el otro correo que enviaste recien, mencionaste que existe un otro servidor con las mismas caracteristicas y que trabajar en el balanceo de carga o sea que tienes con los 2 servidores juntos un enlace actual de 280MiB (140MiB*2Servidores) y te deberia de sobrar unos 40MiB de TT !!!
ahora, logico que la idea es obtener toda la performance de la red y no contar con el balanceo de carga de los 2 servidores !!! imaginate se uno de ellos se va de guata (= a tener problemas), entonces si, tendras problemas de cuello de botella !!!
mmmm.. me equivoco en algo ???
No te equivocas en nada, por lo menos eso son los cálculos que me han salido a mi. Es una situación rara. No hay quién lo entienda, ningún número concuerda. Por cierto, el link de antes es muy bueno !!!! Lástima que me tenga que ir, en cuanto vuelva sigo leyendo ;) Gracias por todo !! Rafa -- "Even paranoids have enemies." OpenWengo: rgriman Skype: rgriman
Creo que no es buena idea usar scp para comprobar velocidad (tiene que comprimir y encriptar los datos antes de enviarlos). A pesar de que puedas tener buenas CPUs para hacer esas operaciones. De hecho una vez que estuve haciendo pruebas de velocidad y lo único que hacía era coger datos de /dev/urandom, y solo con eso me daba unas velocidades muy bajas cuando la red en realidad podía con más. Lo mejor es coger los datos a enviar de /dev/zero (nada que necesite usar CPU ni disco duro). Mira las utilidades netio o iperf que lo hacen de esa forma y tienen ejecutables para Windows y Linux.
El Lunes, 3 de Abril de 2006 17:45, Toni Casueps escribió:
Creo que no es buena idea usar scp para comprobar velocidad (tiene que comprimir y encriptar los datos antes de enviarlos). A pesar de que puedas tener buenas CPUs para hacer esas operaciones. De hecho una vez que estuve haciendo pruebas de velocidad y lo �nico que hac�a era coger datos de /dev/urandom, y solo con eso me daba unas velocidades muy bajas cuando la red en realidad pod�a con m�s.
He probado: scp sftp smb mount -t cifs servidor /punto/montaje y luego un cp
Lo mejor es coger los datos a enviar de /dev/zero (nada que necesite usar CPU ni disco duro).
Mira las utilidades netio o iperf que lo hacen de esa forma y tienen ejecutables para Windows y Linux.
He usado iperf así como otras herramientas. iperf desde mi portátil Linux al servidor (con Linux) da 507 Mbits/s iperf desde un MS-Windows XP al servidor (con Linux) da 120 Mbits/s Luego el servidor no es ... La cabina de discos tampoco porque está dando unos 450 MBytes/s de media (hay picos de 563 MBytes/s). Gracias :) Rafa -- "Even paranoids have enemies." Rafa Grimán Systems Engineer Silicon Graphics Spain Santa Engracia, 120 - Planta Baja 28003 Madrid Spain Tel: +34 91 3984200 Tel: +34 91 3984201 Móvil: +34 628 117 940 http://www.sgi.com OpenWengo: rgriman Skype: rgriman
2006/4/1, rafagriman@gmail.com
Hola :)
Hola [...]
No te equivocas en nada, por lo menos eso son los cálculos que me han salido a mi. Es una situación rara. No hay quién lo entienda, ningún número concuerda.
Fin de semana estuve dando vueltas con vuestro tema y me ha venido una duda. que hardware exactamente estas usando ??? te pregunto, ya que me ha venido una idea absurda en la cabeza, pero enfim, en las ideas absurdas es que estan las soluciones !!! ;-) Tu comentaste que las tarjetas no ultrapasan los 120MBs trabajando en conjunto, esto es case que la velocidad total del barramento PCI de 32 bits que es de 133MBs compartido entre todos los dispositivos PCI y muchos otros dispositivos. Se vuestras tarjetas de red GigE son PCI 32 (cosa que no deberia serlo) , entonces alla esta vuestro problema. Ahora caso sean de 64 bits, ni idea.. ya que la tasa de velocidad total es de 533Mb/s, pero mismo asi, creo que con 8 tarjetas de redes GigE tambien podria haber diferencias de rendimentos !!! los testes individuales que realizaste (que daban un resultado de 20MBs por cada tarjeta) lo hiciste con todas las tarjetas enchufadas al server o las removiste y dejaste solamente una conectada ???
Por cierto, el link de antes es muy bueno !!!! Lástima que me tenga que ir, en cuanto vuelva sigo leyendo ;)
siii.. lo vi durante el final de semana y realmente era bien interesante. bien.. era esto, suerte. -- -- Victor Hugo dos Santos Linux Counter #224399
Hola :) El Lunes, 3 de Abril de 2006 20:18, Victor Hugo dos Santos escribió:
2006/4/1, rafagriman@gmail.com
: Hola :)
Hola
[...]
No te equivocas en nada, por lo menos eso son los c�lculos que me han salido a mi. Es una situaci�n rara. No hay qui�n lo entienda, ning�n n�mero concuerda.
Fin de semana estuve dando vueltas con vuestro tema y me ha venido una duda. que hardware exactamente estas usando ???
te pregunto, ya que me ha venido una idea absurda en la cabeza, pero enfim, en las ideas absurdas es que estan las soluciones !!! ;-)
Tu comentaste que las tarjetas no ultrapasan los 120MBs trabajando en conjunto, esto es case que la velocidad total del barramento PCI de 32 bits que es de 133MBs compartido entre todos los dispositivos PCI y muchos otros dispositivos.
Son tarjetas de 64, si mal no recuerdo ... no las tengo aquí delante 0;) Cada una va en un bus a parte por lo que no andan compartiendo buses. Las tarjetas de fibra van también en su propio bus y no comparten bus con ningún otro dispositivo.
Se vuestras tarjetas de red GigE son PCI 32 (cosa que no deberia serlo) , entonces alla esta vuestro problema.
Lo comprobaré por si acaso, gracias por el apunte :)
Ahora caso sean de 64 bits, ni idea.. ya que la tasa de velocidad total es de 533Mb/s, pero mismo asi, creo que con 8 tarjetas de redes GigE tambien podria haber diferencias de rendimentos !!!
Como he comentado antes, van en buses diferentes. De todas maneras me aseguraré con lo que comentas más arriba.
los testes individuales que realizaste (que daban un resultado de 20MBs por cada tarjeta) lo hiciste con todas las tarjetas enchufadas al server o las removiste y dejaste solamente una conectada ???
Están todas conectadas. Lo que hago es desactivarlas. No debería afectar el que estén porque van en buses diferentes, incluso van en "bricks"* diferentes. * Los "bricks" son nuestras unidades para "componer" computadoras, es como un Lego. De todas maneras, también le ocurre a las tarjetas de los PCs. Ocurre al copiar: PC <-> servidor PC <-> PC En este último caso, no pasa por el servidor dato alguno por lo que no puede ser cosa del servidor ...
Por cierto, el link de antes es muy bueno !!!! L�stima que me tenga que ir, en cuanto vuelva sigo leyendo ;)
siii.. lo vi durante el final de semana y realmente era bien interesante.
Me ha dado muchas y buenas ideas, algunas ya las he llevado a cabo, otras no he podido (retocar el Registro de los MS-Windows) ya que no son nuestros equipos ...
bien.. era esto, suerte.
Gracias por todo, ha sido de mucha ayuda :) Rafa -- "Even paranoids have enemies." OpenWengo: rgriman Skype: rgriman
participants (4)
-
Carlos E. R.
-
rafagriman@gmail.com
-
Toni Casueps
-
Victor Hugo dos Santos