Hola :) El Miércoles, 12 de Julio de 2006 20:40, Carlos E. R. escribió:
El 2006-07-12 a las 13:01 -0500, Juan Carlos Bravo Celis escribi�:
Mi wan, se conecta a traves de tecnologia ADSL, y algunos enlaces MPLS, los enlaces ADSL son de 900/256 kbps mas un canal de voz, ninguno de los enlaces pasa por internet, mi oficina principal tiene un ancho de banda de 2MB MPLS para la WAN, y una conexion a internet de 2MB 1:1, entre el router de mi WAN y mi router de salida a internet tengo un proxy firewall que me da acceso a mi DMZ y a un firewall principal que da cara a internet.
segun calculos y consultas estoy de acuerdo en que 25kbps de subida para los archivos me parece que es aceptable, cada oficina remota usa el mismo usuario para transferir los archivos, ( no lo hacen al mismo tiempo) , cada una sube las imagenes a una carpeta diferente que ayuda a identificarlas, en la carpeta que usan los equipos de mi LAN, hasy 100000 imagenes, y en los de mis oficinas remotas apenas 15000 en promedio, las remotas si transfieren sin problemas, pero las de mi LAN, les retorna un mensaje de Timeout.
Creen que este Timeout, se deba a la cantidad de archivos que hay en esa carpeta? tiene un limite la cantidad de archivos en una carpeta? estoy usando reiserfs.
No hay limite conocido. Oficialmente, no hay l�mite. Yo hice una probatina de crear much�simos ficheros, y no recuerdo si cre� cien mil o un mill�n. Puse la prueba en la lista; pero no recuerdo cuando, si no te lo concretar�a. Es que no caigo en una palabra clave para buscarlo. �Se acuerda alguien?
Teóricamente no hay límite, pero en la práctica puedes encontrarte con problemas de rendimiento. Creo que comenté en correos anteriores que nosotros aconsejamos a nuestros clientes no meter más de 15000 ficheros en cada directorio si un MS-Windows va a tener que acceder a él porque el MS-Windows puede tener problemas para listarlos. En el caso de Linux, tenemos clientes gringos con 70 millones de ficheros. A veces tarda un poco, pero no es problemático. En pruebas internas hemos montado sistemas de ficheros con 400 millones de ficheros y un rendimiento aceptable. De todas maneras, no aconsejamos tener más de 40 millones de ficheros porque puedes ver problemas de rendimiento, gestión, ...
No, yo pensar�a que el problema debe ser cuesti�n de cortafuegos con el protocolo ftp. Podr�as probar con el protocolo ssh, que no tiene ese tipo de problemas. Bueno, no ssh, sino sftp, pero es de la familia. Es un poquito m�s lento, por la encriptaci�n, pero tu cuello de botella es la adsl, no la potencia de c�lculo.
Puedes comprobarlo enviando un fichero a un directorio con poca ocupaci�n, a ver si da timeout. Tambi�n se ver�a en el log del servidor ftp.
Yo estoy con Calros, creo que más bien es algo de red. De todas maneras, prueba iperf para medir el ancho de banda que tienes. Una vez hecho eso, prueba con un dd (existe dd para MS-Windows) desde MS-Windows a escribir y leer en el Linux. Estas son las dos pruebas que suelo usar porque iperf mide sólo ancho de banda y dd permite medir ancho de banda y acceso a disco así como consumo de CPU. Si alguien tiene curiosidad ... que pruebe a montar un tmpfs en RAM (o un RAMDISK) y que lance un dd ... la CPU es el cuello de botella :( HTH Rafa -- "Even paranoids have enemies." Rafa Grimán Systems Engineer Silicon Graphics Spain Santa Engracia, 120 - Planta Baja 28003 Madrid Spain Tel: +34 91 3984200 Tel: +34 91 3984201 Móvil: +34 628 117 940 http://www.sgi.com OpenWengo: rgriman Skype: rgriman