El Jueves, 13 de Julio de 2006 23:53, Edwin Quijada escribió:
Estas soluciones que dices son factibles que los ftp?
* Supongo que quieres decir "mas factibles que los ftp", si pero has de tener en cuenta tambien que odio profundamente ftp. * Son las soluciones de toda la vida y totalmente en vigor, ¿es que nunca te has bajado la musica, peliculas y programas de los grupos de binarios de las jerarquias de news? era la formula mas extendida y es probable que vuelva a serlo ..... por el asunto del anonimato, aplicar el cuento creando grupos locales accesibles con autentificion o por ip y SSL si se quiere y ya esta.
Puedes indicarme como lo hacias?
* Instala y configura el servidor news inn2+suck, por ejemplo en cuatro puntos del mundo (supongamos que no estan ubicados en las redes locales de los clientes seria un caso de servidores centrales distribuidos remotamente), hay mucha documentacion para la configuracion de Inn2, creas grupos locales, segun tu necesidad, y suck hara sincronizacion entre ellos por ejemplo cada 4 horas, de esta manera al subir ficheros al servidor que quieras, los cuatro tendran iguales datos (segun el tamaño de la ventana de sincronizacion), a partir de aqui puedes permitir que los clientes suban ficheros o no o puedes poner grupos moderados y otros no, es decir el cliente sube, el servidor te avisa que hay envios por aprobar, los apruebas o no y son publicados en el grupo o no, etc .... * Los clientes (usuarios) usan un cliente news corriente (multiplataforma desde cualquier S.O) puedes habilitar conexiones seguras, a ver, que recuerde casi todos los clientes news pueden tirar de varios servidores, para wilson esta BNR2, Agent, Grabit y mas, para linux ademas tienes facilidades añadidas que no encontraras en wilson, sincronizacion sin que esten en funcionamiento (arrancados) los equipos workstation, por ejemplo puedes colocar leafnode en una de las maquinas de las redes internas de los clientes, leafnode se conectara a tu voluntad (tarea cron para fetchnews) contra los servidores, por ejemplo cada hora y se bajara lo nuevo, lo tendras en la red local, el cliente que se siente en cualquiera de las estaciones de trabajo se conecta con el servidor local (y obtendra los datos casi instantaneamente a velocidad de red local y no saturaras las de internet) por que estan en el servidor local y si los 4 servidores estan en las redes locales, pues sin leafnode conexion directa. * Con esta configuracion (servidores locales) no necesitas clientes que conecten con varios servidores, con que conecten con el local suficiente, no obstante BNR2 y PAN lo hacen, ademas los clientes de news tienen funciones de busqueda estupendas, en alguna ocasion he comentado el uso de esto mismo como servidores de documentacion.
Mientras, me estoy bajando el marabunta y estoy en FogeNet
* A ver, no te tires a la piscina que no hay agua, desconozco si marabunta permite conexiones dedicadas (autenticadas) te ponia un ejemplo de que los p2p estan diseñados precisamente para traerse trozos de multiples servidores y juntarlos, no obstante me extrañaria que en linux no hubiera algo para uso corporativo privado. Los p2p mas habituales son mas bien para uso publico y marabunta en concreto es un p2p orientado al anonimato mas absoluto...............
El problema es que las personas usan Macintosh y no se como se haria el partir y reagrupar
* en macosX y cualquier unix, con split y cat por ejemplo y clientes news que lo hagan automaticamente tambien tiene que haber, ademas de un shell script o script perl, php o lo que sea, te apunto lo de split por que los clientes de news pueden usar formatos de codificacion distintos generalmente yenc , y con split es facil partir y unir en cualquier sistema, de hecho winzip tiene una opcion split y casi seguro que otros compresores tambien dado que split es libre. Ejemplo a pelo: Partirlos split -b 10000k granfichero trocea granfichero y produce ficheros xaa xab xac, etc y con el cliente news los subes a un servidor news, entre ellos haran feed. Juntarlos cat xaa xab xac > granfichero En Wilson copy /b xaa + xab + xac granfichero /b ... que yo recuerde. * Notese que no es necesario partirlos, pero downloads de ficheros de varios GB es una salvajada. * Aunque en Mac casi todo es de pago, no obstante puedes instalar fink (especie de apt) y tirar de algun software GNU portado, que recuerde leafnode (servidor local) y sylpheed (cliente) lo estan, no obstante hay clientes de news nativos gratuitos. * La version de pago del cliente/servidor de ficheros LimeWire hace tiempo permitia esto precisamente, es multiplataforma si no recuerdo mal no era caro, habria que adquirir en este caso 4 copias del servidor, los clientes son gratuitos para todas las plataformas. * Tiene que haber una docena de formulas variopintas para hacer esto, servidores de documentacion/ficheros instalados sobre servidor web, por ejemplo DocMGR y alguna segadora multiconexion http/s en los clientes .........