![](https://seccdn.libravatar.org/avatar/360c89473e19c7f8c9fe5ca60e12f8ce.jpg?s=120&d=mm&r=g)
(Bitte neue Mail schreiben anstatt "Antworten und alles löschen" :)) * Carsten Michels wrote on Thu, Jan 05, 2006 at 10:48 +0100:
Gibt es die Möglichkeit die Anfragen beim Surfen gleichmäßig zu verteilen?
Was genau willst Du erreichen? Grundsätzlich geht das ja für den Download nicht (weil Du ja nicht entscheiden kannst, über welche Leitung ein Paket geschickt wird), für den Download u.U. schon. Da über zwei Routen die gleichen Netze (Internet) erreichbar sind, sollte ein einfaches load balancing den Upload durchaus verteilen können. Allerdings sollte ein Paket basiertes "dummes" load balancing nicht durch Masquerading hindurch funktionieren, aber vielleicht gibt's da sogar schon was schlaues. Wenn Du ne Art Filesharing machen möchtest, vielleicht die Linux ISOs aus einem Torrentnetz saugen, müsste ein Client zwei lokale IPs unterstützen, dann könnte man sich den Rest wie Advanced Routing basteln; hab sowas mal gemacht (allerdings in "richtigem" Netz ohne Masquerading, sollte aber egal sein, wenn die Applikation zwei IPs kann). Weiss nicht, ob es da irgendwas gibt. Einen Clienten zweimal starten wird nicht mit den gleichen Files gehen, aber so könntest Du mit einem die gerade CDs und mit dem anderen die ungeraden saugen oder so. Wenn Du ein Netz benutzt, wo Upload:Download ca 1:1 werden soll (scoring oder so), könnte es auch helfen, einen nur-Upload-Client mit gleicher Client-ID laufen zu lassen, aber keine Ahnung ob und in welchen Netzen sowas gehen würde. In jedem Fall verloren hast Du, wenn die Clients Connections nach IPs vergleichen, dann hält man sowas sicherlich für sehr obstrus (sieht dann evtl. aus wie ein Client, der ständig die IP wechselt oder so)... Wenn es um HTTP oder sowas geht, und Du viele Clienten hast, würde man sicherlich auch was hinkriegen können (z.b. neue Connections auf die freiere Leitung), aber ja nicht zu Hause...
Bzw. Wenn dann das eine Gateway ausfällt er automatisch nur das andere benutzt?
Zebra wurde ja schon genannt (OSPF ist bestimmt wahnsinnig interessant, aber aufwändig; wenn RIP geht, würd ich das nehmen). Oder man macht ein Script (wenn nicht ping -c3 dann route ... alle 60 Sekunden oder so), sicherlich viel einfacher aber nicht so "schön".
Am besten wäre es ja wenn man sogar eine einzige Datei z.b eine ISO von Linux oder der gleichen herunterladen könnte, aber das funktioniert glaube ich nicht.
Nee, ich glaub auch nicht, dass es Clienten gibt, mit denen sowas möglich wäre (also mehrere lokale IPs gleichzeitig oder mehrere Instanzen auf den gleichen Files).
Ich hatte eine Idee 3 Proxi Server zu benutzten auf einer Maschine aber das wäre Zuviel Aufwand.
Ja, für HTTP wäre das vielleicht nicht schlecht, 3 HTTP Proxy-Instanzen würde man ja hinkriegen, jede verwendet anderen Pfad z.B. über lokales IP-binden, aber dann brauchste vermutlich viele Clienten, weil sonst ja doch wieder immer der gleiche benutzt wird (soweit ich mich Recht erinnere). Oder wie genau sah Deine Idee aus? oki, Steffen -- Dieses Schreiben wurde maschinell erstellt, es trägt daher weder Unterschrift noch Siegel.