Hallo Werner,
hast Du das Bonding mit der Anleitung von Lars hinbekommen? Bitte gib mal
ein feedback.
Ich versuche mich auch schon seit einiger Zeit an dieser Sache (allerdings
802.3ad = gebündelter Datendurchsatz) und habe dieselben Probleme beobachten
können/müssen. Wichtig ist mir zu sagen, dass der Router bzw. die an die
Netzwerkkarten angeschlossene Hardware Bonding unterstützen muss. Das weißt
Du aber sicher.
Ich hatte bereits einmal Erfolg mit dem Bonding (Modus siehe oben). Das hat
mir jedenfalls WireShark so gezeigt. Die Daten wurden perfekt auf beide
Netzwerk-Adapter verteilt. Leider konnte ich aber meinen "Versuchsaufbau"
nicht mehr erfolgreich rekonstruieren :-(.
Deshalb ist mir diese Sache hier wichtig.
Liebe Grüße, Alex
----- Original Message -----
From: "Lars Ziegler"
Hallo Werner,
also damit das bonding funktioniert müssen zunächst man deine Devices, die du einbinden willst mit dem Startmode=off (bzw. activate=never) versehen sein, sonst werden die auch gar nicht in der Liste der möglichen Bonding-Devices angezeigt. Eine IP-Adresse bekommen die natürlich auch nicht. Danach kannst du theoretisch dein Bonding-Device über yast einrichten. Allerdings funktioniert das nicht ganz optimal, da yast keinen Bonding-Modus angibt. Ich hab bei mir folgende Konfigurationsdatei /etc/sysconfig/hardware/ifcfg-bond0
BONDING_MASTER='yes' BONDING_MODULE_OPTS='mode=2 miimon=50' BOOTPROTO='static' BROADCAST='' ETHTOOL_OPTIONS='' IPADDR='192.168.101.254/24' MTU='' NAME='' NETWORK='' REMOTE_IPADDR='' STARTMODE='auto' USERCONTROL='no' PREFIXLEN='' NETMASK='' BONDING_SLAVE0='eth1' BONDING_SLAVE1='eth2'
Zeile 2 ist entscheidend. Hier wird der Bonding-Modus 2 angegeben. D.h. Balancing zum Netzwerklastenausgleich mit einer Überprüfung der Aktivität beider Devices alle 50ms (miimon=50). Der Rest spricht denke ich für sich. STARTMODE='auto' : beim Einstecken des Kabels wird das Device aktiviert BONDING_SLAVEx='ethx' : gibt an welche Devices gebündelt werden.
Werner Flamme schrieb:
Hallo miteinander,
ich habe gerade frustrierende Versuche mit openSUSE 10.3 auf einem Dell 6600 hinter mir. Die Kiste (eine Zusammenstellung aus ehemals 3 Dell 6600) hat insgesamt 4 Netzwerkanschlüsse, 2x on Board (BCM 5700), 2 Intel e1000. Sie ist an 2 Subnetze gepatcht, die Karten zeigen paarweise ins selbe Subnetz.
Also dachte ich mir, dass das doch eine schöne Anwendung für Bonding ist. Neues Netzwerkgerät, Typ Bonding, 2 Karten entsprechend konfiguriert, dem Bonding Device zugeordnet, und gut is.
Ne, is nich.
Beim Beenden der YaST-Konfiguration schießt er jedesmal die /etc/sysconfig/network/routes weg (bzw. löscht den Inhalt). Also komme ich per Netzwerk nicht mehr an die Kiste ran. Da der KVM-Zugang ebenfalls muckt, kann ich rüberlatschen, die routes wiederherstellen und sämtliche Netzwerkinterfaces manuell starten (for X in eth bond; do ifup $X0; done). Bis zum nächsten Experiment...
Wenn ich bond0 gestartet habe, hat das Teil eine Adresse in Subnetz 128. Pinge ich einen Host in diesem Subnetz an: "destination unreachable". Ein "ifdown bond0" - so dass die Pakete über die Backbone gehen müssen - und schon klappt's mit dem Ping. Wenn ich die Adresse im 128er Subnetz an eine einzelne Karte hänge, klappt die Verbindung auch.
Auf (z. B.) http://linux.derkeiler.com/Mailing-Lists/SuSE/2004-05/4067.html sehe ich, dass der Startmode der Karten auf "off" gesetzt werden muss, für bond0 auf "auto". Bringt nix. Auch Karten auf "auto": nix.
Fragen: a) wie kann ich erreichen, dass Daten über bond0 usw. gehen? Ein "route -n" zeigt, dass Daten zum 128er Subnetz über bond0 gehen sollen. b) wie erreiche ich, dass bei einem "rcnetwork restart" die bondX mit aktiviert werden? c) warum wird jedesmal von YaST die routes gelöscht, wenn ich die IP-Adressen nicht ändere?
Freundlicher Gruß Werner
-- Um die Liste abzubestellen, schicken Sie eine Mail an: opensuse-de+unsubscribe@opensuse.org Um eine Liste aller verfuegbaren Kommandos zu bekommen, schicken Sie eine Mail an: opensuse-de+help@opensuse.org