Hi Frank, On Wed, 25 Jan 2006, 21:25:52 +0100, Frank Babies wrote:
Hallo Manfred,
Am Mittwoch, 25. Januar 2006 19:36 schrieb Manfred Hollstein:
On Wed, 25 Jan 2006, 18:43:03 +0100, Frank Babies wrote:
Am Mittwoch, 25. Januar 2006 18:20 schrieb Manfred Hollstein:
On Wed, 25 Jan 2006, 17:49:05 +0100, Frank Babies wrote:
[...]
Die Rechner haben jeweils 2GB RAM.
Spricht fuer den Filecache. Beim zweiten Mal ist das ISO File bereits im lokalen Filecache und kann dann mit viel hoeherer Rate kopiert werden. Wie ist denn dein GigE Device ans System angebunden? Falls das mit am PCI Bus haengt, dann haben sich die IDE-Devices und das GigE die maximal moegliche Bandbreite von 133MByte/sec zu teilen. Erklaert aber auch immer noch nicht den Einbruch auf 20 MB/s. Was liefern denn deine Platten, wenn du mal als "root" folgendes Kommando laufen laesst?
# hdparm -tT /dev/hdx
wobei du "x" mit dem Buchstaben des jeweils betroffenen Laufwerks abgleichen musst.
Ich bin mir nicht sicher was du mit GigE Device meinst.
GigabitEthernet. Ahhh
Die Netzwerkkarte ist eine: Model: "Intel PRO/1000 MT Desktop Adapter" Vendor: pci 0x8086 "Intel Corporation" Device: pci 0x100e "82540EM Gigabit Ethernet Controller" SubVendor: pci 0x8086 "Intel Corporation" SubDevice: pci 0x002e "PRO/1000 MT Desktop Adapter" Revision: 0x02 Driver: "e1000" Device File: eth2
Der sieht vernuenftig aus. Um ganz sicher zu gehen, ist das ein Onboard-Adapter, oder 'ne separate Steckkarte? Falls letzteres, PCI oder PCI-Express?
Separater PCI Adapter.
OK, dann ist meine Beschreibung bzgl. der Bandbreitenteilung (s.o.) ja bestaetigt. Erklaert aber immer noch nicht wirklich dieses Verhalten...
Warum ist das Device "eth2"? Was stecken da sonst noch fuer Netzwerkkarten 'drin? Wie sehen die Netzwerk-Routen aus?
Ich habe eth0
Model: "ASUSTeK Marvell 88E8053 Gigabit Ethernet Controller (Asus)" Vendor: pci 0x11ab "Marvell Technology Group Ltd." Device: pci 0x4362 "88E8053 Gigabit Ethernet Controller" SubVendor: pci 0x1043 "ASUSTeK Computer Inc." SubDevice: pci 0x8142 "Marvell 88E8053 Gigabit Ethernet Controller (Asus)" Revision: 0x19 Driver: "sk98lin" Device File: eth0 Memory Range: 0xd1000000-0xd1003fff (rw,non-prefetchable) I/O Ports: 0xa000-0xafff (rw) Memory Range: 0x7ff00000-0x7ff1ffff (ro,prefetchable,disabled) IRQ: 50 (841911 events) HW Address: 00:15:f2:19:11:69 Module Alias: "pci:v000011ABd00004362sv00001043sd00008142bc02sc00i00" Driver Info #0: Driver Status: sk98lin is active Driver Activation Cmd: "modprobe sk98lin" Config Status: cfg=no, avail=yes, need=no, active=unknown
Whoops, schmeiss bloss den "sk98lin" Treiber 'raus und ersetze ihn durch den "skge"; fuer Details siehe https://bugzilla.novell.com/show_bug.cgi?id=130441 Mal 'ne ganz andere Frage, was fuer ein Board/Chipset verwendest du?
Diese kann zwar GB, aber ich benutze sie nur als Mbit da mein anderes Netzwerk "nur" MBit ist. Diese Karte ist Onboard. Die Netzwerkkarte hat die IP 10.0.0.3 Die obere Intel hat die 192.168.0.1
Ich nehme mal an, dass der zweite Rechner dann auch eine Adresse aus dem 192.168.0.0/24 Netz hat.
Die route sieht so aus: Kernel IP routing table Destination Gateway Genmask Flags Metric Ref Use Iface 10.0.0.0 * 255.255.255.0 U 0 0 0 eth0 192.168.0.0 * 255.255.255.0 U 0 0 0 eth2 link-local * 255.255.0.0 U 0 0 0 eth2 loopback * 255.0.0.0 U 0 0 0 lo
OK.
Weitere PCI Karten sind 1xISDM AVM. 1xPCI Express Grafik Nvidia 6600
Durch anfängliches löschen aubauen und wiederum neu anlegen hat Yast der Intel das device eth2 zugewiesen. Verstanden habe ich es nicht aber es läuft so.
Auch OK.
Beide PC's haben die gleiche Karte drin.
Rechner marvin:
marvin:~ # hdparm -tT /dev/sda
/dev/sda: Timing cached reads: 2428 MB in 2.00 seconds = 1213.92 MB/sec Timing buffered disk reads: 202 MB in 3.02 seconds = 66.88 MB/sec marvin:~ # hdparm -tT /dev/sdb
/dev/sdb: Timing cached reads: 2432 MB in 2.00 seconds = 1215.92 MB/sec Timing buffered disk reads: 204 MB in 3.02 seconds = 67.46 MB/sec marvin:~ #
Rechner sara: sara:~ # hdparm -tT /dev/hda
/dev/hda: Timing cached reads: 1968 MB in 2.00 seconds = 983.94 MB/sec Timing buffered disk reads: 164 MB in 3.00 seconds = 54.66 MB/sec sara:~ # hdparm -tT /dev/hdc
/dev/hdc: Timing cached reads: 1944 MB in 2.00 seconds = 973.89 MB/sec Timing buffered disk reads: 166 MB in 3.03 seconds = 54.75 MB/sec sara:~ #
Auch das sieht vernuenftig aus (obwohl ich lieber den marvin zum NFS-Server machen wuerde...).
Der marvin ist der neuere Rechner mit AMD 3200+ 64Bit (32 Bit Installiert), während sara der etwas ältere 3000+ 32Bit später gleichzeitig als Plattenplatz, Backup (denn Softraid 1 ist kein Backup) und Reserve Rechner dienen soll. Von daher share ich sara und nicht marvin.
Yep, ist sinnvoll.
Irgendwie kann ich mich des Verdachts nicht erwehren, dass dein NFS-Server Probleme hat bzw. waere es interessant zu sehen, wie die exportierten Dateisysteme auf dem Client gemounted sind. Das sind die /etc/fstab Einträge auf marvin: sara:/home/frank /sara/sara-hdc nfs defaults 0 0 sara:/daten /sara/sara-hda nfs defaults 0 0
OK, mach' mal aus den "defaults" Flags Folgendes: sara:/home/frank /sara/sara-hdc nfs hard,intr,nolock,tcp,rsize=32768,wsize=32768 0 0 sara:/daten /sara/sara-hda nfs hard,intr,nolock,tcp,rsize=32768,wsize=32768 0 0 Das "nolock" darin ist nicht wirklich notwendig/sinnvoll, hilft dir aber, wenn du z.B. mit OpenOffice oder mutt auf Directories/Daten zugreifen willst, die per NFS gemounted sind; solange du nur allein auf die Daten zugreifst und sonst keiner in deinem Netzwerk, riskierst du keine Daten-Inkonsistenz.
Hier die Einträge in sara /etc/exports: /daten/ *(rw,root_squash,async) /home/frank/ *(rw,root_squash,async)
Auch OK.
Hast du vielleicht noch ein weiteres System, das du mal als NFS-Server verwenden kannst und das ein aelteres OS (z.B. SUSE Linux 9.2) 'drauf hat? Koennte interessant sein zu sehen, ob/welchen Einfluss das hat.
Ja schon. Nur sind diese Rechner älter oder auch nicht so ohne weiteres umbaubar auf GBit. UltraSparc5, SGI Indigo2 usw.
Desweiteren habe ich nun die ganze Zeit rumprobiert und habe festgestellt das immer wenn ich sara runterfahre und wieder rauf kommt es immer zur selben Situation. Mit anderen Worten: Ich fahre sara rauf und mounte die exportierten Verzeichnisse. Dann kopiere ich zuerst eine Datei von marvin auf sara dann umgedreht usw. Solang ich nur eine Datei zur Zeit anfasse auch mit deinem Tool komme ich nicht über 20MB/s. kommt ein 2ter Task hinzu steigt die Geschwindigkeit auf 40-42 MB/s. Also lese ich mit deinem Tool eine 40GB Datei von marvin auf sara zeigt er 21 MB/s. starte ich im gleichen Zeitrauf ein kopieren einer anderen Datei z.B. diese Knoppix mit 700 MB Steigt die Geschwindigkeit plötzlich bei beiden auf etwa 35-40 MB/s. Ist das kopieren der Knoppix fertig sieht man wie dein Tool nun weiter mit 41 MB/s die 40GB Datei liest. Danach ist alles so wie es sein soll und die Festplatten sind so zu sagen an ihre Grenzen kommen.
Ich muss leider sagen, dass ich mit der Performance von NFS auf der 10.0 auch nicht wirklich zufrieden bin, aber solche Zustaende habe ich bislang noch nicht gesehen. Probiere nochmal die o.g. Mount-Flags aus, ob die etwas aendern, ansonsten solltest du dir mal detailliert ansehen, was denn "iostat" auf den Systemen protokolliert.
Frank
HTH, cheers. l8er manfred