Re: Messung der Netzwerkgeschwindigkeit
![](https://seccdn.libravatar.org/avatar/f5b170570da0648b10282a6473617026.jpg?s=120&d=mm&r=g)
Thomas Michael Wanka [mailto:Tom@Wanka.at] schrieb:
das ist schon klar, ich wollte nur "Gott" genannt werden. ;)
Sag' ich aber nich ! =;-)
Gute Karten erreichen durchaus um die 60MBit/s simplex, also theoretisch 120MBit/s duplex. Aber hier fangen bereits die Probleme an: nicht alle Boards verkraften diese DMA/Interrupt Belastung.
BTW: Wir hatten kürzlich in der Firma die Frage, wie sich das bei einem Server mit GigabitEthernet-Karte verhält. Ich vertrete die Meinung, daß man über einen PCI-bus (auch bei 64Bit) nie 1 GBit/s drüberbekommt. Insofern dürfte 1000BaseSX u.ä. nur als Backbonetechnologie interessant sein... Was denkt Ihr darüber? -- Mit freundlichen Grüßen Thomas Voigt
![](https://seccdn.libravatar.org/avatar/0f267ec2f6f200b6578cfd885170d97a.jpg?s=120&d=mm&r=g)
Hi, On 30 Jan 2002 at 11:29, Voigt Thomas wrote:
Wir hatten kürzlich in der Firma die Frage, wie sich das bei einem Server mit GigabitEthernet-Karte verhält. Ich vertrete die Meinung, daß man über einen PCI-bus (auch bei 64Bit) nie 1 GBit/s drüberbekommt. Insofern dürfte 1000BaseSX u.ä. nur als Backbonetechnologie interessant sein...
Was denkt Ihr darüber?
32Bit 33MHz. PCI Busse können maximal ca. 130MB (Megabyte)/s übertragen, theoretisch kann ein 66MHz/64Bit Bus das vierfache, also etwa 500MByte oder 4GBit/s übertragen. Theoretisch wie gesagt, denn Der Rechner muß mit den Daten ja irgendetwas machen, sodaß im Ende wieder die Festplatte alles Bremsen sollte. Darüber hinaus benötigt die GBit Karte einen recht großen Cache (2MB aufwärts) um Burst Transfers über den PCI Bus zu etablieren, und der Chipsatz muß mitmachen (Serverworks, eventuell - nicht getestet - AMD 760MPX, was bei den Macs und Sparcs und Alphas zum Einsatz kommt ist mir nicht bekannt), da die Interrupt/DMA Belastung sehr hoch ist. Das volle Datenvolumen wird die GBit Karte auch nur erreichen, wenn Jumboframes aktiviert sind (MTU von ca. 9000) und das auch von der Infrastruktur (Switch) und den Applikationen möglich ist (wenn eine Applikation nur 7/8Bit Häppchen verschickt, z.B. NTP oder ähnliches, wird alleine der TCP/IP Overhead den größeren Teil des Datenvolumens beanspruchen). Wenn Du das testest, und einen Server mit einem GB Ram hast, und 20 Clients mit 100MBit/s am Switch die ebenfalls über ausreichend Speicher verfügen um die Daten ihrerseits nciht zu bremsen, und Du überträgst Daten vom Ram (z.B. Plattencache) des Servers in das Ram der Workstations, solltest Du am Server wohl an die GBit Grenze stoßen können, wie immer eine gute GBit Karte vorausgesetzt (z.B. die Tigon basierten, heute gibt es etlich "Billigkarten" die rein technisch nicht an Gbit herankommen können). "Gute" Hardware vorausgesetzt, kann ein Datenbankserver z.B. sehr wohl von einer GBit Karte profitieren! Tom
![](https://seccdn.libravatar.org/avatar/055279d1dd2f3a60dce3eccb20ad6ef9.jpg?s=120&d=mm&r=g)
Am Mit, 2002-01-30 um 11.29 schrieb Voigt Thomas:
Thomas Michael Wanka [mailto:Tom@Wanka.at] schrieb:
das ist schon klar, ich wollte nur "Gott" genannt werden. ;)
Sag' ich aber nich ! =;-)
Gute Karten erreichen durchaus um die 60MBit/s simplex, also theoretisch 120MBit/s duplex. Aber hier fangen bereits die Probleme an: nicht alle Boards verkraften diese DMA/Interrupt Belastung.
BTW: Wir hatten kürzlich in der Firma die Frage, wie sich das bei einem Server mit GigabitEthernet-Karte verhält. Ich vertrete die Meinung, daß man über einen PCI-bus (auch bei 64Bit) nie 1 GBit/s drüberbekommt.
Glaube ich auch nicht, aber da gibt es auch noch andere Überlegungen;-)
Insofern dürfte 1000BaseSX u.ä. nur als Backbonetechnologie interessant sein...
Was denkt Ihr darüber?
Ich habe zwei Linuxfileserver mit GigaBit Ethernet im Einsatz. Zu erst mit Glasfaser, jetzt über Kupfer. Klar bringen auch meine Rechner keine 1Gbit/s über das Netz, aber ein wenig mehr als 100Mbit/s sind es dann doch schon:-) Nehmen wir mal an, mein Rechner wäre in der Lage 300MBit/s übers Netz zu bringen und ich will kein GBit einsetzen. Dann brauche ich mindestens 3 100MBit-Karten im Rechner plus einen Switch, der das auch unterstützt. So nehme ich eine Karte 1GBit von z.B. Intel, die kostet mich 100 Euro plus ein Switch mit einem Uplink Port 1GBit, der kosztet nochmal 350 Euro. Und schon bin ich alle Sorgen los. Und sollte der Swicht mal streiken, dann steckst Du das Kabel eben in einen anderen 100MBit oder sogar 10MBit Port, und weiter gehts, alles im laufenden Betrieb. Das ist dann zwar nicht so schnell, aber es geht weiter. Das sind Argumente für mich. Sicher hat Thomas ins seiner Paralellmail auch nicht unrecht, aber das sind halt mehr rechnerische Werte. -- mfg Peter Küchler, Planungsverband Frankfurt Region Rhein Main
![](https://seccdn.libravatar.org/avatar/0f267ec2f6f200b6578cfd885170d97a.jpg?s=120&d=mm&r=g)
Hi, On 31 Jan 2002 at 12:52, Peter Kuechler wrote:
Sicher hat Thomas ins seiner Paralellmail auch nicht unrecht, aber das sind halt mehr rechnerische Werte.
ich nehme an, daß meine Nachricht gemeint war. Nachdem kaum jemand einen Rechner haben wird, der im "Normalfall" die 1GBit/s versenden oder empfangen können wird, kann man nur rechnerische und theoretische Werte bekommen. So wie Du verwende ich GB Karten um sicherzustellen, daß das Netzwerk kein Bottleneck ist. Wenn man eine GB Karte im Server hat, kann man sich dann überlegen, ob Rambus oder DDR Ram Performancevorteile bringt, bzw. ob man mit einem SCSI160 (gibt es schon 320?) RAID einen höheren Durchsatz hat als mit einem ATA 100 (133?) RAID. Erwähneswert ist nur, daß mittlerweile recht billige GB Karten verfügbar sind, die allerdings Crap sind und deutlich schlechtere Performance bringen sollten, als eine 4 Port 100MBit Karte. Tom
participants (3)
-
Peter Kuechler
-
Thomas Michael Wanka
-
Voigt Thomas