Re: Probleme bei der Übertragung größerer Datenmengen via Netzwerk
Au ja, sorry, hätte ich tun sollen.
Zuerst habe ich es per Samba (nur Client) versucht und dabei ist mir der
Server komplett abgeschmiert, als sich die Menge der übertragenen Daten
stark erhöhte. Nach einem zweiten Absturz habe ich Samba deaktiviert und
übertrage nur per FTP, wobei ich den bzw. die Server selbst per überwache.
Es gab seitdem zwar keinen kompletten Absturz mehr, aber die Übertragung
bleibt fehlerhaft, wobei z.B. bei der erwähnten 1,2GB-Datei die Fehler jedes
Mal an einer anderen Stelle auftauchen können.
Gruß
Lutz
----- Original Message -----
From: "Andre Tann"
Auf einem Server kann ich Daten in beliebiger Menge Senden/Empfangen, auf dem Zweiten gibt es Fehler bei der Datenübertragung, die sich z.B. beim Auspacken eines tgz-Archives zeigen. Werden nicht zu viele Daten "am Stück" übertragen, so gibt es keine Fehler. Ein 500MB-tgz kann z.B. fehlerfrei entpackt werden. Nehme ich aber ein tgz von 1,2GB gibt es regelmäßig Fehler beim Entpacken.
Evtl. könntest Du erwähnen, wie Du Dich mit den Servern unterhältst. Per ssh? Per serieller Konsole? Tanzt Du Samba? -- Andre Tann
Lutz Maibach wrote:
Au ja, sorry, hätte ich tun sollen.
Zuerst habe ich es per Samba (nur Client) versucht und dabei ist mir der Server komplett abgeschmiert, als sich die Menge der übertragenen Daten stark erhöhte. Nach einem zweiten Absturz habe ich Samba deaktiviert und übertrage nur per FTP, wobei ich den bzw. die Server selbst per überwache. Es gab seitdem zwar keinen kompletten Absturz mehr, aber die Übertragung bleibt fehlerhaft, wobei z.B. bei der erwähnten 1,2GB-Datei die Fehler jedes Mal an einer anderen Stelle auftauchen können.
Handelt es sich zufälligerweise um einen Server mit Adaptec RAID-Controller? Da hatte sich bei mir vor einiger Zeit herausgestellt, dass es der RAID-Controller war, der unter Kernel 2.4 so miserabel instabil war. Siehst du denn irgendwelche Meldungen vor dem Absturz im Log, welche Komponenten Probleme melden? Tausche doch mal die Netzwerkkabel, den Switch-Port und den Slot, auf dem die Netzwerkkarte steckt. Falls nicht, nimm eine billige 100 MBit-Netzwerkkarte und schau mal, ob dort auch noch die Probleme mit großen Dateien auftreten. Besser noch mit einer anderen GBit-Karte. Wenn das alles nichts hilft, dann würde ich den Server mal bis auf die Kernkomponenten entspecken (alle Erweiterungskarten heraus bis auf Graphikkarte und RAID-Controller) und dann mal große Datenmengen hin- und herschieben. Sollten dabei schon Probleme auftreten, dann ist die Netzwerkkarte entlastet. Ohne Logmeldungen kommst du nur durch Raten oder Ausprobieren weiter. Sandy -- Antworten bitte nur in die Mailingliste! PMs bitte an: news-reply2 (@) japantest (.) homelinux (.) com
Sandy Drobic wrote:
Lutz Maibach wrote:
Au ja, sorry, hätte ich tun sollen.
Zuerst habe ich es per Samba (nur Client) versucht und dabei ist mir der Server komplett abgeschmiert, als sich die Menge der übertragenen Daten stark erhöhte. Nach einem zweiten Absturz habe ich Samba deaktiviert und übertrage nur per FTP, wobei ich den bzw. die Server selbst per überwache. Es gab seitdem zwar keinen kompletten Absturz mehr, aber die Übertragung bleibt fehlerhaft, wobei z.B. bei der erwähnten 1,2GB-Datei die Fehler jedes Mal an einer anderen Stelle auftauchen können.
Handelt es sich zufälligerweise um einen Server mit Adaptec RAID-Controller? Da hatte sich bei mir vor einiger Zeit herausgestellt, dass es der RAID-Controller war, der unter Kernel 2.4 so miserabel instabil war.
Sorry, s/Kernel 2.4/Kernel 2.6/ Sandy -- Antworten bitte nur in die Mailingliste! PMs bitte an: news-reply2 (@) japantest (.) homelinux (.) com
participants (2)
-
Lutz Maibach
-
Sandy Drobic