Bodo Wlaka wrote:
Hallo Sandy
Am Saturday 01 November 2008 00:26:21 schrieb Sandy Drobic:
CPU und RAM sind völlig ausreichend.
NIS und NTP sind kein Problem, aber NFS und Mailserver brauchen Plattendurchsatz, wenn nicht alles im Schneckentempo laufen soll.
Also Mailserver ist eher sekundär. Der wird eigentlich gerade nur eingerichtet um sich mal eine Nachricht zu schreiben, ohne Zettel auf dem Tisch zu hinterlassen. Eigentlich kann man dem Nachabrn es auch selbst sagen. Ist keine so große Firma, es soll bloß für später vorgesorgt werden. Ist also eher NFS.
Ob sekundär oder nicht sekundär, unterschätze nicht, was viel Kleinvieh für Mist machen kann. (^-^)
Eine SATA-Festplatte schafft etwa 100 Iops, eine flinke 15k-SAS-Platte dagegen 300 Iops. Wenn also mehrere Serverdienste gleichzeitig laufen, die IO-anforderungen stellen wie NFS und Mailserver, dann laufen sämtliche Anforderungen durch den Flaschenhals der einen einzigen Festplatte.
Gründe für RAID: - mehr IO-Durchsatz - Ausfallsicherheit
Also ich hab meinen Chef zumindest teilweise überzeugt und gestern abend eine zweite Platte besorgt, die ich nachher einbaue. RAID ist zwar im Gespräch, bloß das ist ihm noch zu teuer. Ist auf später verschoben.
Verstehe ich, ehrlich gesagt, wirklich nicht. Ich habe gerade mal eingetippert: Ein System mit: - Towergehäuse mit Hotplug-Festplatten und Intel 3210 Server-Mainboard - Core2Duo 2,52 GHz - 4 GB RAM - 3Ware RAID-Controller - Batterie-Backupeinheit für RAID-Controller - 4 x 500 GB SATA2-Festplatten kostet keine 1600 Euro (brutto incl. Lieferung und Test mit Opensuse).
Ich hab ihm mal Deine Mail ausgedruckt und zum lesen gegeben. ;-)
USV ist auch angedacht.
Kostet für den Server etwa 200-300 Euro, das sollte drin sein. Spätestens, wenn man stundenlang schwitzend dransitzt, das defekte Dateisystem des Servers zu reparieren, weil mitten in der schönsten Arbeit die Stromversorgung für einen Sekundenbruchteil abgesackt ist. Dafür ist übrigens auch die BBU des RAID-Controllers gedacht. (^-^)
Teste erst einmal die Geschwindigkeit der Netzwerk-Verbindung zwischen Client und Server.
Also der reine Netzwerktest ohne Plattenzugriff ergab 117MB/s also funktioniert Gigabit.
Sehr gut, also wirklich die volle Leistung.
Sobald ich auf dem Client (bis jetzt nur da getestet) mein Test.iso lesen und übers Netz nach irgendwo im Nirvana schicken sind es nur noch 62 MB/s. Und auch da schon diese Verzögerungen alle ~200MB.
Dann muss wahrscheinlich der Puffer wieder auf die Platte geschrieben werden.
Sieht eher so aus, als wäre die Platten das Problem...
Nur eine Platte für einen Server ist schon extrem mager. Heutzutage ist die Festplatte praktisch immer das Nadelöhr. Die Festplatten sind zwar in der Kapazität stark gewachsen, die Zugriffszeiten und Transferraten haben jedoch nicht mit Schritt gehalten. In ein paar Jahren werden wir vermutlich vernünftige SSD-Laufwerke haben, dann wird auch das IO-Problem etwas gemildert werden.
Vielleicht ein Problem mit dem Konquerer. Versuche mal einfach, viele kleinere Dateien per cp zu kopieren, ob dies dann ohne Stocken geht.
Na, aufgefallen ist es mir, als ich vom Client ein Backup mit rsync gemacht habe. Als er bei den ganzen kleinen png-icons von KDE dran war, hat es je png ewig gedauert, bis er beim nächsten weitergemacht hat. Also rsync übers Netz auf einen anderen Rechner.
Auf was für einem Dateisystem? Wie voll ist das? -- Sandy Antworten bitte nur in die Mailingliste! PMs bitte an: news-reply2 (@) japantest (.) homelinux (.) com -- Um die Liste abzubestellen, schicken Sie eine Mail an: opensuse-de+unsubscribe@opensuse.org Um eine Liste aller verfuegbaren Kommandos zu bekommen, schicken Sie eine Mail an: opensuse-de+help@opensuse.org