Boris, Dienstag 18 Januar 2011:
Das würde ich nochmal etwas genauer betrachten: Das Problem ist, dass 'normale' Platten eine mittlere Feherwahrscheinlichkeit haben, die so hoch ist, dass man nur jedes zehnte Mal davon ausgehen kann, das ganze Terabyte wieder so herunterzubekommen, wie man es draufgeschrieben hat.
Ja, das ist natürlich die Wurzel des Problems
Ein Schritt in die richtige Richtung ist die verwendung von speziellen Serverplatten. Die konsequente Lösung heißt SCSI und die kostet mächtiges Geld!
Im Prinzip hast Du auch hier recht. Was mir nicht recht einleuchtet ist, wieso das Schnittstellenprotokoll Einfluß auf die Fehlerquote hat. Sprich: wieso gibts keine SATA-Platten mit niedriger Rate? Davon abgesehen kann man zweierlei machen: entweder man senkt die Fehlerquote des Mediums. Wenn das nicht geht/man es nicht will, dann kann man auch die Redundanz erhöhen. Platt gesprochen: eine Superplatte mit niedriger Fehlerquote und fünffachem Preis, oder fünf billige Platten im RAID1 nebeneinander. Ich tendiere zu letzterem, denn ich hatte auch schon schicke SAS-Platten, die nach kurzer Zeit ausgefallen sind. -- Andre Tann -- Um die Liste abzubestellen, schicken Sie eine Mail an: opensuse-de+unsubscribe@opensuse.org Um eine Liste aller verfuegbaren Kommandos zu bekommen, schicken Sie eine Mail an: opensuse-de+help@opensuse.org