David Haller schrieb:
Hallo,
Am Tue, 15 Feb 2005, Rainer Kaluscha schrieb:
Irgendeine Partition ist immer zu klein, Früher habe ich öfter Daten verschieben und mit symlinks tricksen müssen, weil mal wieder eine Partition voll war. Schlimme Sachen habe ich auch bei vorkonfigurierten Servern von Dell (mit RedHat) gesehen: da war das rootfs nur 100 MB gross und wegen /tmp war das ruckzuck voll, so dass die Kiste hängenblieb.
Solche Probleme sind m.E. unnötig.
abwechselnder Zugriff auf verschiedene Partitionen erzwingt lange Kopfbewegungen (langsam) etc.
Sehe ich nicht so. Dazu ein Beispiel: Es werde zunächst auf Datei1, dann auf Datei2 zugegriffen.
Szenario 1: Beide befinden sich auf der gleichen Partition. Der Lesekopf der Platte muss maximal den belegten Bereich dieser Partition überwinden ... Szenario 2: Beide befinden sich auf unterschiedlichen Partitionen. Der Lesekopf der Platte muss maximal die erste sowie alle dazwischenliegenden Partitionen (belegte und *leere* Bereiche) sowie den belegten Bereich der Zielpartition überwinden ... Die beiden Szenarien nähern sich mit zunehmendem Füllungsgrad der Platte allerdings aneinander an.
Vorteile sehe ich hingegen keine ...
Datensicherheit, Einfachheit von Updates / Backups usw...
Das verstehe ich nicht: wenn die Platte im Eimer ist, spielt es keine Rolle, auf wieviele Partitionen die Daten verteilt sind, oder ? Und Backups kann ich auch nach directories getrennt vornehmen ... Auch bei Updates sehe ich keinen Vorteil - es wird ja das gesamte System geupdated und nicht nur die /usr-Partition (bzw. Verzeichnis).