Hallo On Tuesday 10 September 2002 12:45, Thomas Gräber wrote:
Mir gehts nur darum, das der zu sichernde Pc ein Server Server ist, den ich nicht runterfahren kann für das Backup und daher dachte ich, dass es vielleicht möglich ist, das ganze übers Netzwerk zu machen, per nfs vielleicht. Man kann ja das Suse-Setup starten, und dann auf einer anderen Konsole dann das Backup starten. Wenn ich das 2GB-Problem umgangen kriege, ist das auch gar kein Problem.
Achso, um das Backup zu erstellen willst du den Server nicht runterfahren. Ich weis zwar nicht was SuSE-Setup in dem Zusammenhang tun soll, aber irgenwie auf ner Konsole einloggen ist in jedem Fall richtig. Problem ist dabei z.B. /proc und /dev. Die sollte man nicht per tar versuchen zu sichern. dd bekommt davon nichts mit. Problem ist dabei natürlich, wenn auf dem filesystem geschrieben wird (was bei nem server wohl der Fall sein wird). Also, um auf Nummer sicher zu gehen, empfielt es sich in jedem Fall die zu sichernden Partitionen/Platten/Verzeichnisse nicht mit Schreibzugriff gemountet zu haben. Eventuell hilft ein einmaliges Unmounten (Runterfahren) und sichern "des ganzen Systems". Danach kann man dann im Laufenden Betrieb mit tar Backups der Verzeichnisse mit Daten machen.
Mit split geht das ganze ja nicht, weil split die Datei ja erst splittet, wenn tar fertig ist.
Nicht zwangsläufig. Man kann sowas machen wie "dd if=/dev.... |split -b 2000m" da kommen dann Dateien xaa xab xac..... raus, die alle 2000m groß sind.
Aber mit tar -M -L 2000000 werd ich es mal versuchen und ansonsten mit einem Update von glibc.
Ich weiß nicht welche SuSE du hast, aber bei relativ neuen ist das 2G-limit keine Thema mehr. Ein Update von glibc hingegen ist eine recht kritische Angelegenheit. mfg Axel