Hallo Liste, ich möchte gerne von einem Server Backups machen vie TAR und ZIP, dann sie wegbrennen. Gibt es eine Möglichkeit meine TGZts auf 700 MB zu splitten??? Etwa so: tar tgz -? 700 /home7/users Danke schonmal, Stefan
Stefan Eggert wrote:
ich möchte gerne von einem Server Backups machen vie TAR und ZIP, dann sie wegbrennen. Gibt es eine Möglichkeit meine TGZts auf 700 MB zu splitten???
ja
Etwa so: tar tgz -? 700 /home7/users
Nein, so: tar cvfz Backup.tar.gz; split -b 700m Backup.tar.gz Achja, zusammenfuegen geht dann per cat Backup.tar.gz* > Backup.tar.gz Peter
On Thu, Aug 29, 2002 at 15:26:07 +0200, Peter Wiersig wrote:
Stefan Eggert wrote:
ich möchte gerne von einem Server Backups machen vie TAR und ZIP, dann sie wegbrennen. Gibt es eine Möglichkeit meine TGZts auf 700 MB zu splitten???
Etwa so: tar tgz -? 700 /home7/users
Nein, so:
tar cvfz Backup.tar.gz; split -b 700m Backup.tar.gz
Achja, zusammenfuegen geht dann per
cat Backup.tar.gz* > Backup.tar.gz
Oder erst gar keine Output-Datei durch tar erzeugen lassen und alles durch STDIN/STDOUT pipen. Dann naemlich so: tar czp /zu_sicherndes_verzeichnis | split -b 650m - sicherung- Der Befehl erzeugt dann Dateinamen mit der Bezeichnung "sicherung-aa", "sischerung-ab", "sicherung-ac" usw. Ich lasse so am 1. eines jeden Monats um 0:30 Uhr auf Kundenservern Dateien erzeugen, damit die sich den Serverinhalt des Vormonats auf ein oder mehrere CDs wegbrennen koennen. Die komplette Befehlsdatei lautet dazu: ,--------------[cdsicherung.sh]--------------------- | #! /bin/sh | # cdsicherung.sh | # Autor: (c) 2002 Peter Blancke <blancke@gmx.de> | # Datum: 2002-07-16 | | MAILTO="wer-muss-das-wissen@localhost" | SICHERUNGSVERZEICHNIS="/server-cd-images" | ZU_SICHERN="/home" | | export LANG=german | | NAME_LETZTER_MONAT=`date +%B-%Y -d "1 month ago"` | | cd ${SICHERUNGSVERZEICHNIS} || exit | | tar czp ${ZU_SICHERN} | split -b 620m - ${NAME_LETZTER_MONAT}- | | echo "CD-Sicherung fuer ${NAME_LETZTER_MONAT} wurde angefertigt." | \ | mail ${MAILTO} -s "CD-Brenner anschmeissen!" -- -f cdtoaster@localhost `---------------------------------------------------- Hat sich sehr bewaehrt! Gruss Peter Blancke -- Nachtwaechter ist der Wahnsinn, weil er wacht...
Am Donnerstag, 29. August 2002 16:43 schrieb Peter Blancke: Hallo,
,--------------[cdsicherung.sh]---------------------
| #! /bin/sh | # cdsicherung.sh | # Autor: (c) 2002 Peter Blancke <blancke@gmx.de> | # Datum: 2002-07-16 | | MAILTO="wer-muss-das-wissen@localhost" | SICHERUNGSVERZEICHNIS="/server-cd-images" | ZU_SICHERN="/home" | | export LANG=german | | NAME_LETZTER_MONAT=`date +%B-%Y -d "1 month ago"` | | cd ${SICHERUNGSVERZEICHNIS} || exit | | tar czp ${ZU_SICHERN} | split -b 620m - ${NAME_LETZTER_MONAT}- | | echo "CD-Sicherung fuer ${NAME_LETZTER_MONAT} wurde angefertigt." | \ | mail ${MAILTO} -s "CD-Brenner anschmeissen!" -- -f cdtoaster@localhost
manuell kann ich mit find /xyz -mount -depth | afio -ovZ /backupverzeichnis sehr schön sicherm wie müsste ich denn dieses Skript für afio anpassen, meine spezielle die 'tar-Zeile'? Danke, Thorsten -- Thorsten Kettner www.aus-satz.de +49 [163] 2886981 www.cybernatic.de
Stefan Eggert wrote:
Das ist eine interessante Möglichkeit. Ich habe ein ähnliches Problem, wo ich das auch machen müsste, nur leider hilft mir das da nicht weiter. Gibt es denn auch eine Möglichkeit, die Dateien zu splitten, bevor sie die Grösse erreichen, um somit das ext2-Limit von 2GB pro Datei zu umgehen?
ich möchte gerne von einem Server Backups machen vie TAR und ZIP, dann sie wegbrennen. Gibt es eine Möglichkeit meine TGZts auf 700 MB zu splitten???
ja
Etwa so: tar tgz -? 700 /home7/users
Nein, so:
tar cvfz Backup.tar.gz; split -b 700m Backup.tar.gz
Achja, zusammenfuegen geht dann per
cat Backup.tar.gz* > Backup.tar.gz
Peter
Thomas Gräber wrote:
Stefan Eggert wrote:
Das ist eine interessante Möglichkeit. Ich habe ein ähnliches Problem, wo ich das auch machen müsste, nur leider hilft mir das da nicht weiter. Gibt es denn auch eine Möglichkeit, die Dateien zu splitten, bevor sie die Grösse erreichen, um somit das ext2-Limit von 2GB pro Datei zu umgehen?
Das ist eine gute Frage, das Problem habe ich auch. Ich sicher in der Firma direkt auf ein DAT laufwerk, deswegen ist mir das dort egal. Aber zuhause währe es doch interesant.... Stefan
Hi, Am Donnerstag, 29. August 2002 18:06 schrieb Thomas Gräber:
Stefan Eggert wrote:
Das ist eine interessante Möglichkeit. Ich habe ein ähnliches Problem, wo ich das auch machen müsste, nur leider hilft mir das da nicht weiter. Gibt es denn auch eine Möglichkeit, die Dateien zu splitten, bevor sie die Grösse erreichen, um somit das ext2-Limit von 2GB pro Datei zu umgehen?
[TOFU gelöscht] dafür würde ich afio empfehlen, das hat die Möglichkeit eines automatischen Splits nach erreichen einer bestimmten Dateigröße eingebaut. Siehe man afio. Gruß Philipp -- registered Linux user number 258854 HOW-TO? -> GOTO http://counter.li.org/
participants (6)
-
Peter Blancke
-
Peter Wiersig
-
Philipp Zacharias
-
Stefan Eggert
-
Thomas Gräber
-
Thorsten Kettner