Hi, ich habe hier 4 User die einen älteren PC mit SuSE 9.3 als Fileserver nutzen. Die Kiste hat 1 System und 2 Datenplatten. Die 2 laufen im RAID1. Bislang lief wöchentlich ein Script, das per "zip -9r ..." backups von /home und paar anderen Verzeichnissen zog. Heute merkte ich, dass zip an einer 2GB Grenze scheitert. D.h. ich brauche was besseres. Es soll - auf (ext3 bzw reiser 3) keine engere Größenbegrenzung als das FS - automatisch per cron laufen und per ssh wartbar sein - robust und sicher sein - alte backups rollierend wieder löschen Wie handhabt ihr das? -- Um die Liste abzubestellen, schicken Sie eine Mail an: opensuse-de+unsubscribe@opensuse.org Um eine Liste aller verfuegbaren Kommandos zu bekommen, schicken Sie eine Mail an: opensuse-de+help@opensuse.org
Andreas wrote:
Hi,
ich habe hier 4 User die einen älteren PC mit SuSE 9.3 als Fileserver nutzen. Die Kiste hat 1 System und 2 Datenplatten. Die 2 laufen im RAID1. Bislang lief wöchentlich ein Script, das per "zip -9r ..." backups von /home und paar anderen Verzeichnissen zog. Heute merkte ich, dass zip an einer 2GB Grenze scheitert. D.h. ich brauche was besseres.
Es soll - auf (ext3 bzw reiser 3) keine engere Größenbegrenzung als das FS - automatisch per cron laufen und per ssh wartbar sein - robust und sicher sein - alte backups rollierend wieder löschen
Wie handhabt ihr das?
rsnapshot -- Sandy Antworten bitte nur in die Mailingliste! PMs bitte an: news-reply2 (@) japantest (.) homelinux (.) com -- Um die Liste abzubestellen, schicken Sie eine Mail an: opensuse-de+unsubscribe@opensuse.org Um eine Liste aller verfuegbaren Kommandos zu bekommen, schicken Sie eine Mail an: opensuse-de+help@opensuse.org
Am Dienstag, 8. April 2008 16:04:42 schrieb Andreas:
Die Kiste hat 1 System und 2 Datenplatten. Die 2 laufen im RAID1. Bislang lief wöchentlich ein Script, das per "zip -9r ..." backups von /home und paar anderen Verzeichnissen zog. Heute merkte ich, dass zip an einer 2GB Grenze scheitert. D.h. ich brauche was besseres.
Es soll - auf (ext3 bzw reiser 3) keine engere Größenbegrenzung als das FS - automatisch per cron laufen und per ssh wartbar sein - robust und sicher sein - alte backups rollierend wieder löschen
Wie handhabt ihr das?
- http://www.rsnapshot.org - tar bye Jürgen -- Dr.rer.nat. Juergen Vollmer, Viktoriastrasse 15, D-76133 Karlsruhe Tel: +49(721) 92 04 87 1 Fax: +49(721) 92 04 87 2 Juergen.Vollmer@informatik-vollmer.de www.informatik-vollmer.de Internet-Telefonie: www.skype.com Benutzer: juergen.vollmer
- auf (ext3 bzw reiser 3) keine engere Größenbegrenzung als das FS - automatisch per cron laufen und per ssh wartbar sein - robust und sicher sein - alte backups rollierend wieder löschen
Wie handhabt ihr das?
Habe gute Erfahrungen mit storebackup bemacht. (siehe Sourceforge) Das ist ein Perlskript, welches unter Erhalt der Verzeichnisstruktur dateiweise komprimierte backups anlegt und Hardlinks für nicht geänderte Dateien nutzt. Platzsparend, effizient und transparent. Macht die manuelle Suche nach "Verlorenem" leicht, weil man (zum Beispiel mit dem Midnight Commander) ganz simpel in den Backup-Verzeichnissen via 'cd' navigieren kann. Läuft bei mir seit Jahren bei jedem Shutdown durch und sichert alles Wichtige auf ein RAID mit 2 HDs. Nie Probleme. Ciao, Marko
On Tue, 08 Apr 2008 16:04:42 +0200 Andreas
Heute merkte ich, dass zip an einer 2GB Grenze scheitert. D.h. ich brauche was besseres.
Es soll - auf (ext3 bzw reiser 3) keine engere Größenbegrenzung als das FS - automatisch per cron laufen und per ssh wartbar sein - robust und sicher sein - alte backups rollierend wieder löschen Wie handhabt ihr das?
Dein Problem liegt möglicherweise gar nicht im zip, sondern im Filesystem begraben. Also dass dieses keine Dateigrössen über 2 GB zulässt. Bei älteren Linux-OS halte ich das für wahrscheinlich, weil gerade unter ext2fs/ext3fs lange Zeit nur 2 GB Dateigröße möglich waren. Dann solltest Du vielleicht einfach mehrere zip-Archive, z.B. sortiert nach Verzeichnissen erzeugen. Zur Frage: In dieser (geringen) Größenordnung und wenn genügend tmp-Space vorhanden ist, per tar mit gzip-Komprimierung lokal und dann im zweiten Arbeitsgang per lftp auf eine andere Maschine. tar kann auch multi-volume-Archive definierter Maximalgröße erzeugen, wenn das Filesystem solche Grenzen vorgibt. Habe allerdings keine eigenen Erfahrungen, wie gut das funktioniert. Der Rest dann via bash-scripting als cronjob. lftp bietet recht komfortabel die Möglichkeit, Scripte in einer Art ftp-Kommandozeile ablaufen zu lassen, die sich in der Syntax nur wenig von bash & Co. unterscheidet. Mit "rm" und "mv" kann man recht einfach die backups auf dem Zielsystem durch Umbenennung rollieren lassen und die älteste Version rauswerfen. Wenn die Backups auf einer eigenen Platte, aber lokal liegen bleiben, reicht natürlich das rm und mv von bash. Statt ftp kann man auch scp oder sftp verwenden, wenn das Zielsystem dies zulässt. Wenn ssh möglich ist, dann könnte man auch per rsync einen kompletten Spiegel auf einem zweiten, moderneren System anlegen, das dann vielleicht auch größere Filegrößen als Archive zulässt. Eigentlich sollte heutzutage alles unter 2 TB kein Problem sein. -- Gruß, Tobias. -- Um die Liste abzubestellen, schicken Sie eine Mail an: opensuse-de+unsubscribe@opensuse.org Um eine Liste aller verfuegbaren Kommandos zu bekommen, schicken Sie eine Mail an: opensuse-de+help@opensuse.org
On Dienstag, 8. April 2008, Andreas wrote:
ich habe hier 4 User die einen älteren PC mit SuSE 9.3 als Fileserver nutzen. Die Kiste hat 1 System und 2 Datenplatten. Die 2 laufen im RAID1. Bislang lief wöchentlich ein Script, das per "zip -9r ..." backups von /home und paar anderen Verzeichnissen zog. Heute merkte ich, dass zip an einer 2GB Grenze scheitert. D.h. ich brauche was besseres.
Es soll - auf (ext3 bzw reiser 3) keine engere Größenbegrenzung als das FS - automatisch per cron laufen und per ssh wartbar sein - robust und sicher sein - alte backups rollierend wieder löschen
Wie handhabt ihr das?
Ich benutze hier unison. Mit einem entsprechenden Profil habe ich konfiguriert was alles gebackuped werden soll, z.B. werden tmp-Dateien (von kate etc.) ausgelassen). Drei ältere Versionen werden behalten auf dem Backupserver danach wirds ins Nirvana geschickt. Aufgerufen wird unisone bei mir per cron jeweils Nachts um 1 Uhr. MfG Marco
On Tue, Apr 08, 2008 at 04:04:42PM +0200, Andreas wrote:
Wie handhabt ihr das?
rsync mit Zip-Kompression. -- Um die Liste abzubestellen, schicken Sie eine Mail an: opensuse-de+unsubscribe@opensuse.org Um eine Liste aller verfuegbaren Kommandos zu bekommen, schicken Sie eine Mail an: opensuse-de+help@opensuse.org
participants (7)
-
Andreas
-
Dr. Jürgen Vollmer
-
Heinz Diehl
-
Marco Roeben
-
Marko Kaening
-
Sandy Drobic
-
Tobias Crefeld