Hi, ich möchte backups von einem fileserver anfertigen. Dies allerdings mit der Zusatzbediungung, dass die Datenbestände mit einer Datenbank (z.B. die von tripwire) vergleichen werden und nur aktualisierte Dateien gesichert werden. (Es gibt leider keine andere Lösung, weil alle vorher angefertigten Backups zum Zeitpunkt der aktuellen Sicherung nicht verfügbar sind.) Wie läßt sich das, z.Bsp. unter Verwendung von tripwire oder auch anders, realisieren? Gruß Daniel -- ************************************************* * Daniel Jung * Daniel.Jung@dj-web.de * * Linux-User: #118180 * http://www.dj-web.de * *************************************************
Hi Daniel, hi Liste, Daniel Jung wrote:
Hi,
ich möchte backups von einem fileserver anfertigen. Dies allerdings mit der Zusatzbediungung, dass die Datenbestände mit einer Datenbank (z.B. die von tripwire) vergleichen werden und nur aktualisierte Dateien gesichert werden. (Es gibt leider keine andere Lösung, weil alle vorher angefertigten Backups zum Zeitpunkt der aktuellen Sicherung nicht verfügbar sind.) Wie läßt sich das, z.Bsp. unter Verwendung von tripwire oder auch anders, realisieren?
Sieh dir das Paket arkeia an, was du suchst nennt sich "incermental backup" mit mehreren Generationen. Das kann auch jede kommerzielle Backupsoftware. Tar kann das auch über ein script 'man tar /newer'. Sollte es sich bei den zu sichernden Daten nur "Benutzdaten" handeln, würde ich auf eine inkrementelle Sicherung mit mehreren Generationen verzichten, da sie seeehhhhr viel Sorgfalt und ein gutes Backupkonzept erfordert, z. B. es wird vergessen das Band zu wechseln, dann ist der ganze Backuptree defekt, da die Backups alle auf einander aufbauen. Sind folgende Gründe, Backup paßt nicht mehr aufs Band oder Backup dauert zu lange, der Ausschlag für ein inkrementales Backup, wäre ein größerer / schnellerer Streamer, oder ein zusätzlicher Streamer auf den parallel geschrieben wird, eine alternative, speziell, wenn der Kauf von kommerzieller Backupsoftware ansteht. Bei Systemdateien nutze ich es selber in etwas abgewandelter Form: 1. Setzen des Backupdatums in eine Datei, komplettes Systembackup ohne "Nutzerdaten". 2. Beim Sichern der Nutzerdaten jeden Tag, wird das System auf Daten die nach dem Backupdatum geändert worden sind durchgescannt und sofern welche vorhanden sind, werden diese mitgesichert. Diese Backupverfahren nennt sich incremental backup mit einer Generation, es ist wesentlich sicherer, da immer die Änderungen seit der letzten Vollsicherung mitgenommen werden. hth cu Gerald PS: Bänder verschleißen nicht durch sichern, sondern durch die mechanische Beanspruchung beim spulen, starten und stoppen. PPS: Wenn du Probleme hast selbst ein Skript zu schreiben, melde dich per PM. --- "Only wimps use tape backup: real men just upload their important stuff on ftp, and let the rest of the world mirror it." [Linus B. Torvalds]
Hi Gerald, Danke Für Deine Hinweise. Danke auch für die Informationen bzgl. Backupstrategien. Letzteres war allerdings unnötig, da ich mit meiner Fragestellung eigentlich ein anderes Szenario realisieren möchte: (Ich hatte das nur nicht so direkt gefragt, weil das zu kompliziert geworden wäre. Jetzt mach ichs aber trotzdem. *g*) Also es sollen die Datenbestände zwei entfernter File-Server, zwischen denen optimalerweise zu _keinen_ Zeitpunkt eine Netzverbindung jeglicher Art bestehen darf, im Abstand von einigen Tagen jeweils im Wechsel abgeglichen werden. D.h. auf gut Deutsch: Alle Änderungen, die auf Server A vorgenommen wurden, werden z.B. auf CD gebrannt und diese dann in Server B eingespielt. Umgekehrt das gleiche. Es kann hier zu keinerlei Konflikten kommen, weil die Datenbestände immer nur auf einem von beiden Servern verändert werden (das allerdings auch im Wechsel). Naja und die Sache mit Tripwire usw....., ich hatte einfach nur etwas zu kompliziert gedacht. Das tar mit der Option "--newer" is im Grunde genau das, wonach ich suche. (mal abgesehen davon, dass das System nur halb perfekt ist, weil versehendlich gelöschte Dateien auf diesem Wege leider nicht wiederhergestellt werden koennen) Ich denke aber, um den Aufwand einigermaßen vertretbar zu halben, läßt sich über diese kleine Unzulänglichkeit hinwegsehen, denn eigentlich lösche ich nichts, was nich wirklich weg soll. Gruß Daniel -- ************************************************* * Daniel Jung * Daniel.Jung@dj-web.de * * Linux-User: #118180 * http://www.dj-web.de * *************************************************
Hi Daniel, hi Liste, Daniel Jung wrote:
Also es sollen die Datenbestände zwei entfernter File-Server, zwischen denen optimalerweise zu _keinen_ Zeitpunkt eine Netzverbindung jeglicher Art bestehen darf, im Abstand von einigen Tagen jeweils im Wechsel abgeglichen werden.
Bitte laß mich nicht dumm sterben, warum darf zu keiner Zeit eine Netzverbindung bestehen?
D.h. auf gut Deutsch: Alle Änderungen, die auf Server A vorgenommen wurden, werden z.B. auf CD gebrannt und diese dann in Server B eingespielt. Umgekehrt das gleiche. Es kann hier zu keinerlei Konflikten kommen, weil die Datenbestände immer nur auf einem von beiden Servern verändert werden (das allerdings auch im Wechsel).
OK, die Nachteile des Incrementellen Backups bestehen hier nicht, und das Medium CDR ist in seiner Größe ja auch beschränkt, bzw. die Überschreibungsgefahr ist nicht gegeben.
Naja und die Sache mit Tripwire usw....., ich hatte einfach nur etwas zu kompliziert gedacht. Das tar mit der Option "--newer" is im Grunde genau das, wonach ich suche. (mal abgesehen davon, dass das System nur halb perfekt ist, weil versehendlich gelöschte Dateien auf diesem Wege leider nicht wiederhergestellt werden koennen)
NAC, wenn ein Backup gelaufen ist, sind die Dateien immer noch auf dem anderen Server.
Ich denke aber, um den Aufwand einigermaßen vertretbar zu halben, läßt sich über diese kleine Unzulänglichkeit hinwegsehen, denn eigentlich lösche ich nichts, was nich wirklich weg soll.
Generier eine Liste mit allen vorhandenen Dateien bevor du ein Backup machst, diese fügst du dem Backup hinzu. Nach dem einspielen des Backups, kontrollierst du den Dateibestand auf dem Server mit Hilfe der Liste, Dateien die auf dem Server nicht aber in der Liste sind, kannst du Löschen. Besser du verschiebst sie in ein Schreibgeschütztes Verzeichnis, ohne dort Vorhandene Dateien zu überschreiben. Dieses Verzeichnis nicht mit ins Backup nehmen, sondern eine aussagekräftige Dateiliste erstellen, die mit ins Backup kommt, so kanst du gegebenenfalls noch auf "gelöschten" Dateien zugreifen. hth cu Gerald
Hi Gerald, On Sun Dec 23 13:13:54 2001 CET Gerald Goebel wrote:
Hi Daniel, hi Liste,
Daniel Jung wrote:
Also es sollen die Datenbestände zwei entfernter File-Server, zwischen denen optimalerweise zu _keinen_ Zeitpunkt eine Netzverbindung jeglicher Art bestehen darf, im Abstand von einigen Tagen jeweils im Wechsel abgeglichen werden.
Bitte laß mich nicht dumm sterben, warum darf zu keiner Zeit eine Netzverbindung bestehen?
Ich hab zwei Wohnorte und möchte die Datenbestände der beiden Server dort abgleichen. Allerdings möchte ich es vermeiden, dazu den Rechner an dem Wohnort, wo ich grad nett bin, laufen lassen zu müssen. Mal abgesehen davon hab ich nur einen Flat-Zugang, den ich im Wechsel nutze. Ich hatte auch mal überlegt, den Kram notfalls via rsync online abzugleichen, aber das wäre ohnehin bei meiner T-DSL-Verbindung wegen der langsamen upstream-Geschwindigkeit zu langsam und teuer gewesen (denn ein Rechner haette sich ja mit ner Call-By-Call-Verbindung einwählen müssen).
Ich denke aber, um den Aufwand einigermaßen vertretbar zu halben, läßt sich über diese kleine Unzulänglichkeit hinwegsehen, denn eigentlich lösche ich nichts, was nich wirklich weg soll.
Generier eine Liste mit allen vorhandenen Dateien bevor du ein Backup machst, diese fügst du dem Backup hinzu.
Nach dem einspielen des Backups, kontrollierst du den Dateibestand auf dem Server mit Hilfe der Liste, Dateien die auf dem Server nicht aber in der Liste sind, kannst du Löschen. Besser du verschiebst sie in ein Schreibgeschütztes Verzeichnis, ohne dort Vorhandene Dateien zu überschreiben. Dieses Verzeichnis nicht mit ins Backup nehmen, sondern eine aussagekräftige Dateiliste erstellen, die mit ins Backup kommt, so kanst du gegebenenfalls noch auf "gelöschten" Dateien zugreifen.
Ja, wäre eine Möglichkeit. Da ich i.a.R. nix wegschmeisse (man weiß ja nie, wann man das noch brauchen kann *g*) und mir das Hauptziel der ganzen Aktion eher auf dem Kopieren von vorhandenen und nicht dem Löschen von nicht vorhandenen Daten liegt, weiß ich nich, ob der Aufwand sich lohnt. Gruß Daniel -- ************************************************* * Daniel Jung * Daniel.Jung@dj-web.de * * Linux-User: #118180 * http://www.dj-web.de * *************************************************
participants (3)
-
Daniel Jung
-
Daniel.Jung@dj-web.de
-
Gerald Goebel