Defekte bz2 Archivdateien
Hallo & Guten Morgen! Leider mußte ich gestern abend feststellen, daß so ziemlich alle unter SuSE 9.2 erstellten bz2-Archivdateien größer 50MB defekt sind ... Ein bzip2recover konnte zwar Teile der einzelnen Archive wieder herstellen, aber leider keine nutzbaren Gesamtdateien herstellen. (Archiviert wurden auf diesem Wege u. a. SPAM-Mails & HAM-Mails, um diese ggf. bei einer Neuinstallation wieder 'lernen' zu können.) Nun habe ich unter http://www.bzip2.org/ eine aktuellere Version (1.0.3) gefunden, welche laut changelog auch 'Further robustification against corrupted compressed data.' bietet. Meine Frage lautet aber: gibt es außer bzip2recover noch andere Möglichkeiten, ein defektes bz2-Archiv ggf. wieder zu 'reparieren'? (Unter Windows melden sowohl ZipGenius6 als auch 7zip-426b defekte Archive, und verweigern die Arbeit.) Danke & Gruß Torsten
Torsten Ermlich wrote:
Leider mußte ich gestern abend feststellen, daß so ziemlich alle unter SuSE 9.2 erstellten bz2-Archivdateien größer 50MB defekt sind ...
Das ist sicherlich nicht normal.
Ein bzip2recover konnte zwar Teile der einzelnen Archive wieder herstellen, aber leider keine nutzbaren Gesamtdateien herstellen. (Archiviert wurden auf diesem Wege u. a. SPAM-Mails & HAM-Mails, um diese ggf. bei einer Neuinstallation wieder 'lernen' zu können.)
Wie schon sehr oft hier auf dieser Liste und anderswo propagiert: In Backups sollte man Dateien einzeln komprimieren und dann die einzeln komprimierten Dateien archivieren und nicht zuerst archivieren und dann komprimieren. Die erste Vorgehensweise ist wesentlich robuster und sicherer. Siehe z.B. auch "afio".
Nun habe ich unter http://www.bzip2.org/ eine aktuellere Version (1.0.3) gefunden, welche laut changelog auch 'Further robustification against corrupted compressed data.' bietet.
Meine Frage lautet aber: gibt es außer bzip2recover noch andere Möglichkeiten, ein defektes bz2-Archiv ggf. wieder zu 'reparieren'? (Unter Windows melden sowohl ZipGenius6 als auch 7zip-426b defekte Archive, und verweigern die Arbeit.)
Die Frage lautet doch: warum sind die Dateien mehr oder weniger alle kaputt? Das ist ja nicht normal. Wenn es sich nur um eine einzelne Datei handeln wuerde, koennte man es ja noch verstehen. Ich schaetze, auf Deinem 9.2 System gab es ein Problem mit dem Speicher oder der Festplatte/dem Filesystem. Ich wuerde mal tippen, dass der Speicher hinueber ist, weil Archivieren/Komprimieren ein guter Test fuer so etwas ist. Oder die CPU hat einen Knacks. Falls das System noch besteht, lasse mal memtest laufen oder mache Tests mit "dd" und einer grossen Blockgroesse sowie einer Gesamtgroesse, die Deinen Speicher quasi komplett ausfuellt. Wie oben schon erklaert, hast Du fuer Dein Backup die falsche Strategie gewaehlt. Verbuche es unter der Rubrik Erfahrung und mache es das naechste mal anders - dann bist Du zwar nicht 100% vor Fehlern durch falsche Kompression geschuetzt, aber prinzipiell sollte es deutlich stabiler sein, da es eher einzelne Dateien betrifft und nicht das Gesamtarchiv. Mir sind keine *zuverlaessigen* Tools bekannt, um schadhafte komprimierte Archive wiederherzustellen. Cheers, Th.
Ich hatte gerade ein ähnliches Problem: für einen Widowser habe ich mehere pdf-files zusammen gezippt (zip nicht bz2 und nur 11 MB gezippt), die alle wieder entzippt werden konnten (zip-file scheint in Takt), aber konnte weder er noch ich auf Linux konnte eines dieser entzippten Files öffenen, bei allen Versuchen starben Acroread, oder andere pdf-leser mit einer Fehlermeldung. In sofern würde es,Thomas, keinen Unterschied machen, ob ich alles zusammen oder alles einzeln zippe, hin is' hin. Ich habe SuSE 9.1. Mal versuchen? Schönes Wochenende Calli Am Samstag, 17. September 2005 12:09 schrieb Thomas Hertweck:
Torsten Ermlich wrote:
Leider mußte ich gestern abend feststellen, daß so ziemlich alle unter SuSE 9.2 erstellten bz2-Archivdateien größer 50MB defekt sind ...
Das ist sicherlich nicht normal.
Ein bzip2recover konnte zwar Teile der einzelnen Archive wieder herstellen, aber leider keine nutzbaren Gesamtdateien herstellen. (Archiviert wurden auf diesem Wege u. a. SPAM-Mails & HAM-Mails, um diese ggf. bei einer Neuinstallation wieder 'lernen' zu können.)
Wie schon sehr oft hier auf dieser Liste und anderswo propagiert: In Backups sollte man Dateien einzeln komprimieren und dann die einzeln komprimierten Dateien archivieren und nicht zuerst archivieren und dann komprimieren. Die erste Vorgehensweise ist wesentlich robuster und sicherer. Siehe z.B. auch "afio".
Nun habe ich unter http://www.bzip2.org/ eine aktuellere Version (1.0.3) gefunden, welche laut changelog auch 'Further robustification against corrupted compressed data.' bietet.
Meine Frage lautet aber: gibt es außer bzip2recover noch andere Möglichkeiten, ein defektes bz2-Archiv ggf. wieder zu 'reparieren'? (Unter Windows melden sowohl ZipGenius6 als auch 7zip-426b defekte Archive, und verweigern die Arbeit.)
Die Frage lautet doch: warum sind die Dateien mehr oder weniger alle kaputt? Das ist ja nicht normal. Wenn es sich nur um eine einzelne Datei handeln wuerde, koennte man es ja noch verstehen. Ich schaetze, auf Deinem 9.2 System gab es ein Problem mit dem Speicher oder der Festplatte/dem Filesystem. Ich wuerde mal tippen, dass der Speicher hinueber ist, weil Archivieren/Komprimieren ein guter Test fuer so etwas ist. Oder die CPU hat einen Knacks. Falls das System noch besteht, lasse mal memtest laufen oder mache Tests mit "dd" und einer grossen Blockgroesse sowie einer Gesamtgroesse, die Deinen Speicher quasi komplett ausfuellt.
Wie oben schon erklaert, hast Du fuer Dein Backup die falsche Strategie gewaehlt. Verbuche es unter der Rubrik Erfahrung und mache es das naechste mal anders - dann bist Du zwar nicht 100% vor Fehlern durch falsche Kompression geschuetzt, aber prinzipiell sollte es deutlich stabiler sein, da es eher einzelne Dateien betrifft und nicht das Gesamtarchiv. Mir sind keine *zuverlaessigen* Tools bekannt, um schadhafte komprimierte Archive wiederherzustellen.
Cheers, Th.
Sorry für die PN. Am 17.09.2005 13:51 schrieb Carl A. Schreiber:
Ich hatte gerade ein ähnliches Problem:
für einen Widowser habe ich mehere pdf-files zusammen gezippt (zip nicht bz2 und nur 11 MB gezippt), die alle wieder entzippt werden konnten (zip-file scheint in Takt), aber konnte weder er noch ich auf Linux konnte eines dieser entzippten Files öffenen, bei allen Versuchen starben Acroread, oder andere pdf-leser mit einer Fehlermeldung.
Es ging ja auch um bzip-Files. hast du mal probiert die Datei zu reparieren, testen etc. Die Windowszipper sollten ein rchiv testen können, und wenn ich mich nicht täusche kann man auch versuchen ein Reparaturprogramm drüberlaufen zu lassen. Ach ja, was ist die Fehlermeldung wenn du acroread von der Konsole startest?
In sofern würde es,Thomas, keinen Unterschied machen, ob ich alles zusammen oder alles einzeln zippe, hin is' hin.
Das ist leider so nicht richtig. Es kommt auch drauf an mit was man zippt. OJ P.S. Kannst du dir mal www.learn.to/quote durchlesen? Du produzierst TOFU. -- Ein Experte ist ein Mann, der hinterher genau sagen kann, warum seine Prognose nicht gestimmt hat. (Winston Spencer Churchill) OJ -- Der elektronische Helfer kann manuell mit Dauer-Fernlicht oder Dauer-Abblendlicht jederzeit übertrumpft werden. Und auch das ist wichtig für viele BMW-Fahrer: Die Lichthupe ist wie gewohnt zu bedienen. (http://www.spiegel.de/auto/werkstatt/0,1518,365014,00.html)
Carl A. Schreiber wrote:
für einen Widowser habe ich mehere pdf-files zusammen gezippt (zip nicht bz2 und nur 11 MB gezippt), die alle wieder entzippt werden konnten (zip-file scheint in Takt), aber konnte weder er noch ich auf Linux konnte eines dieser entzippten Files öffenen, bei allen Versuchen starben Acroread, oder andere pdf-leser mit einer Fehlermeldung.
In sofern würde es,Thomas, keinen Unterschied machen, ob ich alles zusammen oder alles einzeln zippe, hin is' hin.
Du vergleichst Aepfel mit Birnen. Es ging im Thread um bzip2 komprimierte Archive, nicht um ZIP Dateien. Alleine die Logik gebietet, dass die Wahrscheinlichkeit fuer Probleme beim Archivieren von einzeln komprimierten Dateien wesentlich geringer ist als beim Komprimieren des Archives selbst. Daher verstehe ich Deinen Beitrag in mehrfacher Hinsicht nicht. ZIP gehoert uebrigens zu letzter Kategorie. Desweiteren a) gibt es mit ZIP unter Linux und dem Austausch mit Windows einige Probleme und b) ist das Komprimieren von PDF Dateien i.d.R. meist relativ sinnlos, weil sie schon intern in einem komprimierten Format vorliegen. Beim Komprimieren kann es leider ab und zu zu Problemen kommen - die Wahrscheinlichkeit, dass Probleme auftreten, zu minimieren, ist daher ein entscheidendes Ziel bei Backups usw. Das ist u.a. ein Grund, warum fuer Backups eher afio zu bevorzugen ist. Das ist auch ein Grund, warum man Hardware-Kompression von Streamerm/Tape-Laufwerken ausschalten sollte.
[TOFU geloescht]
Bitte unterlasse das TOFU! Siehe http://learn.to/quote CU, Th.
Carl A. Schreiber wrote:
für einen Widowser habe ich mehere pdf-files zusammen gezippt (zip nicht bz2 und nur 11 MB gezippt), die alle wieder entzippt werden konnten (zip-file scheint in Takt), aber konnte weder er noch ich auf Linux konnte eines dieser entzippten Files öffenen, bei allen Versuchen starben Acroread, oder andere pdf-leser mit einer Fehlermeldung. ..
Du vergleichst Aepfel mit Birnen. Wirklich, von meinem Standpunkt der Betrachtung, wäre das eher ein Vergleich unter Äpflen: Gala gegn GrannySmith. Es ging im Thread um bzip2 komprimierte Archive, nicht um ZIP Dateien. Verzeih, aber ich sehe mich als Anwender (hier Ark), der, symbolisch mit Dürrenmatt (Die Physiker) gesprochen, beim Anschalten eines Lichtes, nicht unbedingt den quantentheoretischen Hintergund der Lichtemssion verstehen und berechnen können muss. So gesehen ist ein komprimiertes File für mich ein komprimiertes File egal, aus welchem Zweck ich es komprimiert habe und ob ich es einem Windows-user schicken will, oder archivieren - oder? Ich hätte ja noch akzeptiert, wenn es nur unter Windows nicht lesbar gewesen wäre, aber ich, auf demselben Linux-
Alleine die Logik gebietet, dass die Wahrscheinlichkeit fuer Probleme beim Archivieren von einzeln komprimierten Dateien wesentlich geringer ist als beim Komprimieren des Archives selbst. Klar, wenn der Fehler zB in der Filestruktur, oder der Festplatte oder dem Bandlaufwerk, oder so ist, dann sind ein paar kaput, andere können gerettet werden, aber wenn das Komprimierungstool alle Files auf dieselbe Art und Weise 'falsch' behandelt, nutzt das auch nix, oder? Daher verstehe ich Deinen Beitrag in mehrfacher Hinsicht nicht. Die wieder mal entäuschte Erwartung in das Resultat eines 'uralt'-Programms, mit wichtigen Funktionen für mich (und andere?) ZIP gehoert uebrigens zu letzter Kategorie. Desweiteren a) gibt es mit ZIP unter Linux und dem Austausch mit Windows einige Probleme und b) ist das Komprimieren von PDF Dateien i.d.R. meist relativ sinnlos, weil sie schon intern in einem komprimierten Format vorliegen. Ähhm, soll man also, wenn man zB Festplatten sichert, einzeln die Files bestimmen, die komprimierbar (html, txt,..) und welche nicht (pdf - gerade gelernt, gif, ..)? Ist das nicht ein bischen umständlich? Sichert man nicht
Beim Komprimieren kann es leider ab und zu zu Problemen kommen - die Wahrscheinlichkeit, dass Probleme auftreten, zu minimieren, ist daher ein entscheidendes Ziel bei Backups usw. Das ist u.a. ein Grund, warum fuer Backups eher afio zu bevorzugen ist. Das ist auch ein Grund, warum man Hardware-Kompression von Streamerm/Tape-Laufwerken ausschalten sollte. Mir ist das schon klar, nur wer im Privatbereich kann schon mit firmenmäßigen Standards seine HD sichern? Außerdem finde ich es sehr ärgerlich, wenn 'uralt-Software' mit entsprechenden Erwartungen und Vertrauensvorschuß
Am Sonntag, 18. September 2005 22:47 schrieb Thomas Hertweck: pc konnte es auch nicht mehr korrekt lesen! Und so gesehen ist es für mich auch gleich (im Resultat!) wenn das entzippen etwas anderes (egal ob zip oder bz2) als das Ursprüngliche hervorbringt. pauschal ganze Verzeichnisse und Partitionen? Auch hier muss ich wieder um Verzeihung bitten, dass ich wohl nicht der Linux-Zielgruppe entspreche. Ich gehe davon aus, dass mir der pc Arbeit abnimmt und vereinfacht. plötzlich Mist produziert! Mein Beitrag diente somit auch als Warnung (an andere Idioten, wie ich es offenbar bin), dass auf einmal wieder etwas nicht funktioniert wie ich es in meiner grenzenlosen Naivität erwarte. Bei Deinem Kommentar könnte man durchaus zur Meinung gelangen, dass die Archivierung unter Linux ein ziemlich unsichere Sache ist, ich ging eigentlich vom Gegenteil aus, deshalb mein Beitrag, aber auch da lag ich wohl total falsch? Calli
[TOFU geloescht]
Bitte unterlasse das TOFU! Siehe http://learn.to/quote
CU, Th.
Mahlzeit, On 19.09.2005 15:24, Carl A. Schreiber wrote:
Am Sonntag, 18. September 2005 22:47 schrieb Thomas Hertweck: ... Und so gesehen ist es für mich auch gleich (im Resultat!) wenn das entzippen etwas anderes (egal ob zip oder bz2) als das Ursprüngliche hervorbringt.
Vollkommen korrekte Ansicht, finde ich. Unabhängig vom Hintergrund - wenn Einpacken - Auspacken - Vergleich nicht klappt ist das ein Problem. Warum das so ist und wie gross das Problem ist ist eine andere Frage...
Alleine die Logik gebietet, dass die Wahrscheinlichkeit fuer Probleme beim Archivieren von einzeln komprimierten Dateien wesentlich geringer ist als beim Komprimieren des Archives selbst.
Klar, wenn der Fehler zB in der Filestruktur, oder der Festplatte oder dem Bandlaufwerk, oder so ist, dann sind ein paar kaput, andere können gerettet werden, aber wenn das Komprimierungstool alle Files auf dieselbe Art und Weise 'falsch' behandelt, nutzt das auch nix, oder?
Stimmt. Und damit wieder zurück zu Deinem Problem. Na ja, gleich. ...
Ähhm, soll man also, wenn man zB Festplatten sichert, einzeln die Files bestimmen, die komprimierbar (html, txt,..) und welche nicht (pdf - gerade gelernt, gif, ..)? Ist das nicht ein bischen umständlich? Sichert man nicht pauschal ganze Verzeichnisse und Partitionen?
Normalerweise ja.
Auch hier muss ich wieder um Verzeihung bitten, dass ich wohl nicht der Linux-Zielgruppe entspreche. Ich gehe davon aus, dass mir der pc Arbeit abnimmt und vereinfacht.
Was im Übrigen auch für viele Linux-Nutzer gilt. Die Antwort von Thomas war wohl etwas zu ausführlich :-)
Beim Komprimieren kann es leider ab und zu zu Problemen kommen - die Wahrscheinlichkeit, dass Probleme auftreten, zu minimieren, ist daher ein entscheidendes Ziel bei Backups usw. Das ist u.a. ein Grund, warum fuer Backups eher afio zu bevorzugen ist. Das ist auch ein Grund, warum man Hardware-Kompression von Streamerm/Tape-Laufwerken ausschalten sollte.
Übrigens würde ich hier kaum so pauschal zustimmen.
Mir ist das schon klar, nur wer im Privatbereich kann schon mit firmenmäßigen Standards seine HD sichern? Außerdem finde ich es sehr ärgerlich, wenn 'uralt-Software' mit entsprechenden Erwartungen und Vertrauensvorschuß plötzlich Mist produziert!
Auch völlig richtig. Auch wenn ich gzip, zip, oder bzip nicht als typische Sicherungsprogramme bezeichnen würde.
Mein Beitrag diente somit auch als Warnung (an andere Idioten, wie ich es offenbar bin), dass auf einmal wieder etwas nicht funktioniert wie ich es in meiner grenzenlosen Naivität erwarte.
;-)
Bei Deinem Kommentar könnte man durchaus zur Meinung gelangen, dass die Archivierung unter Linux ein ziemlich unsichere Sache ist, ich ging eigentlich vom Gegenteil aus, deshalb mein Beitrag, aber auch da lag ich wohl total falsch?
Nein. Aber Thomas' Antwort war weniger Lösungsvorschlag als eher theoretischer Hintergrund, finde ich. Jetzt aber zu Deinem eigentlichen Problem... ... das ich leider auch nicht lösen kann. Tatsache ist aber wohl dass es sich um einen Fehler handeln dürfte. Den Vorschlag mit memtest86 hast Du wahrscheinlich schon gelesen - da würde ich mit anfangen, und dann die Platte prüfen, z.B. mit dem Herstellertool oder smartmon-tools. Wenn das kein Ergebnis bringt würde ich eine _grosse_ Datei nehmen und mit verschiedenen Programmen Ein- und Auspacken und die Ergebnisse vergleichen. Wenn nur ein Programm dabei Probleme hat - Bugreport, und Programm entfernen :-) Wenn mehrere Programme Probleme haben hast Du wahrscheinlich ein grösseres Problem, da wäre dann die Gegenprobe mit gleicher Software auf anderer Hardware der nächste Schritt. Arno
Calli
[TOFU geloescht]
Bitte unterlasse das TOFU! Siehe http://learn.to/quote
CU, Th.
-- IT-Service Lehmann al@its-lehmann.de Arno Lehmann http://www.its-lehmann.de
Arno Lehmann wrote:
Am Sonntag, 18. September 2005 22:47 schrieb Thomas Hertweck:
Beim Komprimieren kann es leider ab und zu zu Problemen kommen - die Wahrscheinlichkeit, dass Probleme auftreten, zu minimieren, ist daher ein entscheidendes Ziel bei Backups usw. Das ist u.a. ein Grund, warum fuer Backups eher afio zu bevorzugen ist. Das ist auch ein Grund, warum man Hardware-Kompression von Streamerm/Tape-Laufwerken ausschalten sollte.
Übrigens würde ich hier kaum so pauschal zustimmen.
Welchem Teil der Aussage moechtest Du denn widersprechen? Die Wahrscheinlichkeit, Probleme bei Backups zu minimieren, kann es ja wohl kaum sein. Also die Kompression. Hast Du Erfahrung mit Hardware-Kompression von Streamern? Ich kann Dir von ein paar netten Erlebnissen mit HP-Streamern und Hardware-Kompression berichten, wo zwischen einem Backup und dem Zurueckspielen des Backups der Streamer ersetzt werden musste durch ein offiziell baugleiches Exemplar. Nur, und das ist kein Einzelfall, liess sich das Backup nicht mehr einspielen :-/ Du findest aehnliche Statements auch von etlichen anderen Leuten im Internet. Es gibt also einen guten Grund, lieber Software-Kompression statt Hardware-Kompression zu nutzen, wenn man denn Komprimieren moechte. Das hat mich zumindest die Erfahrung gelehrt. CU, Th.
Moin, On 19.09.2005 21:05, Thomas Hertweck wrote:
Arno Lehmann wrote:
Am Sonntag, 18. September 2005 22:47 schrieb Thomas Hertweck:
Beim Komprimieren kann es leider ab und zu zu Problemen kommen - die Wahrscheinlichkeit, dass Probleme auftreten, zu minimieren, ist daher ein entscheidendes Ziel bei Backups usw. Das ist u.a. ein Grund, warum fuer Backups eher afio zu bevorzugen ist. Das ist auch ein Grund, warum man Hardware-Kompression von Streamerm/Tape-Laufwerken ausschalten sollte.
Übrigens würde ich hier kaum so pauschal zustimmen.
Welchem Teil der Aussage moechtest Du denn widersprechen?
Eben der Aussage, dass die Kompression von Streamern abgeschaltet werden sollte um Datenverluste beim Lesen zu verhindern.
Die Wahrscheinlichkeit, Probleme bei Backups zu minimieren, kann es ja wohl kaum sein. Also die Kompression. Hast Du Erfahrung mit Hardware-Kompression von Streamern?
Ja.
Ich kann Dir von ein paar netten Erlebnissen mit HP-Streamern und Hardware-Kompression berichten, wo zwischen einem Backup und dem Zurueckspielen des Backups der Streamer ersetzt werden musste durch ein offiziell baugleiches Exemplar.
Tja, solche Erlebnisse habe ich nie gehabt, ganz im Gegenteil konnte bisher nach meiner Erfahrung jedes Band das auf einemGerät geschrieben war auf anderen gelesen werden (vorausgesetzt die prinzipielle Kompatibilität is gegeben). Mit einer Sorte von Ausnahmen: DDS. Da kann ja manches Gerät seine eigenen Bänder nach einer Woche nicht mehr lesen, wobei das nichts mit Kompression zu tun hat.
Nur, und das ist kein Einzelfall, liess sich das Backup nicht mehr einspielen :-/ Du findest aehnliche Statements auch von etlichen anderen Leuten im Internet. Es gibt also einen guten Grund, lieber Software-Kompression statt Hardware-Kompression zu nutzen, wenn man denn Komprimieren moechte. Das hat mich zumindest die Erfahrung gelehrt.
Nun ja, meiner Erfahrungen sehen anders aus, und nach meiner Erfahrung ist es eher sinnvoll auf Hardware-Kompression zu verzichten wenn ich damit die Daten so klein kriege dass das Laufwerk nicht mehr streamen kann. Aber da geht es eben eher um die Vermeidung von Verschleiss.
CU,
eher read you :-) Arno
Th.
-- IT-Service Lehmann al@its-lehmann.de Arno Lehmann http://www.its-lehmann.de
Carl A. Schreiber wrote:
Am Sonntag, 18. September 2005 22:47 schrieb Thomas Hertweck:
Du vergleichst Aepfel mit Birnen.
Wirklich, von meinem Standpunkt der Betrachtung, wäre das eher ein Vergleich unter Äpflen: Gala gegn GrannySmith.
OK, ich verstehe Deinen Standpunkt, aber ich sehe das differenzierter. So sind z.B. mutt und Thunderbird zwei Programme, mit denen man Emails schreiben kann. Aber willst Du sie und deren Implementierung wirklich vergleichen? Sie sind unter der Haube einfach sehr unterschiedlich... Und wenn man sie vergleicht, dann entstehen meistens diese MUA-Kriege. Bei dem Thema hier ist es aehnlich: ZIP ist nicht nur ein Archivierer, sondern auch ein Kompressionstool, wohingegen bzip2 lediglich ein Kompressionstool ist, die Archivierung laeuft ueber tar (in der Regel, natuerlich gibt es hier auch andere Moeglichkeiten). ZIP, wuerde ich sagen, kommt eher aus der Windows-Welt, wo man nicht wie unter UNIX diese strikte Trennung von Aufgaben kennt.
[...] So gesehen ist ein komprimiertes File für mich ein komprimiertes File egal, aus welchem Zweck ich es komprimiert habe und ob ich es einem Windows-user schicken will, oder archivieren - oder? Ich hätte ja noch akzeptiert, wenn es nur unter Windows nicht lesbar gewesen wäre, aber ich, auf demselben Linux- pc konnte es auch nicht mehr korrekt lesen! Und so gesehen ist es für mich auch gleich (im Resultat!) wenn das entzippen etwas anderes (egal ob zip oder bz2) als das Ursprüngliche hervorbringt.
Korrekt. Eine Kompression, ueber die wir hier sprechen, sollte immer verlustfrei funktionieren.
[...] Klar, wenn der Fehler zB in der Filestruktur, oder der Festplatte oder dem Bandlaufwerk, oder so ist, dann sind ein paar kaput, andere können gerettet werden, aber wenn das Komprimierungstool alle Files auf dieselbe Art und Weise 'falsch' behandelt, nutzt das auch nix, oder?
Ja. Wenn Du meine alten Emails liest, wirst Du feststellen, dass ich nie behauptet habe, mein Vorschlag wuerde 100% sichere Kompression erlauben. Es ist eben stabiler, wenn o.a. Probleme auftreten, deswegen sprach ich auch von Wahrscheinlichkeiten von Fehlern. Gerade bei Sicherungen ist das wichtig! Wenn das Kompressionstool ansich natuerlich nicht korrekt funktioniert, hilft Dir weder die eine noch die andere Art weiter - kaputt ist kaputt.
[...] Ähhm, soll man also, wenn man zB Festplatten sichert, einzeln die Files bestimmen, die komprimierbar (html, txt,..) und welche nicht (pdf - gerade gelernt, gif, ..)? Ist das nicht ein bischen umständlich? Sichert man nicht pauschal ganze Verzeichnisse und Partitionen?
Ein Heimanwender wird kaum zwischen Files und Kompression ja/nein unterscheiden. Wir haben aber ein professionelles Backup ueber Netzwerk, und da wird das so gemacht (es ist, by the way, ein inkrementelles Backup). Wir haben aber auch hunderte oder tausende von Benutzern und das ist halt was anderes als das kleine Heimsystem zu Hause. Warum soll das Backup unnoetig Zeit mit Kompression von Dateien verbringen, die von Natur aus schlecht zu komprimieren sind (wir haben auch sehr viele grosse Dateien, da nimmt das Komprimieren schon sehr viel Zeit in Anspruch)? Wir wuerden also 10min fuer eine Kompression eines einzelnen Files brauchen, nur damit am Ende die Dateigroesse evtl. um 2% sinkt? Das lohnt sich aus unserer Sicht nicht (es bringt keine Storage-Ersparnis) und ist zudem ein Performance-Verlust. Natuerlich backupen wir auch keine Images von Partitionen - das ist zu unflexibel in der Rueckspielung von Backups und erlaubt auch keine inkrementellen Backups. Wir wollen ja nicht staendig das gesamte System sichern, obwohl sich vielleicht nur 10 Dateien geaendert haben. Es gibt Firmen, die beschaeftigen sich nur mit Backup-Loesungen fuer andere Firmen - vielleicht erkennst Du anhand meines kurzen Abrisses, warum dem so ist. Man kann da viel richtig und viel falsch machen. Bei Heimsystemen ist das halt alles ein wenig einfacher, und vermutlich auch nicht so entscheidend. Steht bei uns die "Produktion" still, kostet das richtig Geld.
Auch hier muss ich wieder um Verzeihung bitten, dass ich wohl nicht der Linux-Zielgruppe entspreche. Ich gehe davon aus, dass mir der pc Arbeit abnimmt und vereinfacht.
Dieses Ziel duerfte fuer jeden Anwender gelten.
[...] Mir ist das schon klar, nur wer im Privatbereich kann schon mit firmenmäßigen Standards seine HD sichern? Außerdem finde ich es sehr ärgerlich, wenn 'uralt-Software' mit entsprechenden Erwartungen und Vertrauensvorschuß plötzlich Mist produziert!
Beim zweiten Teil des Statements gebe ich Dir recht. Zum ersten Teil: ich kenne genug Heimanwender, die einen Streamer haben. Aber ganz davon abgesehen, geht es in meinem Statement ja nicht darum, hier grossartig professionelle Backup-Strategien an den Mann/die Frau zu bringen. Ein einfaches Mittel ist eben, Dateien einzeln zu komprimieren und nicht ein gesamtes Archiv - das vermeidet in den Faellen, die Du oben genannt hast, mitunter eben Probleme. Mit dieser Aussage habe ich in diesem Thread begonnen. Wenn Dein Programm natuerlich von Hause aus "falsch" funktioniert, dann hilft meine Strategie auch nicht - ich habe ja aber auch keine Wunder prophezeit :-) Allerdings sind mir bisher keine grundsaetzlichen Probleme mit gzip oder bzip2 untergekommen.
Mein Beitrag diente somit auch als Warnung (an andere Idioten, wie ich es offenbar bin), dass auf einmal wieder etwas nicht funktioniert wie ich es in meiner grenzenlosen Naivität erwarte.
Ich benutze auch zum Austausch mit Windows Tar-Archive (auch wenn ich in letzter Zeit das kaum mehr ausprobiert habe, weil es in meinem Umfeld immer weniger Windows-Maschinen gibt). Sollte eigentlich kein Problem sein, diese unter Windows zu lesen (zumindest war es damals kein Problem mit IIRC WinZip, das konnte AFAIK auch .tgz lesen).
Bei Deinem Kommentar könnte man durchaus zur Meinung gelangen, dass die Archivierung unter Linux ein ziemlich unsichere Sache ist, ich ging eigentlich vom Gegenteil aus, deshalb mein Beitrag, aber auch da lag ich wohl total falsch?
Nein, ich finde es gut, wenn Du schreibst und Deine Meinung sagst. Ich habe die Weisheit nicht mit Loeffeln gefressen und berichte lediglich von den Erfahrungen, die ich ueber all die Jahre gesammelt habe. Mit Tar-Archiven hatte ich persoenlich eigentlich bisher noch nie Probleme. Auch nicht, wenn sie komprimiert waren. Es sei denn, das FS war hinueber oder der Speicher usw. - das ist halt "bad luck", wie der Englaender sagt. Fuer Backups ziehe ich allerdings eher einzeln komprimierte Dateien vor, wenn es denn komprimiert sein soll. Letztendlich muss jeder selbst ueber seine Archivierung und Backup Strategie entscheiden. Cheers, Thomson
participants (5)
-
Arno Lehmann
-
Carl A. Schreiber
-
Johannes Kastl
-
Thomas Hertweck
-
Torsten Ermlich