Am Sonntag, 22. Februar 2004 02:12 schrieb Thilo Gramlich:
Ich möchte komplette Ordner verschlüsselt auf CD brennen. Was ist sinnvoller ein
tar -cvzf mit folgendem gpg
oder ein tar -cvf und folgender Komprimierung mit gpg: gpg --compress-algo n --compress-level n
Ein Kompressionsalgorithmus nimmt vor allem die Redundanz aus den Orginaldaten. Ein guter Verschlüsselungsalgorithmus muß dies auch tun, da er ansonsten mit statistischen Methoden angreifbar ist. Wie er das macht, hängt wohl vom konkreten Algorithmus ab. Allerdings hat eine Implementierung eines Verschlüsselungsalgorithmus i.d.R. nicht das Ziel, Speicherplatz zu sparen.
Aus man gpg: -z n, --compress-level n Set compression level to n. A value of 0 for n disables compression. Default is to use the default compression level of zlib (normally 6). Wenn ich es richtig verstehe, dann verwendet also gpg genauso wie tar per Default dieselbe Kompression.
Daher erscheint es mir platzsparender, erst zu komprimieren und danach zu verschlüsseln.
gpg versucht also die komprimierte tgz-Datei noch einmal zu komprimieren.
Da ich PGP bei mir aber nicht konfiguriert habe, kann ich dazu im Augenblick keine Tests machen. Einfach mal typische 100 MB an Daten nehmen und beide Varianten durchprobieren.
Ich habe da keinen merklichen Unterschied festgestellt. Die Größen sind mit ls -lh ident. Al