Re:Webseiten speichern mit allen*>Danke
Danke euch für den Hinweis...die Seite befindet sich nun schön in einem Ordner :-) Leider habe ich aber festgestellt,das sich diese nicht aus dem Ordner so aufrufen lässt,das man diese so betrachten kann wie eben im Netz....oder gibt es daauch ein Trick zu????
Am Dienstag, 30. Oktober 2001 15:50 schrieb Axel Lindlau:
Danke euch für den Hinweis...die Seite befindet sich nun schön in einem Ordner :-) Leider habe ich aber festgestellt,das sich diese nicht aus dem Ordner so aufrufen lässt,das man diese so betrachten kann wie eben im Netz....oder gibt es daauch ein Trick zu????
Hallo Axel Vielleicht musst Du die Seiten wieder auf einen server bringen (Apache hast Du bestimmt auf dem System). Nur dann können z.B PHP-Scripte ausgeführt werden. Sonst wirst Du nur den Quelltext shen können. Ein weiterer Punkt könnte sein, dass einige Seiten oder Verzeichnisse z.B. mit Kleinbuchstaben geschrieben wurden, aber im HTML mit Großbuchstaben aufgerufen werden. Unter Linux werden dann INDEX.HTML und index.html als zwei verschiedene Dateien behandelt. In diesem Falle müsstest Du dann Nachbearbeiten (geht z.B. mit Tidy). CU Thorsten -- Veni, Vidi, Visa.
Thorsten Körner wrote:
Am Dienstag, 30. Oktober 2001 15:50 schrieb Axel Lindlau:
Danke euch für den Hinweis...die Seite befindet sich nun schön in einem Ordner :-) Leider habe ich aber festgestellt,das sich diese nicht aus dem Ordner so aufrufen lässt,das man diese so betrachten kann wie eben im Netz....oder gibt es daauch ein Trick zu????
Hallo Axel Vielleicht musst Du die Seiten wieder auf einen server bringen (Apache hast Du bestimmt auf dem System). Nur dann können z.B PHP-Scripte ausgeführt werden. Sonst wirst Du nur den Quelltext shen können. Ein weiterer Punkt könnte sein, dass einige Seiten oder Verzeichnisse z.B. mit Kleinbuchstaben geschrieben wurden, aber im HTML mit Großbuchstaben aufgerufen werden. Unter Linux werden dann INDEX.HTML und index.html als zwei verschiedene Dateien behandelt. In diesem Falle müsstest Du dann Nachbearbeiten (geht z.B. mit Tidy). CU Thorsten
ich glaube eher dass er das Problem hat dass in der Webseite absolute Links verwendet wurden statt relativen. Dies lässt sich aber mit der option -k beim Download mittels wget leicht beheben. gruss -fen
Am Di, 2001-10-30 16:14 schrieb Thorsten Körner:
Am Dienstag, 30. Oktober 2001 15:50 schrieb Axel Lindlau:
Leider habe ich aber festgestellt,das sich diese nicht aus dem Ordner so aufrufen lässt,das man diese so betrachten kann wie eben im Netz....oder gibt es daauch ein Trick
Vielleicht musst Du die Seiten wieder auf einen server bringen (Apache hast Du bestimmt auf dem System). Nein.
Nur dann können z.B PHP-Scripte ausgeführt werden. diese sollte Axel aber gar nicht sehen, sondern nur die Ergebnisse, die sein 'spider' ausgeliefert bekam. Eventuell, vertseht der Browser aber nicht, dass es sich trotz nicht-HTML-Endung um ein HTML-Dokument handelt.
dass einige Seiten oder Verzeichnisse z.B. mit Kleinbuchstaben geschrieben wurden, aber im HTML mit Großbuchstaben aufgerufen werden. Unter Linux werden dann INDEX.HTML und index.html als zwei verschiedene Dateien behandelt. In diesem Falle müsstest Du dann Nachbearbeiten ACK
Hagen -- |#| Die drei wichtigsten Tugenden eines Programmierers: |#| Faulheit, Ungeduld und Selbstüberschätzung
Axel Lindlau wrote:
Danke euch für den Hinweis...die Seite befindet sich nun schön in einem Ordner :-) Leider habe ich aber festgestellt,das sich diese nicht aus dem Ordner so aufrufen lässt,das man diese so betrachten kann wie eben im Netz....oder gibt es daauch ein Trick zu????
RTFM: man wget wget -c -t 0 -k -m http://seite.zum.speichern -fen
Am Dienstag, 30. Oktober 2001 15:50 schrieb Axel Lindlau:
Danke euch für den Hinweis...die Seite befindet sich nun schön in einem Ordner :-) Leider habe ich aber festgestellt,das sich diese nicht aus dem Ordner so aufrufen lässt,das man diese so betrachten kann wie eben im Netz....oder gibt es daauch ein Trick zu????
Vielleicht wäre wwwoffle besser geeignet, der kann ebenfalls komplette Seiten runterladen, dient als Proxy und die Seiten lassen sich offlien aufrufen, als wärst Du im Internet. -- Machs gut | http://www.iiv.de/schwinde/buerger/tremmel/ | http://www.knightsoft.de Manfred | http://www.knightsoft-net.de
Manfred Tremmel wrote:
Am Dienstag, 30. Oktober 2001 15:50 schrieb Axel Lindlau:
Danke euch für den Hinweis...die Seite befindet sich nun schön in einem Ordner :-) Leider habe ich aber festgestellt,das sich diese nicht aus dem Ordner so aufrufen lässt,das man diese so betrachten kann wie eben im Netz....oder gibt es daauch ein Trick zu????
Vielleicht wäre wwwoffle besser geeignet, der kann ebenfalls komplette Seiten runterladen, dient als Proxy und die Seiten lassen sich offlien aufrufen, als wärst Du im Internet.
Welche Nachteile hat eigentlich wget -m -nh -np -N -L http://www.bla.blub.de Gruß, Ralph
participants (6)
-
Axel Lindlau
-
Daniel Brachmann
-
Hagen Kuehnel
-
Manfred Tremmel
-
Ralph Müller
-
Thorsten Körner