hi !
ich habe versucht mittels wget zu saugen...
z.b. wget -r -v -L <A HREF="http://www/llp.fu-berlin.de"><A HREF="http://www/llp.fu-berlin.de</A">http://www/llp.fu-berlin.de
er saugt dann ~1/4 mb und verkuendet stolz er waere fertig.
das directory das dann bei mir liegt ist aber zum offline-surfen
absolut ungeeignet,alle links zeigen ins nichts (beginnen mit /)
und ueberhaupt fehlt das meiste.
gibts eine kleinigkeit die ich vergessen habe ?
danke im voraus,
Gruss / with best regards
Jens-Eike Jesau
Hi, On Sun, Nov 22, 1998 at 09:56 +0100, Jens-Eike Jesau wrote:
ich habe versucht mittels wget zu saugen... z.b. wget -r -v -L <A HREF="http://www/llp.fu-berlin.de"><A HREF="http://www/llp.fu-berlin.de</A">http://www/llp.fu-berlin.de er saugt dann ~1/4 mb und verkuendet stolz er waere fertig. das directory das dann bei mir liegt ist aber zum offline-surfen absolut ungeeignet,alle links zeigen ins nichts (beginnen mit /) und ueberhaupt fehlt das meiste. gibts eine kleinigkeit die ich vergessen habe ?
Ja, die Opition `-k', damit wget absolute in relative Pfadangaben umwandelt. Ciao, Stefan -- Um aus der Liste ausgetragen zu werden, eine Mail an majordomo@suse.com schicken, mit dem Text: unsubscribe suse-linux
participants (2)
-
jesau@warpserv.fh-bielefeld.de
-
stefan.troeger@wirtschaft.tu-chemnitz.de