![](https://seccdn.libravatar.org/avatar/c65f0a9d70486d425ffd4799ddb379fc.jpg?s=120&d=mm&r=g)
* Konrad Neitzel schrieb am 03.Jun.2002:
wget bietet sehr schön das rekursive abgrasen von Webseiten. Einfach einmal das Paket wget installieren und die Doku dazu lesen.
Wenn alle Seiten, die ich haben möchte, sich auf einem Host befindet, so ist es eine schöne Funktion von wget. Aber wenn sich die Seiten auf verschiedene Hosts, (oder Hostadressen) befinden, dann wird es problematisch. Man kann zwar mit wget auch alle Links folgen einstellen, aber dann zieht man sich das komplette Internetangebot herunter, weil dann auch alle Werbebanner und sonstige Links gefolgt wird. Ich habe allerdings auch keine Ahnung, wie man das Problem lössen sollte. Ich weiß auch nicht, warum wichtige Teile einer Dokumentation oder was auch immer auf verschiedene Hostadressen liegen müssen. Bernd -- Welches Buch ist zu empfehlen? Schon mal bei SuSE vorbeigesehen? http://www.suse.de/de/products/books/index.html oder die Empfehlungen der SuSE-Entwickler auf dem eigenen Rechner? file:///usr/share/doc/sdb/de/html/literatur.html |Zufallssignatur 5