The art of Unix programming als pdf/html download
Hallo, auf der Seite www.faqs.org/docs/artu/ ist obe genanntes Buch online verfügbar, gibt es das auch als File zum herunterladen, oder muß man sich das selbst von der Webseite erstellen? Ich kann nämlich dann, wenn ich mal Zeit habe es zu lesen nicht online sein (unterwegs). Für Hilfe und Links dankbar Uli -- Niemand käme auf die Idee, Tinte mit Tinte abzuwaschen nur Blut soll immer wieder mit Blut abgewaschen werden. -- Ebner-Eschenbach Gruss aussem Pott
Am Montag, 17. Januar 2005 23:39 schrieb Ulrich Walter:
auf der Seite www.faqs.org/docs/artu/ ist oben genanntes Buch online verfügbar, gibt es das auch als File zum herunterladen, oder muß man sich das selbst von der Webseite erstellen?
Wahrscheinlich letzteres. Das geht aber sehr gut mit Wget. Gruss, Peter
Am Dienstag, 18. Januar 2005 06:35 schrieb Peter Kagermeier:
Am Montag, 17. Januar 2005 23:39 schrieb Ulrich Walter:
auf der Seite www.faqs.org/docs/artu/ ist oben genanntes Buch online verfügbar, gibt es das auch als File zum herunterladen, oder muß man sich das selbst von der Webseite erstellen?
Wahrscheinlich letzteres. Das geht aber sehr gut mit Wget.
Gruss,
Peter
Hallo, wenn ich eingebe: wget -r http://www.faqs.org/docs/artu/ dann kommt als Ergebnis: --14:49:06-- http://www.faqs.org/docs/artu/ => `www.faqs.org/docs/artu/index.html' Auflösen des Hostnamen »www.faqs.org«.... 207.44.235.116 Verbindungsaufbau zu www.faqs.org[207.44.235.116]:80... verbunden. HTTP Anforderung gesendet, warte auf Antwort... 403 Forbidden 14:49:06 FEHLER 403: Forbidden. Ich kann aber doch die Seiten ganz normal anschauen (Konqueror, Firefox), was ist denn da verboten? Uli -- Niemand käme auf die Idee, Tinte mit Tinte abzuwaschen nur Blut soll immer wieder mit Blut abgewaschen werden. -- Ebner-Eschenbach ********** Gruss aussem Pott! ***********
Am Dienstag, 18. Januar 2005 15:07 schrieb Ulrich Walter:
Am Dienstag, 18. Januar 2005 06:35 schrieb Peter Kagermeier:
Am Montag, 17. Januar 2005 23:39 schrieb Ulrich Walter:
auf der Seite www.faqs.org/docs/artu/ ist oben genanntes Buch online verfügbar, gibt es das auch als File zum herunterladen, oder muß man sich das selbst von der Webseite erstellen?
Wahrscheinlich letzteres. Das geht aber sehr gut mit Wget.
wenn ich eingebe: wget -r http://www.faqs.org/docs/artu/
dann kommt als Ergebnis: ... HTTP Anforderung gesendet, warte auf Antwort... 403 Forbidden 14:49:06 FEHLER 403: Forbidden.
Ich kann aber doch die Seiten ganz normal anschauen (Konqueror, Firefox), was ist denn da verboten?
Ich habe von den Kommandozeilen-Option von weget (noch) nicht viel Ahnung. Ich habe mir KWebGet installiert und schaffe es, wenn ich die Option "Ausgeben als: Konqueror" verwende. Das gibt es sicher auch als Kommandozeilen-Option. Gruß, Michael p.s. es gibt dort ein robots.txt. Soweit ich das verstanden habe, soll das ein freundliches "Hier bitte nicht mit automatischen Abfragen weiter grasen!" heißen... -- ____ / / / / /__/ Michael Höhne / / / / / / mih-hoehne@t-online.de / _____________________________________/
Hi, Michael Hoehne scribbled on 18.01.2005 15:50:
Am Dienstag, 18. Januar 2005 15:07 schrieb Ulrich Walter:
Am Dienstag, 18. Januar 2005 06:35 schrieb Peter Kagermeier:
Am Montag, 17. Januar 2005 23:39 schrieb Ulrich Walter:
[...]
HTTP Anforderung gesendet, warte auf Antwort... 403 Forbidden 14:49:06 FEHLER 403: Forbidden.
Ich kann aber doch die Seiten ganz normal anschauen (Konqueror, Firefox), was ist denn da verboten?
Dann probiere doch einmal: wget -r -x --user-agent=Mozilla http://www.faqs.org/docs/artu/
Ich habe von den Kommandozeilen-Option von weget (noch) nicht viel Ahnung. Ich habe mir KWebGet installiert und schaffe es, wenn ich die Option "Ausgeben als: Konqueror" verwende.
Das gibt es sicher auch als Kommandozeilen-Option.
Gruß, Michael
p.s. es gibt dort ein robots.txt. Soweit ich das verstanden habe, soll das ein freundliches "Hier bitte nicht mit automatischen Abfragen weiter grasen!" heißen...
-- Gruß Torsten
Am Dienstag, 18. Januar 2005 16:08 schrieb Torsten E.:
Ich kann aber doch die Seiten ganz normal anschauen (Konqueror, Firefox), was ist denn da verboten?
Dann probiere doch einmal: wget -r -x --user-agent=Mozilla http://www.faqs.org/docs/artu/
p.s. es gibt dort ein robots.txt. Soweit ich das verstanden habe, soll das ein freundliches "Hier bitte nicht mit automatischen Abfragen weiter grasen!" heißen...
dann ist es aber auch mehr als nett, wenn man zusätzlich noch ein -w X mit X als Zeit in Sekunden hinzufügt, um die Zugriffe etwas mehr zu verteilen ;) denn das er keinen Robot will sollte man an sich schon akzeptieren. BTW: ich glaube, dass er nicht mit einem robot sondern mit htaccess und entsprechender Rewrite-Rule arbeitet, denn auch ein -e robots=off bringt nichts. Andreas
Andreas Loesch scribbled on 18.01.2005 16:49:
Am Dienstag, 18. Januar 2005 16:08 schrieb Torsten E.:
Ich kann aber doch die Seiten ganz normal anschauen (Konqueror, Firefox), was ist denn da verboten?
Dann probiere doch einmal: wget -r -x --user-agent=Mozilla http://www.faqs.org/docs/artu/
p.s. es gibt dort ein robots.txt. Soweit ich das verstanden habe, soll das ein freundliches "Hier bitte nicht mit automatischen Abfragen weiter grasen!" heißen...
dann ist es aber auch mehr als nett, wenn man zusätzlich noch ein -w X mit X als Zeit in Sekunden hinzufügt, um die Zugriffe etwas mehr zu verteilen ;) denn das er keinen Robot will sollte man an sich schon akzeptieren.
Jajaja ... auch den Rekursivlevel sollte man anpassen ... ;) Ich habe es nur geschrieben, aber halt nicht getestet - eben nur auf den Umstand hin geschrieben, daß er mittels Browser drauf zugreifen kann.
BTW: ich glaube, dass er nicht mit einem robot sondern mit htaccess und entsprechender Rewrite-Rule arbeitet, denn auch ein -e robots=off bringt nichts.
Andreas
-- Gruß Torsten
Am Dienstag, 18. Januar 2005 16:49 schrieb Andreas Loesch:
Am Dienstag, 18. Januar 2005 16:08 schrieb Torsten E.:
Ich kann aber doch die Seiten ganz normal anschauen (Konqueror, Firefox), was ist denn da verboten?
Dann probiere doch einmal: wget -r -x --user-agent=Mozilla http://www.faqs.org/docs/artu/
p.s. es gibt dort ein robots.txt. Soweit ich das verstanden habe, soll das ein freundliches "Hier bitte nicht mit automatischen Abfragen weiter grasen!" heißen...
dann ist es aber auch mehr als nett, wenn man zusätzlich noch ein -w X mit X als Zeit in Sekunden hinzufügt, um die Zugriffe etwas mehr zu verteilen ;) denn das er keinen Robot will sollte man an sich schon akzeptieren.
Deswegen hatte ich Ulrich den Tipp mit wget/KWebGet schon als PM zukommen lassen.... Ich kann sein Interesse ja durchaus verstehen, wollte aber nicht unbedingt jedem Mitleser zum "unerwünschten Kopierer" ausbilden ;-)
BTW: ich glaube, dass er nicht mit einem robot sondern mit htaccess und entsprechender Rewrite-Rule arbeitet, denn auch ein -e robots=off bringt nichts.
Wie gesagt: ich habe wget erst vor 3 Tagen selber entdeckt weil ich bisher mit HTTrack unter Windows gearbeitet hatte. Verwendet habe ich es bisher nur mit KWebGet, weil es mal wieder schnell gehen mußte... Aber ich habe 2-3 Websites unserer Firma, die ein gelegentliches Backup nötig haben. Da werde ich mir doch mal einen Batch basteln und die Kommandozeilen-Optionen sowie das ganze Gebiet erforschen. Gruß, Michael -- ____ / / / / /__/ Michael Höhne / / / / / / mih-hoehne@t-online.de / _____________________________________/
Am Dienstag, 18. Januar 2005 19:16 schrieb Michael Hoehne: ...
wget -r -x --user-agent=Mozilla http://www.faqs.org/docs/artu/
hab' ich so gemacht, funktionierte. Danke an alle! Uli -- Niemand käme auf die Idee, Tinte mit Tinte abzuwaschen nur Blut soll immer wieder mit Blut abgewaschen werden. -- Ebner-Eschenbach Gruss aussem Pott
Am Mittwoch, 19. Januar 2005 00:03 schrieb Ulrich Walter:
Am Dienstag, 18. Januar 2005 19:16 schrieb Michael Hoehne:
wget -r -x --user-agent=Mozilla http://www.faqs.org/docs/artu/
hab' ich so gemacht, funktionierte.
Also bei mir tuts ein simples wget -np -r www.faqs.org/docs/artu/ mfg Christian Paul -- Erfahrung heißt gar nichts. Man kann seine Sache auch 35 Jahre schlecht machen. [Kurt Tucholsky]
Am Montag, 17. Januar 2005 23:39 schrieb Ulrich Walter:
Hallo,
auf der Seite www.faqs.org/docs/artu/ ist obe genanntes Buch online verfügbar, gibt es das auch als File zum herunterladen,
http://www.google.de/search?q=art+of+unix+programming+filetype:pdf&hl=de&lr=&client=firefox-a&rls=org.mozilla:de-DE:official&as_qdr=all&start=20&sa=N -> 4. Treffer: http://www.dvara.net/HK/Art_of_Unix_Programming_(2003).pdf Ist das das Richtige?
oder muß man sich das selbst von der Webseite erstellen?
Kann man auch.. das scheint hier aber nicht nötig zu sein ;-) Gruß Sören
Am Montag, den 17.01.2005, 23:39 +0100 schrieb Ulrich Walter:
Hallo,
auf der Seite www.faqs.org/docs/artu/ ist obe genanntes Buch online verfügbar, gibt es das auch als File zum herunterladen, oder muß man sich das selbst von der Webseite erstellen? Ich kann nämlich dann, wenn ich mal Zeit habe es zu lesen nicht online sein (unterwegs). Für Hilfe und Links dankbar
Uli
Hallo, http://www.google.de/search?hl=de&q=The+Art+of+Unix+Programming +download&btnG=Google-Suche&meta= im Browser eingegeben und Nr. 5 ist: http://www.manuali.net/manuali/predownload.asp?id=4272 Gruß Wladimir
participants (8)
-
Andreas Loesch
-
Christian Paul
-
Michael Hoehne
-
Peter Kagermeier
-
Sören Wengerowsky
-
Torsten E.
-
Ulrich Walter
-
Wladimir Boger