Hallo, nach längerer Abwesenheit habe ich nun mal wieder eine Frage. Meine Internetverbindung läuft Über Analogmodem und ich möchte mir einen lokalen proxy einrichten. Bei SuSE 7.2 ging das über kinternet -> einrichten -> wwwoffle mit yast konfigurieren und okay klicken. Oder so ähnlich, ist schon was her. Ein lokaler DNS wurde nicht benötigt. Heutzutage wird ein lokaler DNS sowohl für wwwoffle alsauch für squid benötigt. Dazu habe ich versucht, einen caching-only DNS nach der Beschreibung im Handbuch aufzubauen, aber es funktioniert nicht. Der DNS ist fest eingegeben (localhost) und wird während der Internetverbindung nicht verändert: # cat resolv.conf domain site nameserver 127.0.0.1 search btinternet.com Ich benutze die originale named.conf, bis auf den DNS des providers, den ich unter forwarders eingetragen habe: forwarders { 194.73.73.94; 145.253.2.11; }; Daraufhin habe ich named und squid über die Skripte in /etc/init.d gestartet, mich eingewählt, www.opel.de besucht und die Verbindung unterbrochen. Danach sollte der caching-only nameserver www.opel.de auflösen können, was er aber nicht tut: # host -d www.opel.de Trying "www.opel.de" Host www.opel.de not found: 2(SERVFAIL) Received 29 bytes from 127.0.0.1#53 in 16 ms Dementsprechend gibt squid auch eine Fehlermeldung aus, wenn ich versuche, www.opel.de offline anzusehen. Scheint ein Problem mit Opel zu sein, bei BMW geht es.. ;-) Sieht so aus, als hätte ich eine manchmal-Funktion. Mit ganz viel Glück kriege ich eine Seite angezeigt, wenn ich offline bin. Meist aber nicht. Wenn es funzt, zeigt host www.bmw.de auch keinen SERVFAIL mehr an. Was mache ich falsch??? In named.conf stehen folgende Zeilen: # The directory statement defines the name server's working directory directory "/var/lib/named"; # Write dump and statistics file to the log subdirectory. The # pathenames are relative to the chroot jail. dump-file "/var/log/named_dump.db"; statistics-file "/var/log/named.stats"; Diese scheinen nicht angelegt zu werden: /var/lib/named/var/log/named_dump.db existiert nicht, /var/lib/named/var/log/named.stats auch nicht. Wenn ich named stoppe und wieder starte, hat er alle DNS-Einträge vergessen. Warum? Müßten die nicht auf der Platte gespeichert werden? Und in welcher Datei? Bin für jede Hilfe dankbar! Grüße, Gunther P.S.: Wenn ich bind starte, kriege ich folgendes in /var/log/messages, warum kriege ich einen "failed"? Jan 19 20:10:23 tui named[29799]: starting BIND 9.3.1 -t /var/lib/named -u named -d 1 Jan 19 20:10:23 tui named[29799]: found 1 CPU, using 1 worker thread Jan 19 20:10:23 tui named[29799]: loading configuration from '/etc/named.conf' Jan 19 20:10:24 tui named[29799]: listening on IPv6 interfaces, port 53 Jan 19 20:10:24 tui named[29799]: listening on IPv4 interface lo, 127.0.0.1#53 Jan 19 20:10:24 tui named[29799]: command channel listening on 127.0.0.1#953 Jan 19 20:10:24 tui named[29799]: command channel listening on ::1#953 Jan 19 20:10:24 tui named[29799]: isc_log_open 'named.run' failed: permission denied Jan 19 20:10:24 tui named[29799]: zone 0.0.127.in-addr.arpa/IN: loaded serial 42 Jan 19 20:10:24 tui named[29799]: zone localhost/IN: loaded serial 42 Jan 19 20:10:24 tui named[29799]: running
* Gunther Clasen wrote on Thu, Jan 19, 2006 at 20:39 +0000:
Heutzutage wird ein lokaler DNS sowohl für wwwoffle alsauch für squid benötigt.
Komisch, warum das denn? mmm...
Host www.opel.de not found: 2(SERVFAIL) Received 29 bytes from 127.0.0.1#53 in 16 ms
Dementsprechend gibt squid auch eine Fehlermeldung aus, wenn ich versuche, www.opel.de offline anzusehen.
Im Offlinefall wird versucht, www.open.de aufzulösen?! OFFLINE und externes DNS? Irgendwie alles sehr komisch. www.opel.de. 900 IN CNAME www.opel2.de.edgesuite.net. www.opel2.de.edgesuite.net. 21600 IN CNAME a323.g.akamai.net. a323.g.akamai.net. 20 IN A 80.231.19.102 Du hast halt nur 20 Sekunden, länger darf nicht gecacht werden.
Scheint ein Problem mit Opel zu sein, bei BMW geht es.. ;-) Sieht so
www.bmw.de. 86400 IN A 192.109.190.4 86400 == 1 Tag. Geht einen Tag später BWM auch nicht mehr? Dann liegts am DNS max Chaching :) Aber Du wolltest doch offline. Da will man doch kein normalen DNS Cache?!
directory "/var/lib/named";
dump-file "/var/log/named_dump.db"; statistics-file "/var/log/named.stats";
Diese scheinen nicht angelegt zu werden:
/var/lib/named/var/log/named_dump.db existiert nicht, /var/lib/named/var/log/named.stats auch nicht.
chroot? Gibt's vielleicht /var/log/named.stats?
Wenn ich named stoppe und wieder starte, hat er alle DNS-Einträge vergessen. Warum? Müßten die nicht auf der Platte gespeichert werden?
Nee, wieso?
Und in welcher Datei?
Gab da mal so ein hackpatch, aber wozu... Normalerweise möchte man ja, dass Timeouts etc. genau eingehalten werden. Ich würde sagen, bind ist einfach nicht für "offline internet simulation" gemacht.
Jan 19 20:10:24 tui named[29799]: isc_log_open 'named.run' failed: permission denied
ist vermutlich nicht schreibbar. Was willste da rein haben? Wo liegt das genau? Mein bind hat jedenfalls kein named.run offen. oki, Steffen -- Dieses Schreiben wurde maschinell erstellt, es trägt daher weder Unterschrift noch Siegel.
On Fri, Jan 20, 2006, Steffen Dettmer wrote:
* Gunther Clasen wrote on Thu, Jan 19, 2006 at 20:39 +0000:
Heutzutage wird ein lokaler DNS sowohl für wwwoffle alsauch für squid benötigt.
Komisch, warum das denn? mmm...
Host www.opel.de not found: 2(SERVFAIL) Received 29 bytes from 127.0.0.1#53 in 16 ms
Dementsprechend gibt squid auch eine Fehlermeldung aus, wenn ich versuche, www.opel.de offline anzusehen.
Im Offlinefall wird versucht, www.open.de aufzulösen?! OFFLINE und externes DNS? Irgendwie alles sehr komisch.
www.opel.de. 900 IN CNAME www.opel2.de.edgesuite.net. www.opel2.de.edgesuite.net. 21600 IN CNAME a323.g.akamai.net. a323.g.akamai.net. 20 IN A 80.231.19.102
Du hast halt nur 20 Sekunden, länger darf nicht gecacht werden.
Scheint ein Problem mit Opel zu sein, bei BMW geht es.. ;-) Sieht so
www.bmw.de. 86400 IN A 192.109.190.4
86400 == 1 Tag. Geht einen Tag später BWM auch nicht mehr? Dann liegts am DNS max Chaching :)
Aber Du wolltest doch offline. Da will man doch kein normalen DNS Cache?!
directory "/var/lib/named";
dump-file "/var/log/named_dump.db"; statistics-file "/var/log/named.stats";
Diese scheinen nicht angelegt zu werden:
/var/lib/named/var/log/named_dump.db existiert nicht, /var/lib/named/var/log/named.stats auch nicht.
chroot? Gibt's vielleicht /var/log/named.stats?
Nee, auch nicht. Aber wenn ich den DNS nicht brauche (s. u.), ist mir das auch egal...
Wenn ich named stoppe und wieder starte, hat er alle DNS-Einträge vergessen. Warum? Müßten die nicht auf der Platte gespeichert werden?
Nee, wieso?
Okay, ich hatte das falsch verstanden. Was ich möchte, ist folgendes: Einwählen, einige Seiten ansehen, Verbindung unterbrechen. Und dann sollten die Seiten noch lesbar sein, also auch, wenn ich einen neuen browser aufmache. Oder nach einem reboot. Also ohne Verbindung die Seite lesen, die ich vor zwei Wochen schonmal gelesen hatte... Dafür ist ein proxy erforderlich, denke ich. Momentan tue ich das (bei SuSE 7.2) mit wwwoffle. Ob ich den oder squid benutze, ist mir letztendlich egal, solange es funzt. wwwoffle hat den Vorteil, daß ich den cache weiterbenutzen kann. So weit, so gut. Wenn ich das richtig gelesen habe, erfordert squid einen funktionierenden DNS. Ich kann also keine Seiten darstellen, ohne online zu sein. Der einzige Verkehr auf dem Kabel ist die DNS-Anfrage (theoretisch zumindest). Um komplett offline zu arbeiten, hatte ich gedacht, ich müßte einen lokalen caching-only DNS einrichten. Aber offenbar geht das nicht, weil der spätestens nach einem reboot alles vergessen hat. Das habe ich zwischenzeitlich aus einer howto auch ausgegraben. Ich hatte außerdem gedacht, wwwoffle würde, wie squid, einen lokalen DNS erfordern, aber ich bin mir da nicht mehr so sicher. Ich werde mich da mal weiter durch die Anleitung lesen... Bei 7.2 hat es ausgereicht, bei kinternet -> Einstellungen -> wwwoffle aktivieren und ... -> hole angeforderte Seiten nach dem einwählen auszuwählen und alles funzte... Einen Proxy habe ich seitdem nicht mehr so richtig hingekriegt.
Und in welcher Datei?
Gab da mal so ein hackpatch, aber wozu... Normalerweise möchte man ja, dass Timeouts etc. genau eingehalten werden. Ich würde sagen, bind ist einfach nicht für "offline internet simulation" gemacht.
Okay, habe das jetzt verstanden. Grüße, Gunther -- Dipl.-Ing. Gunther Clasen +44 (0)1227 / 27 45 86 --
Am Freitag, 20. Januar 2006 16:13 schrieb Gunther Clasen:
Wenn ich named stoppe und wieder starte, hat er alle DNS-Einträge vergessen. Warum? Müßten die nicht auf der Platte gespeichert werden?
Nee, wieso?
Okay, ich hatte das falsch verstanden. Was ich möchte, ist folgendes: Einwählen, einige Seiten ansehen, Verbindung unterbrechen. Und dann sollten die Seiten noch lesbar sein, also auch, wenn ich einen neuen browser aufmache. Oder nach einem reboot. Also ohne Verbindung die Seite lesen, die ich vor zwei Wochen schonmal gelesen hatte...
Eine Möglichkeit, die genau für diesen Anwendungszweck gedacht ist, wäre pdnsd, habe ich mal vor einiger Zeit zusammen mit wwwoffle genutzt. Der speichert alle Einträge auf Platte, ob squid damit zurecht kommt, weiß ich allerdings nicht. MfG Klaus
Am Freitag, 20. Januar 2006 16:13 schrieb Gunther Clasen:
Also ohne Verbindung die Seite lesen, die ich vor zwei Wochen schonmal gelesen hatte...
Dafür ist ein proxy erforderlich, denke ich. Momentan tue ich das (bei SuSE 7.2) mit wwwoffle. Ob ich den oder squid benutze, ist mir letztendlich egal, solange es funzt. wwwoffle hat den Vorteil, daß ich den cache weiterbenutzen kann.
Ich habe dafür "früher" ebenfalls den wwwoffle benutzt (Zuletzt mit Suse-Version 8.2) musste aber keinen DNS bemühen. Meines Wissens trägst Du ja in Deinem Browser den wwwoffle als Proxy ein. Und der ist unter deiner lokalen IP erreichbar. Dieser nun entscheidet anhand der URL ob die Seite im Cache ist oder ob er sie holen soll. Die Umsetzung der URL in eine IP ist dabei nicht notwendig. Gruss Rainer
On Fri, Jan 20, 2006, Rainer Kulhanek wrote:
Am Freitag, 20. Januar 2006 16:13 schrieb Gunther Clasen:
Also ohne Verbindung die Seite lesen, die ich vor zwei Wochen schonmal gelesen hatte...
Dafür ist ein proxy erforderlich, denke ich. Momentan tue ich das (bei SuSE 7.2) mit wwwoffle. Ob ich den oder squid benutze, ist mir letztendlich egal, solange es funzt. wwwoffle hat den Vorteil, daß ich den cache weiterbenutzen kann.
Ich habe dafür "früher" ebenfalls den wwwoffle benutzt (Zuletzt mit Suse-Version 8.2) musste aber keinen DNS bemühen. Meines Wissens trägst Du ja in Deinem Browser den wwwoffle als Proxy ein. Und der ist unter deiner lokalen IP erreichbar. Dieser nun entscheidet anhand der URL ob die Seite im Cache ist oder ob er sie holen soll. Die Umsetzung der URL in eine IP ist dabei nicht notwendig.
Ich habe es hingekriegt. Was ich nicht gewußt hatte, war, daß man wwwoffle sagen muß, daß man online/offline ist. Was aber eigentlich, wenn man mal drüber nachdenkt, ganz logisch ist. Dazu muß man das script ip-up.local von /usr/.../packages/wwwoffle nach /etc/ppp kopieren und nach ip-down.local verlinken. Dann geht es. Bei SuSE 7.2 brauchte man das nicht, weil das von kinternet erledigt wurde. Ich habe es dann auch in den sourcen gefunden... Grüße, Gunther
participants (4)
-
Gunther Clasen
-
Klaus Hartmann
-
Rainer Kulhanek
-
Steffen Dettmer