![](https://seccdn.libravatar.org/avatar/46ac6fb70a9e42baa99fab9e8d80bfbf.jpg?s=120&d=mm&r=g)
Am Mittwoch, 24. September 2003 03:22 schrieb David Haller:
Am Wed, 24 Sep 2003, Al Bogner schrieb:
Am Dienstag, 23. September 2003 23:40 schrieb David Haller:
Oehm. Jo. Da muss man mal testen wie lang so ein find laeuft (sooo gross ist der Traffic ja wohl nicht[1]) und ob's ueberhaupt stoert, wenn bei Variante 2 (unten) irgendwann das naechste fetchnews laeuft weiss ich nicht -- waere einen Versuch wert...
Der Newsspool hat zur Zeit etwa 1 GB, Tendenz steigend. Ab ca. 2GB würde ich die Behaltezeit anpassen. Ein updatedb dauert etwa 4 Minuten. Der Check des kompletten Newsspool dauerte mit Antvir 2h und mit F-Prot 99 Minuten, wobei Antivir auf Löschen eingestellt war, sodass F-Prot, das danach läuft, nichts mehr fand.
Das liesse sich aber evtl. ueber einen Umweg vermeiden (avnews.lastrun wird aktualisiert, bevor das find gestartet wird:
find / locate wird um 0:15 (default) gestartet, sofern der Rechner an ist. Da sich der Rechner aber per cronjob nachts gegen 1h ausschaltet, sind es nur Ausnahmefälle, dass find außerhalb dieser Zeit läuft.
Auch. Wenn es nur darum ginge, dann waere das maxbytes die einfachste und sauberste Loesung.
Ich suche aber nach einer grundsätzlichen Lösung.
Klar. Hatte ich ja auch angedacht.
Zu überlegen ist auch folgendes. Ich habe heute bei einem manuellen Scan alle Viren (waren "nur" 42 Swen.A) im Newsspool löschen lassen. Wie geht damit leafnode / texpire um, wenn da plötzlich News fehlen? Kann da ein Index durcheinander kommen? Wird leafnode versuchen, die News erneut runterzuladen? Das ist schwer zu testen, da News mit Viren in der Regel später nicht mehr abzurufen sind. Hier trennst sich etwa alle 15 Minuten die Verbindung, sodass die News ziemlich aktuell bei jedem neuen Verbindungsaufbau geholt werden. Weiß keiner wo man das automatische Holen der News bei Verbindungsaufbau abstellt? AFAIR ist das erst seit 8.x so.
<nachdenk mode="laut"> Was einfach zu implementieren waere, aber den Nachteil hat, dass keine Gruppen automatisch abbestellt werden... Evtl. liesse sich das mit dem (auskommentierten) tar loesen, aber das geht nur gut, wenn inzwischen niemand eine neue Gruppe abonnieren will... Ich bin mir jetzt nicht sicher, wie leafnode das handhabt, aber es koennte sein, dass es auch so gut geht, d.h. dass nicht alle Gruppen auf "abonniert" gesetzt werden... </nachdenk>
Will dazu noch wer laut nachdenken? Es wäre zwar keine Katastrophe 1GB Newsspool zu verlieren, aber lustig wäre es auch nicht.
==== avnews [ungetestet!!!] ====
Ich warte noch ein bißchen auf Antworten bevor ich es teste.
Denn wenn ohne "--atime-preserve" ein leafnode-spool kopiert wird, gibt's beim naechsten "fetchnews" eine Ueberraschung...
Und die wäre?
[1] selbst ein "updatedb" (also ein 'find / ...') laeuft bei mir ueber 88489 MB "nur" 30min oder so ;) Dein news-spool wird dann doch etwas kleiner sein, oder bist du unter die ISPs mit "Full-Feed" von "*.binaries.*" gegangen?
Ich denke mittlerweile auch an eine Lösung, die wahrscheinlich auch den Zweck erfüllt, einfach alle Attachments zu löschen. Dazu muß ich mich aber erst in die Filtermöglichkeiten von leafnode einlesen bzw. wie das überhaupt geht. Die Doku wartet auf mich :-) Das sollte vielleicht reichen: (?i)^Content-Type: multipart/mixed Es wäre kein Problem, wenn leafnode alle News komplett löscht, die ein Attachment enthalten, besser nur das Attachment löscht und noch besser auf Wildcards von NGs anwendbar wäre. Hat wer Erfahrung mit leafnode 2? Ich überlege mir von 1.9.43.rel auf leafnode-2.0b8_ma9 umzusteigen. Al -- Infos zu Softwarepatenten: http://swpat.ffii.org/index.de.html http://petition.eurolinux.org/index.html?LANG=de