Gibt es ein durchsuchbares Archiv von "suse-linux"? Bei Suse habe ich nichts gefunden. Gerd -- ------------------------------------------------------ -- Gerd Schering, Email: Schering@zrz.TU-Berlin.DE -- ------------------------------------------------------
Am Dienstag, 20. November 2001 17:52 schrieb Gerd Schering:
Gibt es ein durchsuchbares Archiv von "suse-linux"? Bei Suse habe ich nichts gefunden. Gerd
Ja hier: http://www.geocrawler.com Aber dazu habe ich jetzt auch noch eine Frage an die Listenteilnehmer: Wer von Euch hat ein Archiv, daß seit 1997 oder 1998 aktualisiert wird? Wer von Euch kann mir sagen, wieviel Speicherplatz es auf der HD braucht? Die Suchfunktionen und die Zuverlässigkeit von geocrawler lassen sehr zu wünschen übrig. Daher würde ich zu Beginn des kommenden Jahres gerne ein eigenes Archiv anlegen. Ich bin jetzt zwar auch schon einige Zeit in der Liste, aber mein Archiv ist im Juni einem Plattencrash zum Opfer gefallen (ja, ja, ich weiß ja, Sicherung und so... ;-). Derzeit suche ich einen preiswerten Webhoster in Hannover oder Umgebung, bei dem ich meinen eigenen Server hinstellen kann. Dort fänden dann einige Homepages Platz und vielleicht auch ein komfortableres Archiv? Wer kennt einen guten Webhoster, der auch nicht zuviel für Traffic verlangt? MfG, Marc Mc Guinness -- "Never surf faster, than your guardian penguin can fly!"
Hallo, at Tuesday 20.11.2001 (18:03 +0100), Marc Mc Guinness wrote:
Wer von Euch kann mir sagen, wieviel Speicherplatz es auf der HD braucht?
Ich bin zwar erst seit zwei Monaten dabei, aber allein für den Monat Oktober werden bei mir Knapp 20 MB belegt, für den Monat September sind es "nur" 16 MB. Diesen Monat bin ich jetzt schon bei 16 MB. Also wenn Du ein komplettes Archiv anlegen möchtest, dann besorg Dir mal ne grosse Platte. ;-)) Gruß Michael -- Phone/Fax +49 7000 MACBYTE (+49 7000-6222983) Registered Linux User #228306 HomePage http://www.macbyte.info/ http://counter.li.org/ PGP-Key http://www.macbyte.info/shared/mykey.pkr ++ CGI-Hosting ++ Domains ++ Webspace ++ PHP Development ++
On Tue, Nov 20, 2001 at 06:03:16PM +0100, Marc Mc Guinness wrote:
Wer von Euch hat ein Archiv, daß seit 1997 oder 1998 aktualisiert wird?
du kannst mutt files haben monatlich ab nov-00 alles in allem ca. 150MB über den Nutzwert eines kompletten Archivs was über ein jahr hinaus geht lässt sich sicherlich trefflich streiten, viele Sachen sind überholt, die Beiträge mit Langzeitnutzen sind wahrscheinlich keine 10% Und wenn du es ins Netz stellen willst solltest du erst mal klären ob du ein web-interface dafür findest. -- MfG. Falk
Am Dienstag, 20. November 2001 18:03 schrieb Marc Mc Guinness:
Am Dienstag, 20. November 2001 17:52 schrieb Gerd Schering:
Gibt es ein durchsuchbares Archiv von "suse-linux"? Bei Suse habe ich nichts gefunden. Gerd
Ja hier: http://www.geocrawler.com
Aber dazu habe ich jetzt auch noch eine Frage an die Listenteilnehmer:
Wer von Euch hat ein Archiv, daß seit 1997 oder 1998 aktualisiert wird?
i d n
Wer von Euch kann mir sagen, wieviel Speicherplatz es auf der HD braucht?
ich archiviere seit Januar dieses Jahres bis heute sind es ca. 57000 Emails von dieser Liste mit OT-Emails also nicht gefiltert. Es sind ca. 152 MB. -- Gru*, Roman <><
Moin Marc, * Marc Mc Guinness schrieb am 20 Nov 2001:
Am Dienstag, 20. November 2001 17:52 schrieb Gerd Schering:
Gibt es ein durchsuchbares Archiv von "suse-linux"? Bei Suse habe ich nichts gefunden. Gerd
Ja hier: http://www.geocrawler.com
RTFFAQ: http://www.helms.sh/faq/
Aber dazu habe ich jetzt auch noch eine Frage an die Listenteilnehmer:
Wer von Euch hat ein Archiv, daß seit 1997 oder 1998 aktualisiert wird?
seit Ende 1999.
Wer von Euch kann mir sagen, wieviel Speicherplatz es auf der HD braucht?
-rw------- 1 helms users 2227088 Nov 1 1999 1999-10.gz -rw------- 1 helms users 3266091 Nov 30 1999 1999-11.gz -rw------- 1 helms users 2904451 Dec 31 1999 1999-12.gz -rw------- 1 helms users 3733655 Feb 1 2000 2000-01.gz -rw------- 1 helms users 3262555 Feb 29 2000 2000-02.gz -rw------- 1 helms users 3162699 Mar 31 2000 2000-03.gz -rw------- 1 helms users 2688213 Apr 30 2000 2000-04.gz -rw------- 1 helms users 2197140 May 24 2000 2000-05.gz -rw------- 1 helms users 2122543 Aug 29 2000 2000-08.gz -rw------- 1 helms users 3420864 Sep 30 2000 2000-09.gz -rw------- 1 helms users 3286640 Oct 29 2000 2000-10.gz -rw------- 1 helms users 2582430 Nov 26 2000 2000-11.gz -rw------- 1 helms users 4920179 Dec 31 2000 2000-12.gz -rw------- 1 helms users 4499024 Jan 31 2001 2001-01.gz -rw------- 1 helms users 3187694 Feb 28 2001 2001-02.gz -rw------- 1 helms users 2919300 Apr 1 2001 2001-03.gz -rw------- 1 helms users 3267949 Apr 30 2001 2001-04.gz -rw------- 1 helms users 2745369 Jun 8 20:17 2001-05.gz -rw------- 1 helms users 1604386 Jun 17 20:45 2001-06.gz -rw------- 1 helms users 4252040 Jul 31 23:57 2001-07.gz -rw------- 1 helms users 3037777 Sep 18 00:35 2001-08.gz -rw-r--r-- 1 helms users 3312013 Oct 3 15:09 2001-09.gz -rw------- 1 helms users 3203253 Oct 31 21:45 2001-10.gz -rw------- 1 helms users 14369633 Nov 20 12:29 2001-11
Die Suchfunktionen und die Zuverlässigkeit von geocrawler lassen sehr zu wünschen übrig. Daher würde ich zu Beginn des kommenden Jahres gerne ein eigenes Archiv anlegen. Ich bin jetzt zwar auch schon einige Zeit in der Liste, aber mein Archiv ist im Juni einem Plattencrash zum Opfer gefallen (ja, ja, ich weiß ja, Sicherung und so... ;-).
MHonArc kann ich in dem Zusammenhang zwar empfehlen, aber nur auf guter Hardware *g* Ich hab mal versucht, das Archiv Web-tauglich zu machen, ich hab 2 Stunden gewartet, bevor der Rechner wieder reagiert hat *bg* Gruß, Sebastian -- Do not meddle in the affairs of Wizards, for they are subtle and quick to anger. Sebastian Helms - http://www.helms.sh - mailto:mail@helms.sh (PGP welcome) SuSE-Linux-Mailinglisten-FAQ: http://www.helms.sh/faq/
Hallo! Am Dienstag, 20. November 2001 21:56 schrieb Sebastian Helms:
Moin Marc,
* Marc Mc Guinness schrieb am 20 Nov 2001:
Am Dienstag, 20. November 2001 17:52 schrieb Gerd Schering: Die Suchfunktionen und die Zuverlässigkeit von geocrawler lassen sehr zu wünschen übrig. Daher würde ich zu Beginn des kommenden Jahres gerne ein eigenes Archiv anlegen. Ich bin jetzt zwar auch schon einige Zeit in der Liste, aber mein Archiv ist im Juni einem Plattencrash zum Opfer gefallen (ja, ja, ich weiß ja, Sicherung und so... ;-).
MHonArc kann ich in dem Zusammenhang zwar empfehlen, aber nur auf guter Hardware *g* Ich hab mal versucht, das Archiv Web-tauglich zu machen, ich hab 2 Stunden gewartet, bevor der Rechner wieder reagiert hat *bg*
Hmmm... Ja, das kann ich mir gut vorstellen... Ist es nicht performanter, wenn man die Emails in eine Datenbank einliest? Wäre jetzt jedenfalls meine Vorgehensweise gewesen. 1.) Emails landen bei suse-linux@mcguinness.de 2.) Neue Emails werden von Webinterface geholt und in Datenbank (MySQL) archiviert. 3.) Suchmaske holt Informationen aus Datenbank. MfG, Marc Mc Guinness
Hiho, Marc Mc Guinness wrote:
Hallo!
Am Dienstag, 20. November 2001 21:56 schrieb Sebastian Helms:
Moin Marc,
* Marc Mc Guinness schrieb am 20 Nov 2001:
Am Dienstag, 20. November 2001 17:52 schrieb Gerd Schering: Die Suchfunktionen und die Zuverlässigkeit von geocrawler lassen sehr zu wünschen übrig. Daher würde ich zu Beginn des kommenden Jahres gerne ein eigenes Archiv anlegen. Ich bin jetzt zwar auch schon einige Zeit in der Liste, aber mein Archiv ist im Juni einem Plattencrash zum Opfer gefallen (ja, ja, ich weiß ja, Sicherung und so... ;-).
MHonArc kann ich in dem Zusammenhang zwar empfehlen, aber nur auf guter Hardware *g* Ich hab mal versucht, das Archiv Web-tauglich zu machen, ich hab 2 Stunden gewartet, bevor der Rechner wieder reagiert hat *bg*
Hmmm... Ja, das kann ich mir gut vorstellen...
Ist es nicht performanter, wenn man die Emails in eine Datenbank einliest? Wäre jetzt jedenfalls meine Vorgehensweise gewesen.
1.) Emails landen bei suse-linux@mcguinness.de
2.) Neue Emails werden von Webinterface geholt und in Datenbank (MySQL) archiviert.
3.) Suchmaske holt Informationen aus Datenbank.
Hört sich gut an, aber wäre nicht auch sehr einfach, wenn du dein Mailfile per hypermail in ein webtaugliches Format überführen würdest, und dann mittels htdig eine Volltextrecherche realisierst? Hypermail braucht zwar viel Platz, da jede Mail einzeln und unkomprimiert gespeichert wird, ist aber auch schnell. Du kannst die Ansicht auf thread author und date stellen. Wenn du also das Mailfile monatsweise zusammenstellst, hält sich die Seitenlänge in Grenzen. Damit brauchst du nur Platz, aber keinen hoster mit einer mySQLdb - evtl. günstiger? Als Provider, der auch 5 mysql Datenbanken bietet, kann ich dir www.magicalworks.de ans Herz legen. Ich habe die Liste seit Nov. 99 abonniert und halte die Mails in meinem Netscape vor -falls du interesse hast, kann ich dir diese Mailfiles brennen. Grüße Thorsten HTH Thorsten
Hallo Thorsten! Am Mittwoch, 21. November 2001 13:28 schrieb Thorsten Strusch:
Hiho,
Marc Mc Guinness wrote:
Hallo!
Am Dienstag, 20. November 2001 21:56 schrieb Sebastian Helms:
Moin Marc,
* Marc Mc Guinness schrieb am 20 Nov 2001:
Am Dienstag, 20. November 2001 17:52 schrieb Gerd Schering: MHonArc kann ich in dem Zusammenhang zwar empfehlen, aber nur auf guter Hardware *g* Ich hab mal versucht, das Archiv Web-tauglich zu machen, ich hab 2 Stunden gewartet, bevor der Rechner wieder reagiert hat *bg*
Hmmm... Ja, das kann ich mir gut vorstellen...
Ist es nicht performanter, wenn man die Emails in eine Datenbank einliest? Wäre jetzt jedenfalls meine Vorgehensweise gewesen.
1.) Emails landen bei suse-linux@mcguinness.de
2.) Neue Emails werden von Webinterface geholt und in Datenbank (MySQL) archiviert.
3.) Suchmaske holt Informationen aus Datenbank.
Hört sich gut an, aber wäre nicht auch sehr einfach, wenn du dein Mailfile per hypermail in ein webtaugliches Format überführen würdest, und dann mittels htdig eine Volltextrecherche realisierst? Hypermail braucht zwar viel Platz, da jede Mail einzeln und unkomprimiert gespeichert wird, ist aber auch schnell. Du kannst die Ansicht auf thread author und date stellen. Wenn du also das Mailfile monatsweise zusammenstellst, hält sich die Seitenlänge in Grenzen. Damit brauchst du nur Platz, aber keinen hoster mit einer mySQLdb - evtl. günstiger?
MySQL-Datenbank dürfte kein Problem sein, suche ja nen Webhoster bei dem ich meinen eigenen Rechner aufstellen kann. Also stellt Plattenplatz und MySQL-DB kein Problem dar. MySQL-DBs könnte ich auch noch ein paar andere nutzen, die ich eigentlich für private Zwecke habe (wäre aber natürlich nicht so performant, wenn die Datenbank auf einem anderen Rechner im Inet liegt).
Als Provider, der auch 5 mysql Datenbanken bietet, kann ich dir www.magicalworks.de ans Herz legen.
s.o.: Suche ja einen Hoster, der meinen persönlichen/privaten Rechner aufstellt.
Ich habe die Liste seit Nov. 99 abonniert und halte die Mails in meinem Netscape vor -falls du interesse hast, kann ich dir diese Mailfiles brennen.
Super! Nov. 99 dürfte genügen. Es eilt aber nicht. Muss ja erst einmal nen Hoster finden und dann das Webinterface programmieren. Ich schicke Dir meine Adresse per PM. Vielen Dank! Marc Mc Guinness
Hi Marc, an Marc Mc Guinness 's Tastatur wurde am Mittwoch, 21. November 2001 10:56 folgendes notiert:
Ist es nicht performanter, wenn man die Emails in eine Datenbank einliest? Wäre jetzt jedenfalls meine Vorgehensweise gewesen.
Dem ist wohl so.
2.) Neue Emails werden von Webinterface geholt und in Datenbank (MySQL) archiviert.
Wir reden hier über mehr als ein GB Textdaten. Die willst Du mit einer MySQL handeln ? Ich habe bisher noch nicht mit so grossen MySQLs gearbeitet, aber ich habe bedenken, dass ein LIKE dann wohl ziemlich lange brauch. Ich habe einmal versehentlich ein MySQL auf Stunden beschäftigt, mit einem simplen select. Ich weis nicht, wie MySQL 4 aussieht, aber nach meinem Gedenken dürften die derzeitigen stables mit der Datenmenge bzw. dem Datenhandling überfordert sein. Über ein Textfeld kannst Du kein Index legen, du müsstest also eine andere Routine erschaffen. Solltest Du dein Vorhaben in die Realität umsetzen, lass mal etwas von dem DB-Design durchsickern. Interessiert mich. Hagen -- /HagK/ - hagk@hagk.de Bitte zuerst lesen: http://rfc.net/rfc1855.html (Netiquette) http://www.afaik.de/usenet/faq/zitieren/zitieren-3.php3
Am Mittwoch, 21. November 2001 14:49 schrieb Hagen Kühnel:
Hi Marc,
an Marc Mc Guinness 's Tastatur wurde am Mittwoch, 21. November
2001 10:56 folgendes notiert:
Ist es nicht performanter, wenn man die Emails in eine Datenbank einliest? Wäre jetzt jedenfalls meine Vorgehensweise gewesen.
Dem ist wohl so.
2.) Neue Emails werden von Webinterface geholt und in Datenbank (MySQL) archiviert.
Wir reden hier über mehr als ein GB Textdaten. Die willst Du mit einer MySQL handeln ?
Ich habe bisher noch nicht mit so grossen MySQLs gearbeitet, aber ich habe bedenken, dass ein LIKE dann wohl ziemlich lange brauch. Ich habe einmal versehentlich ein MySQL auf Stunden beschäftigt, mit einem simplen select.
Ich weis nicht, wie MySQL 4 aussieht, aber nach meinem Gedenken dürften die derzeitigen stables mit der Datenmenge bzw. dem Datenhandling überfordert sein.
Ich kenne mich auf dem DB-Sektor nicht so gut aus... Wie siehts denn mit Sybase 11.0.0.3 (ist ja bei der SuSE 7.1 noch dabei gewesen) oder 12.5 aus? Eine Oracle-Lizenz hätte ich auch noch, aber mit Oracle habe administrationstechnisch noch keinerlei Erfahrungen gemacht... MySQL ist mir eigentlich am sympathischsten aber, daß die Daten zuviel werden, leuchtet mir ein... Eure Meinungen zu dem Thema interessieren mich sehr! MfG, Marc Mc Guinness
an Marc Mc Guinness 's Tastatur wurde am Mittwoch, 21. November 2001 14:50 folgendes notiert:
Eine Oracle-Lizenz hätte ich auch noch, aber mit Oracle habe administrationstechnisch noch keinerlei Erfahrungen gemacht...
Oracle ist hierfür wohl angeblich geeignet, habe ich mal von jemandem gehört, der es irgendwo gehört hat und sich dunkel dran erinnern konnte - sprich: noch nie getestet, hat bestimmt auch Tücken.
MySQL ist mir eigentlich am sympathischsten aber, Mir auch, deswegen die Einwände.
news://....../de.alt.comp.datenbanken oder so ähnlich PS: werde mir mal am Wochenende MySQL 4 beta zu Gemüte ziehen. wichtig ist IMHO das absichern von DOS, sprich: Suchabfragen dürfen ab einem Last-Schwellenwert nicht mehr angenommen werden und nach einer bestimmten Zeit (PHP: 30sek -> SQL equivalent) gekillt werden. Frage mich nicht wie es geht, aber es muss ja irgendwie gehen, zur Not muss halt ein cron top auswerten. Ziel sollte aber schon eine Indizierung des Textes sein. Hagen -- /HagK/ - hagk@hagk.de Bitte zuerst lesen: http://rfc.net/rfc1855.html (Netiquette) http://www.afaik.de/usenet/faq/zitieren/zitieren-3.php3
Hi Hagen, hi Marc, hi Liste, Hagen Kühnel wrote:
an Marc Mc Guinness 's Tastatur wurde am Mittwoch, 21. November 2001 14:50 folgendes notiert:
Eine Oracle-Lizenz hätte ich auch noch, aber mit Oracle habe administrationstechnisch noch keinerlei Erfahrungen gemacht...
Oracle ist hierfür wohl angeblich geeignet, habe ich mal von jemandem gehört, der es irgendwo gehört hat und sich dunkel dran erinnern konnte - sprich: noch nie getestet, hat bestimmt auch Tücken.
IMHO, ist Oracle etwas oversized, MySql ist schon gut AFAIR ist MySql nur ein Sql-fähiges ISAM-Filesystem, mit dem schon seit Generationen Text-Daten verwaltet werden, die Nachteile die im Vergleich zu anderen Datenbanken immer genannt werden ( z. B. Transaktion ) sind für diesen Einsatzzweck unerheblich, da eh nur lesend darauf zugegriffen wird. Wenn ich irgendwelche große Zahlen über Datenbanken höre, werde ich immer vorsichtig, da in den meisten Fällen die Hardwarevoraussetzung eine ganz andere ist. Viel wichtiger ist das Datenbankdesign, hier spricht man wohl besser von Datendesign und Abfragedesign. Die Datenmenge wird auch erheblich schrumpfen, wenn man alle überflüssigen Daten, die in einer mail zwangsläufig sind wegläßt. Ich habe ein ähnliches Project auf Client/Server-Basis mit Kylix angfangen, ist aber noch im Anfangsstadium, hab mich in der Client-programmierung verstrickt, will zuviel auf einmal, serverseitig steht es aber soweit, war auch einfacher, da das mein Fach ist, relevanten Daten, Daten sie in die Datenbank kommen sind für mich nur folgende: From-Header, Datum-Zeit, Referenz-Header, Body-Text in ASCII und Verweis für Anhänge. Aus Bequemlichkeits- und Performensgründen habe ich nur leicht Normalisiert d.h. es liegen viele Daten redundant vor.
MySQL ist mir eigentlich am sympathischsten aber, Mir auch, deswegen die Einwände.
MySql bietet ja auch alles was man braucht, wichtigste dürfte Volltextsuche über Textattribute sein. Bei einer Datenbank, die einen hohen Abfrageverkehr hat, muß man die Abfragen so einstellen, daß z.B. nicht der ganze Bodytext durchsucht werden kann, sonder nur einen maximale vorgegebenen Zeitraum z. B 2 Monate, zudem sollten die Ergebnisse in einer seperaten Relation eine zeitlang zwischen gespeichert werden, bzw es solte eine Relation für eine Indezierung angelegt werden, die die häufigsten Suchbegriffe beinhaltet, und immer aktuell gehalten wird, es geht schneller 100 mails nach Begriffen wie z. B. sendmail, kernel zu durchsuchen und sie entsprechend einzutragen, als immer wieder eine Vollindizierung durchzuführen. Die Einwände sind OK, aber man sollte auch bedenken, daß eine gut designte und gewartete MySql wohl schneller sein kann als eine schlecht designte und gewartete Oracle und letzteres wäre ja der Fall, da MySql-Wissen vorhanden ist und Oracle-Wissen weniger bis garnicht. Oracle lernt man auch nicht so mal eben, schaut euch mal die Stundensätze von Oracle-Administratorn an, die kommen nicht von ungefähr.
news://....../de.alt.comp.datenbanken oder so ähnlich
PS: werde mir mal am Wochenende MySQL 4 beta zu Gemüte ziehen. wichtig ist IMHO das absichern von DOS, sprich: Suchabfragen dürfen ab einem Last-Schwellenwert nicht mehr angenommen werden und nach einer bestimmten Zeit (PHP: 30sek -> SQL equivalent) gekillt werden. Frage mich nicht wie es geht, aber es muss ja irgendwie gehen, zur Not muss halt ein cron top auswerten. Ziel sollte aber schon eine Indizierung des Textes sein.
FAC my 2¢ cu Gerald PS: Marc kannst auf mich zählen in Bezug auf Datenbankdesign, ich persönlich würde eine MySql-Lösung vorziehen. Webdesigner hast du ja auch schon und den Rest kannst ja du, also: Let's fetz
Hallo! Am Donnerstag, 22. November 2001 03:04 schrieb Gerald Goebel:
Hi Hagen, hi Marc, hi Liste,
PS: Marc kannst auf mich zählen in Bezug auf Datenbankdesign, ich persönlich würde eine MySql-Lösung vorziehen. Webdesigner hast du ja auch schon und den Rest kannst ja du, also: Let's fetz
Ok, ich werde das Vorhaben angehen. Punkt eins auf der ToDo-Liste ist ersteinmal einen Webhoster suchen... Ich melde mich, wenn ich soweit bin und nehme dann gerne Eure Hilfe in Anspruch. MfG, Marc Mc Guinness
Hallo, at Wednesday 21.11.2001 (14:49 +0100), Hagen Kühnel wrote:
an Marc Mc Guinness 's Tastatur wurde am Mittwoch, 21. November 2001 10:56 folgendes notiert:
2.) Neue Emails werden von Webinterface geholt und in Datenbank (MySQL) archiviert.
Wir reden hier über mehr als ein GB Textdaten. Die willst Du mit einer MySQL handeln ?
Ich würde nur die Headerinformationen in die Datenbank packen. Also nur den Betreff, das Datum. eMail-Adressen (Absender) würde ich komplett entfernen. Die Suchfunktion beschränkt sich dann nur auf das Subject. Gruß Michael -- Phone/Fax +49 7000 MACBYTE (+49 7000-6222983) Registered Linux User #228306 HomePage http://www.macbyte.info/ http://counter.li.org/ PGP-Key http://www.macbyte.info/shared/mykey.pkr ++ CGI-Hosting ++ Domains ++ Webspace ++ PHP Development ++
Am Mittwoch, 21. November 2001 15:17 schrieb Michael Raab:
Hallo,
at Wednesday 21.11.2001 (14:49 +0100), Hagen Kühnel wrote:
an Marc Mc Guinness 's Tastatur wurde am Mittwoch, 21. November
2001 10:56 folgendes notiert:
2.) Neue Emails werden von Webinterface geholt und in Datenbank (MySQL) archiviert.
Wir reden hier über mehr als ein GB Textdaten. Die willst Du mit einer MySQL handeln ?
Ich würde nur die Headerinformationen in die Datenbank packen. Also nur den Betreff, das Datum. eMail-Adressen (Absender) würde ich komplett entfernen. Die Suchfunktion beschränkt sich dann nur auf das Subject.
Naja, damit ist die Suchfunktion aber ähnlich eingeschränkt und unflexibel, wie sie es bei www.geocrawler.com auch ist. Somit hätten wir Suchfunktionen - Datum/Zeitraum - Betreff Ich stelle mir das aber umfangreicher vor: - Datum/Zeitraum - Betreff - Absender - Text Schließlich sind die Subjects (leider) oft sehr untreffend... MfG, Marc Mc Guinness
On Wed, Nov 21, 2001 at 03:11:24PM +0100, Marc Mc Guinness wrote:
Naja, damit ist die Suchfunktion aber ähnlich eingeschränkt und unflexibel, wie sie es bei www.geocrawler.com auch ist.
Ich stelle mir das aber umfangreicher vor: - Datum/Zeitraum - Betreff - Absender - Text
Schließlich sind die Subjects (leider) oft sehr untreffend...
google nehmen, in die suchworte 'site:lists.suse.com' und '"german suse linux discussions"' miteintragen und gut ist. (die ' weglassen) Peter
Am Mittwoch, 21. November 2001 15:38 schrieb Peter Wiersig:
On Wed, Nov 21, 2001 at 03:11:24PM +0100, Marc Mc Guinness wrote:
Naja, damit ist die Suchfunktion aber ähnlich eingeschränkt und unflexibel, wie sie es bei www.geocrawler.com auch ist.
Ich stelle mir das aber umfangreicher vor: - Datum/Zeitraum - Betreff - Absender - Text
Schließlich sind die Subjects (leider) oft sehr untreffend...
google nehmen, in die suchworte 'site:lists.suse.com' und '"german suse linux discussions"' miteintragen und gut ist. (die ' weglassen)
Hmmm.... Cool. Aber trotzdem bekomme ich keine Treffer, wenn ich nach diesem Thread "Durchsuchbares Archiv" suche... Komisch. MfG, Marc Mc Guinness
On Wed, Nov 21, 2001 at 03:52:17PM +0100, Marc Mc Guinness wrote:
Am Mittwoch, 21. November 2001 15:38 schrieb Peter Wiersig:
On Wed, Nov 21, 2001 at 03:11:24PM +0100, Marc Mc Guinness wrote:
Naja, damit ist die Suchfunktion aber ähnlich eingeschränkt und unflexibel, wie sie es bei www.geocrawler.com auch ist.
Ich stelle mir das aber umfangreicher vor: - Datum/Zeitraum - Betreff - Absender - Text
Schließlich sind die Subjects (leider) oft sehr untreffend...
google nehmen, in die suchworte 'site:lists.suse.com' und '"german suse linux discussions"' miteintragen und gut ist. (die ' weglassen)
Aber trotzdem bekomme ich keine Treffer, wenn ich nach diesem Thread "Durchsuchbares Archiv" suche... Komisch.
Klar, google indiziert nicht in Echtzeit. Aber den aktuellen Monat kann man ja auch im Mailprogramm vorraetig halten. Jedenfalls halte ich deine Idee fuer eine gute aber kaum durchfuehrbare Loesung. Peter (Google-Fan)
Hallo! Am Mittwoch, 21. November 2001 16:15 schrieb Peter Wiersig:
On Wed, Nov 21, 2001 at 03:52:17PM +0100, Marc Mc Guinness wrote:
Am Mittwoch, 21. November 2001 15:38 schrieb Peter Wiersig:
On Wed, Nov 21, 2001 at 03:11:24PM +0100, Marc Mc Guinness wrote:
Naja, damit ist die Suchfunktion aber ähnlich eingeschränkt und unflexibel, wie sie es bei www.geocrawler.com auch ist.
Ich stelle mir das aber umfangreicher vor: - Datum/Zeitraum - Betreff - Absender - Text
Schließlich sind die Subjects (leider) oft sehr untreffend...
google nehmen, in die suchworte 'site:lists.suse.com' und '"german suse linux discussions"' miteintragen und gut ist. (die ' weglassen)
Aber trotzdem bekomme ich keine Treffer, wenn ich nach diesem Thread "Durchsuchbares Archiv" suche... Komisch.
Klar, google indiziert nicht in Echtzeit. Aber den aktuellen Monat kann man ja auch im Mailprogramm vorraetig halten.
Jedenfalls halte ich deine Idee fuer eine gute aber kaum durchfuehrbare Loesung.
Aber wenn es geocrawler kann, dann können wir es doch auch, oder nicht? Und wenn wir es jetzt noch ein wenig weiter spinnen, dann könnte man bei dem Webinterface auch noch eine Userdatenbank anlegen die speichert, wann man zuletzt die Emails angesehen hat und beim erneuten einloggen die neuesten Mails aus der Liste anzeigt. So kann man es sich (wie ich) sparen, die Liste doppelt (privat/büro, pop3 auf private accounts ist bei uns gesperrt) zu abonnieren, sondern kann sie einfach online lesen, die entsprechende Inet-Connection vorausgesetzt... Dazu noch Filter eingesetzt und das ganze kann interessant werden... Aber ist natürlich alles noch rein hypothetisch... MfG, Marc Mc Guinness
an Marc Mc Guinness 's Tastatur wurde am Mittwoch, 21. November 2001 15:52 folgendes notiert:
Aber trotzdem bekomme ich keine Treffer, wenn ich nach diesem Thread "Durchsuchbares Archiv" suche... Komisch.
google ist zwar schnell, mit den updates, aber nicht so schnell. Es durchsucht ja nicht das live-Archiv, sondern den gegoogelten Index, den es mal in einer ruhigen Nacht erstellte. Hagen -- /HagK/ - hagk@hagk.de Bitte zuerst lesen: http://rfc.net/rfc1855.html (Netiquette) http://www.afaik.de/usenet/faq/zitieren/zitieren-3.php3
an Marc Mc Guinness 's Tastatur wurde am Mittwoch, 21. November 2001 15:11 folgendes notiert:
Schließlich sind die Subjects (leider) oft sehr untreffend... ACK
Hagen -- /HagK/ - hagk@hagk.de Bitte zuerst lesen: http://rfc.net/rfc1855.html (Netiquette) http://www.afaik.de/usenet/faq/zitieren/zitieren-3.php3
Hallo, Marc Mc Guinness wrote:
Am Mittwoch, 21. November 2001 15:17 schrieb Michael Raab:
Hallo,
at Wednesday 21.11.2001 (14:49 +0100), Hagen Kühnel wrote:
an Marc Mc Guinness 's Tastatur wurde am Mittwoch, 21. November
2001 10:56 folgendes notiert:
2.) Neue Emails werden von Webinterface geholt und in Datenbank (MySQL) archiviert.
Wir reden hier über mehr als ein GB Textdaten. Die willst Du mit einer MySQL handeln ?
Ich würde nur die Headerinformationen in die Datenbank packen. Also nur den Betreff, das Datum. eMail-Adressen (Absender) würde ich komplett entfernen. Die Suchfunktion beschränkt sich dann nur auf das Subject.
Naja, damit ist die Suchfunktion aber ähnlich eingeschränkt und unflexibel, wie sie es bei www.geocrawler.com auch ist.
Somit hätten wir Suchfunktionen - Datum/Zeitraum - Betreff
Ich stelle mir das aber umfangreicher vor: - Datum/Zeitraum - Betreff - Absender - Text
Schließlich sind die Subjects (leider) oft sehr untreffend...
Ich habe mich eben mal ein bischen mit hypermail beschäftigt und Teile meines Windows-Netscape-Mailfiles (wattn Wocht!) durch hypermail gejagt. Aus einem 13MB Ordner wurden nach der Umwandlung erstaunlicherweise nur 15MB. Und dabei kann ich noch die folgenden Ansichten wählen: Thread, Subject, Author Date _und_ Attachement!!! Diesen Webordner mit htdig indiziert und man hat eine flotte Volltextsuchmaschine mit cgi-Interface realisiert [1]. Dein Vorhaben Marc, wird aber wohl sehr umfangreich werden und viel Plattenplatz schlucken. Du solltest dir wirklich eine leistungsfähige DB suchen. Wenn du eine Oracle Lizenz hast, solltest du diese IMHO auch nutzen... Grüße Thorsten -- [1] darüber gab es erst dieses Jahr einen sher guten Artikel in der c´t!
Am Die, 20 Nov 2001 schrieb Gerd Schering:
Gibt es ein durchsuchbares Archiv von "suse-linux"? Bei Suse habe ich nichts gefunden.
www.geocrawler.com Nicht toll, aber besser als nichts.... Gruß Christoph -- Christoph Maurer - Paul-Röntgen-Straße 7 - 52072 Aachen - Tux#194235 mailto:christoph-maurer@gmx.de - http://www.christophmaurer.de Auf der Homepage u.a.: Installation von SuSE 7.0 auf Notebook Acer Travelmate 508 T, Elektrotechnik an der RWTH Aachen
On Tue, Nov 20, 2001 at 06:28:32PM +0100, Christoph Maurer wrote:
Am Die, 20 Nov 2001 schrieb Gerd Schering:
Gibt es ein durchsuchbares Archiv von "suse-linux"? Bei Suse habe ich nichts gefunden.
www.geocrawler.com Nicht toll, aber besser als nichts.... ACK.
Im Zweifelsfall mit Google suchen und German Discussion zu den Suchworten hinzufügen. So ist nämlich der Titel eines jeden Beitrags. Ist auch nicht toll, aber besser als nichts.... ;) -- Gruß Alex
participants (13)
-
Alex Klein
-
Christoph Maurer
-
Falk Sauer
-
Gerald Goebel
-
Gerd Schering
-
Hagen Kühnel
-
Marc Mc Guinness
-
Marc Mc Guinness
-
Michael Raab
-
Peter Wiersig
-
Roman Langolf
-
Sebastian Helms
-
Thorsten Strusch