Neu Download-Ort für Doku LTSP-SLSS und WinSV
Hallo, nachdem Peter Varkoly im Moment im Urlaub ist, am ftp-Server aber nicht mehr die Doku zum Einlesen der Schülerdateien aus WinSV und auch nicht für die Einrichtung LTSP/SLSS liegt, habe ich sie mal auf eine Webseite von mir gelegt. Ist zwar nicht ideal, aber vielleicht möchte ja jemand in den Ferien noch etwas herumspielen ;-) Die Doku ist zu finden auf: http://www.ba.shuttle.de/rs-schesslitz --> Doku LTSP/SLSS - ganz unten (darin sind einige Dinge, die eigentlich nur meine Schule betreffen, aber u.a.eben auch die Anbindung von LTSP an den SLSS und das Einlesen der Schülerdaten aus WinSV.) Viele Grüße Dieter
Hallo Am Montag, 11. August 2003 20:34 schrieb Dieter Kroemer:
nachdem Peter Varkoly im Moment im Urlaub ist, am ftp-Server aber nicht mehr die Doku zum Einlesen der Schülerdateien aus WinSV und auch nicht für die Einrichtung LTSP/SLSS liegt, habe ich sie mal auf eine Webseite von mir gelegt. Ist zwar nicht ideal, aber vielleicht möchte ja jemand in den Ferien noch etwas herumspielen ;-)
Vielen Dank! Da ich hier sowieso gerade dabei bin die Dokumentation zu überarbeiten, würde ich vorschlagen, dass ich die Sachen mal sammle, überarbeite und dann wieder auf den FTP-Server lege. Ich komme zwar derzeit nicht an Peters Verzeichnis heran, aber vielleicht ist mein FTP-Verzeichnis auf ftp.suse.com auch in Ordnung? Gleich noch eine Frage: mir ist bislang aufgefallen, dass es zwar ein "Administrator"-Handbuch aber kein "Lehrer"-Handbuch gibt, welches in abgespeckter Form alle Informationen für "normale" Lehrer enthält. Wenn das nicht gebraucht wird, dann würde ich mich anderen Sachen (z.B. SquidGuard) zuwenden wollen - any comments? Viele Grüße, Lars
Hallo Lars, schön einen "altgedienten" Schulserver-Entwickler dabei zu haben - auch wenn die GEE-User bestimmt etwas entsetzt über deinen Weggang sind, die SLSS-User sind mindestens genauso froh über dein Kommen :-))) Am Dienstag, 12. August 2003 16:13 schrieb Lars Rupp:
Da ich hier sowieso gerade dabei bin die Dokumentation zu überarbeiten, würde ich vorschlagen, dass ich die Sachen mal sammle, überarbeite und dann wieder auf den FTP-Server lege.
Das würde mir am besten gefallen - eine zentrale Stelle für Dokus und andere Downloads ist viel sinnvoller als soviele verschiedene Seiten (wie z.B. beim Arktur).
Ich komme zwar derzeit nicht an Peters Verzeichnis heran, aber vielleicht ist mein FTP-Verzeichnis auf ftp.suse.com auch in Ordnung?
Aber klar :-)
Gleich noch eine Frage: mir ist bislang aufgefallen, dass es zwar ein "Administrator"-Handbuch aber kein "Lehrer"-Handbuch gibt, welches in abgespeckter Form alle Informationen für "normale" Lehrer enthält. Wenn das nicht gebraucht wird, dann würde ich mich anderen Sachen (z.B. SquidGuard) zuwenden wollen - any comments?
So ein "kurzes" Handbuch wäre zwar auch recht gut, aber gerade bei SquidGuard könnte man noch vieles verbessern - daher gleich mal eine Wunschliste von mir ;-) die Blacklist ist z.B. schon recht alt - ich habe sie Peter Varkoly im März einmal geschickt; hier fände ich es sehr gut, wenn die aktuellsten blacklists automatisch (über die crontab oder per Knopfdruck) heruntergeladen werden können. Stefan Furtmayr hat hierfür auch schon ein Script geschrieben http://www.bn-paf.de/filter/index_de.html, das mit meinem Arktur recht gut funktioniert hat (allerdings gibts mit neuen Blacklists auch ein Problem - einmal konnten die Schüler dann auf Seiten wie z.B. www.sex.de zugreifen - es waren die Standard-Sexseiten wiederfrei - damals habe ich allerdings nur die Blacklists von squidGuard.org selbst verwendet - das Script von Stefan verwendet alle möglichen Download-Orte und da ist mir soetwas noch nicht aufgefallen). Weiterhin wäre meiner Meinung für SquidGuard nach wichtig, dass man bestimmte Seiten über die Web-Oberfläche sperren bzw. freigeben kann. Hierzu sollte man nicht extra an die Konsole wechseln müssen. Insbesondere das Freigeben ist wichtig, da es schon öfters vorgekommen ist, dass in einer neuen Blacklist z.B. www.google.de(com) gesperrt war. Und ein (im Moment) letzter Wunsch - und wie ich meiner Tochter oft sage: wünschen darfst du dir so viel du möchtest ;-) Die Aufbereitung der angesurften Webseiten (z.B. ähnlich wie beim bigbrother-Script von Joachim Deckers http://www.deckers-online.de/arktur/bigbrother.html - vielleicht kennst du das) - in den logfiles nachzusehen, welche Seiten von wem angesurft wurden, macht nicht wirklich Spaß :-( Dabei wäre auch die Option wunderbar, dass z.B. nur die Seiten (incl. Username) angezeigt würden, die SquidGuard geblockt hat. Viele Grüße Dieter
Guten Morgen (schön, wenn man erst später zur Arbeit muß :) Am Dienstag, 12. August 2003 22:59 schrieb Dieter Kroemer:
schön einen "altgedienten" Schulserver-Entwickler dabei zu haben - auch wenn die GEE-User bestimmt etwas entsetzt über deinen Weggang sind, die SLSS-User sind mindestens genauso froh über dein Kommen
Danke. Derzeit versuche ich noch beiden "Gemeinden" gerecht zu werden. Insgesammt ist aber auch schon ein Treffen aller Schulserverentwickler (ODS, GEE, SLSS, Scole - evtl. auch BaWü) in Planung - warum sollte "man" das Rad jedesmal neu erfinden? ;-)
Das würde mir am besten gefallen - eine zentrale Stelle für Dokus und andere Downloads ist viel sinnvoller als soviele verschiedene Seiten (wie z.B. beim Arktur).
Sobald Peter wieder zurück ist, werden wir noch eine etwas größere Sitzung bezgl. Schulserver haben. Derzeit habe ich für mich folgende Struktur in Planung: - sämtliche Downloads (Updates, Doku, Blacklist) bleiben in Peters Verzeichnis (ftp://ftp.suse.com/pub/people/varkoly/Schulserver) - ich übernehme das Dokumentieren und den allgemeinen Support für die "Lehrergemeinde" und werde Peter sicherlich einige spezielle Wünsche vorlegen - da bin ich aber auch auf die Hilfe von außen angewiesen ;-) - Evtl. können wir noch eine eigene Webseite mit speziellen Anleitungen (z.B. dem Einrichten von W2k/XP-Computern) und Änderungen erstellen, die dann bei aktuellen Fragen konsultiert werden kann. Das ist allerdings noch Zukunftsmusik und dürfte erst in einigen Monaten brauchbare Resultate zeigen.
Ich komme zwar derzeit nicht an Peters Verzeichnis heran, aber vielleicht ist mein FTP-Verzeichnis auf ftp.suse.com auch in Ordnung?
Aber klar :-)
O.k. Dann werde ich mal die bisherigen Dokumentationen sammeln und dort ablegen. Den Link poste ich, wenn alles fertig ist.
die Blacklist ist z.B. schon recht alt - ich habe sie Peter Varkoly im März einmal geschickt; hier fände ich es sehr gut, wenn die aktuellsten blacklists automatisch (über die crontab oder per Knopfdruck) heruntergeladen werden können.
Das Skript von Stefan kenne ich - ich habe es nach kleinen Veränderungen auch schon erfolgreich beim GEE eingesetzt. Mir schwebt insgesammt aber eine Web-Oberfläche für die komplette Administration von SquidGuard vor. Dazu gehören dann auch verschiedene Blacklist-Bereiche, wie das u.a. die Blacklists von SquidGuard, etc. auch vorsehen. Dazu muß allerdings die Konfigurationsdatei angepasst werden - wobei dort dann auch gleich das Mitloggen von erfolgreichen Abwehrversuchen gehören könnte. Die Änderungen in der Konfigurationsdatei sind minimal - evtl. schiebe ich eine solche noch auf den FTP-Server - die Weboberfläche wird allerdings eine Weile dauern, da ich mich erst in die hiesigen Strukturen einarbeiten muß. Summa summarum scheinen sich unsere Wunschlisten also zu decken - schaun'mer mal, was der Weihnachtsmann bringen kann... ;-)
Die Aufbereitung der angesurften Webseiten (z.B. ähnlich wie beim bigbrother-Script von Joachim Deckers http://www.deckers-online.de/arktur/bigbrother.html - vielleicht kennst du das) - in den logfiles nachzusehen, welche Seiten von wem angesurft wurden, macht nicht wirklich Spaß :-(
Schaue ich mir an - evtl. können wir gleich einen Part "Logfiles" in die Weboberfläche integrieren, der für - Samba - Squid - SquidGuard Die Anmeldungen protokolliert und sogar Raum- und Zeitbezogen anzeigen kann - aber ich will nicht zu viel versprechen. (Vor allen Dingen nicht für die 1.0! :)
Dabei wäre auch die Option wunderbar, dass z.B. nur die Seiten (incl. Username) angezeigt würden, die SquidGuard geblockt hat.
Da ist - wie oben geschrieben nur eine kleine Änderung in der squidGuard.conf nötig. Dann schreibt SquidGuard geblockte Anfragen mit allen Informationen in eine extra Datei. Ich werde mir SquidGuard auf dem SLSS mal genauer ansehen und evtl. ein neueres Paket schreiben, dass diese Dinge berücksichtigt. Viele Grüße, Lars
Hallo,
So ein "kurzes" Handbuch wäre zwar auch recht gut, aber gerade bei SquidGuard könnte man noch vieles verbessern - daher gleich mal eine Wunschliste von mir
die Blacklist ist z.B. schon recht alt - ich habe sie Peter Varkoly im März einmal geschickt; hier fände ich es sehr gut, wenn die aktuellsten blacklists automatisch (über die crontab oder per Knopfdruck) heruntergeladen werden können.
Für Arktur haben wir (Medienzentrum Oberberg) mal eine solche Möglichkeit gebaut: Es werden die Listen von drei Servern abgefragt und dann wird squidguard automatisch geupdated. Weiterhin haben wir eine Möglichkeit, online die Liste selbst zu ergänzen (passwortgeschützt), wobei die Änderungen beim nächsten Update dann automatisch eingebaut werden; das erspart unerfahrenen Usern die Bastelei an den *diff-Dateien. Hier kann man sich die Anleitung und die Skripte laden: www.medienzentrum-oberberg.de -> Arktur -> Anleitungen
Weiterhin wäre meiner Meinung für SquidGuard nach wichtig, dass man bestimmte Seiten über die Web-Oberfläche sperren bzw. freigeben kann. Hierzu sollte man nicht extra an die Konsole wechseln müssen. Insbesondere das Freigeben ist wichtig, da es schon öfters vorgekommen ist, dass in einer neuen Blacklist z.B. www.google.de(com) gesperrt war.
Das wäre natürlich super und viel besser als unsere Variante (s.o.). Meiner Erfahrung nach muss man aber nach einem solchen Update den squid-cache ganz leeren und neu aufbauen, damit die Seiten nicht noch einmal aus dem cache zu laden sind; das haben wir in dem Update-Skript eingebaut. Sicherlich ist Stephan Dreisbach, der die Skripte geschrieben hat, gerne bereit, sich auch selbst dazu zu äußern. Er ist aber nicht in dieser Liste, E-Mail: dreisbach@medienzentrum-oberberg.de Nach meinem Urlaub (wieder ab dem 25.8., s.u.) kann ich mich auch selbst mal drum kümmern, falls hier Fragen sind.
Und ein (im Moment) letzter Wunsch - und wie ich meiner Tochter oft sage: wünschen darfst du dir so viel du möchtest ;-) Die Aufbereitung der angesurften Webseiten (z.B. ähnlich wie beim bigbrother-Script von Joachim Deckers http://www.deckers-online.de/arktur/bigbrother.html - vielleicht kennst du das) - in den logfiles nachzusehen, welche Seiten von wem angesurft wurden, macht nicht wirklich Spaß :-(
Auch hier haben wir (Medienzentrum Oberberg) was: In der Anleitung "Rumtreiber" ist ein Skript, das die Versuche, von squidguard gesperrte Seiten aufzurufen, aus den Logdateien ausliest und dann auf Wunsch dem Admin per E-Mail schickt. Das ersetzt aber nicht die Funktionen der Decker-Skripte, die ja einen Protokollauszug aller angesurften Seiten bequem darstellt. Dieses Feature ist meiner Meinung nach für einen Schulserver unbedingt nötig! (Bitte hier keine Diskussion über Datenschutz und Freiheiten der Schüler... Das ist in anderen Listen schon zur mehr als ausreichend getan worden.)
Dabei wäre auch die Option wunderbar, dass z.B. nur die Seiten (incl. Username) angezeigt würden, die SquidGuard geblockt hat.
Rechnerbezogen macht das das Skript, dass man unter "Rumtreiber" (s.o.) laden kann. Man sollte das mit identd oder ähnlichem (von mir aber noch nicht getestet) auch userbezogen machen können. Grüße, Sigurd, der sich zurzeit im Urlaub befindet aber als "E-Mail-Junkie" ohne sein Notebook nicht leben kann ;-) - aber trotzdem nicht jeden Tag online geht.
Hallo
die Blacklist ist z.B. schon recht alt - ich habe sie Peter Varkoly im März einmal geschickt;
Ist jetzt mit den Daten vom Bürgernetz Pfaffenhofen aktualisiert und liegt hier: ftp://ftp.suse.com/pub/people/lrupp/schoolserver/blacklists/blacklists.tgz - Herunterladen und ins Verzeichnis /var/squidGuard/db verschieben: mv <irgendwo>/blacklists.tgz /var/squidGuard/db/ - entpacken mit tar -xvzf /var/squidGuard/db/blacklists.tgz - neue Datenbank von SquidGuard erzeugen lassen: /usr/sbin/squidGuard -C all - Squid die Konfiguration neu einlesen lassen rcsquid reload
hier fände ich es sehr gut, wenn die aktuellsten blacklists automatisch (über die crontab oder per Knopfdruck) heruntergeladen werden können.
Ich überarbeite gerade ein Skript vom Bürgernetz Pfaffenhofen, damit das später auch mit einer Weboberfläche vernünftig funktioniert. Wenn hier nicht wieder lauter Beta-Tests dazwischen kommen wird zumindest die Grundfunktionalität Ende der Woche fertig sein. Dafür muß dann allerdings die squidguard.conf ausgetauscht werden. und die bisherigen Blacklists dürften dann nicht mehr funktionieren. Ich werde aber einen Ordner "custom" mit den Unterordnern "good" und "bad" vorsehen, damit weiterhin jeder selbst Seiten sperren oder freigeben kann.
Stefan Furtmayr hat hierfür auch schon ein Script geschrieben
Angesehen und für gut befunden. Allerdings würde ich später die Administration gern über eine Weboberfläche machen. Für Webmin gibt es dafür ein Zusatzmodul - vielleicht gelingt es mir, das Beste beider Welten zu vereinen. Viele Grüße, Lars
participants (3)
-
Dieter Kroemer
-
Lars Rupp
-
Sigurd Mahr