Hallo Martin, Am Mon, den 05.01.2004 schrieb Martin M=?ISO-8859-1?B?/A==?=ller - Hausstein-Druck um 19:46:
Hmm. Ich habe jetzt die Diskussion gespannt verfolgt und doch verwirrt mich jetzt diese Aussage. Der Gentoo-Rechner muss doch nicht wegen eines Recompile vom Netz, oder?
Nein. Das ist totaler Schwachsinn. Wenn Du kompilierst, dann wird zwar Deine CPU ausgelastet, aber Du kannst ganz normal weiter arbeiten. Wenn Du die optimierten Gentoo Quellen für den 2.4er Kernel nimmst, dann merkst Du bei alltäglichen Arbeiten (Musik Hören, CDs brennen, Texte schreiben, Drucken, im Web surfen etc.) gar nicht, dass die CPU ausgelastet ist. Mit "Downtime" meint er eine CPU Auslastung von fast 100%. Für mich ist das erst eine Downtime, wenn damit meine Arbeit am Rechner stark beeinträchtigt ist. Das ist bei einem sauberen Gentoo aber nicht der Fall.
Was meinst du eigentlich mit "kompletten Distribution"? Wegen eines Programmes kompilierst du die ganze Distri neu? Oder meintest du die abhängigen Pakete?
Er übertreibt ein bisschen. Während der Installation kannst Du am Anfang festlegen, wieviel von Deinem System Du auf der Maschine selbst kompilieren willst. Das macht man einmal und kann mit XFree, Gnome, KDE, Mozilla, Evolution, MySQL, Samba, OO usw. durchaus 24 Stunden oder länger dauern. Danach machst Du regelmäßig Updates mit Portage und kompilierst nur das neu, wofür es neue stabile Quellen gibt. Wenn man das regelmäßig macht, dann beansprucht das die CPU für etwa 2 Stunden die Woche maximal im Durchschnitt, abhängig wieviel Software insgesamt zur Verfügung steht. Wenn dann mal ein KDE Update oder OO Update fällig wird, dann dauert sowas länger, aber in der Zeit kannst Du ganz normal weiter arbeiten, weil die alte Software erst vom System verschwindet, wenn die neue drauf ist.
Außerdem denke ich mir dass es wohl reicht 1x im Monat nach Updates zu suchen, außer sicherheitsrelevante Patches (klar).
Ich mache das einmal die Woche. Es ist außerdem ganz spannend, nach einem "emerge sync" zu sehen, ob es neue Software im Baum gibt, die man vielleicht noch nicht kennt.
[1] Doppelprozessorrechner PIII 500, 1G Ram.
Stimmt beim Compilieren das alte Motto "viel (RAM), hilft viel"? Sind 256MB zu wenig oder gibt¹s hier wirklich einen Performanceschub?
Bei c++ Aktionen (weil objektorientiert) wird etwas mehr Speicher verwendet, aber 256MB sehe ich noch nicht als kritisch. Zumal mit zwei Prozessoren und aktuellem gcc der Durchsatz nicht durch die CPUs gebremst wird. Aber mehr RAM hilft eigentlich immer ;-) Ich habe das System damals mit 256MB kompiliert und das Swapfile musste nicht benutzt werden. Jetzt sind 1,25GB drin und der freie Teil im RAM wird zum Cachen der Festplatte benutzt :-) Grüße, Tobias