Am Dienstag, 9. März 2004 17:17 schrieb Joachim Kalden:
Tatsächlich war hier 16 eingestellt. Aber selbst das Hochsetzen auf 24 (32 macht er wohl nicht, der Xserver schmiert dann ab) brachte nicht viel. Allerding verwundert mich, dass XP mir erzählt, es würde auf TrueCollor, also 32Bit laufen, während ein Xserver mit maximal
TrueColor ist 24 Bit, 32Bit Farbtiefe kann keine marktübliche Grafikkarte darstellen. Der NVidia-Treiber unter Linux verwendet wie XP 24 Farbtiefe, aber 32 Bit pro Pixel werden wegen der besseren Adressierbarkeit verwendet. Die zusätzlichen 8 stehen dann für einen Alphakanal zur Verfügung.
24Bit läuft??? Kennt jemand dieses Problem (nVidia GeForce 4 488 Go) oder hat noch andere Ideen?
Also die Qualität unterscheidet sich durchaus bei den verschiedenen Bildbetrachtern. Ich muss sagen, KDEView liefert hier recht gute Werte. Hardwareskalierung nutzt IMHO keines der üblichen Anzeigeprogramme. Gut MPlayer und xine tun es, aber deren Anzahl unterstützter Bildformate hält sich in Grenzen, ebenso ihre Bedieneigenschaften für Einzelbilder. Die Frage ist, wie äußert sich der Qualitätsunterschied exakt kannst Du nen Screenshot beider Varianten ins Internet stellen? -- Machs gut | http://www.iivs.de/schwinde/buerger/tremmel/ | http://packman.links2linux.de/ Manfred | http://www.knightsoft-net.de