* On Tue, 12 Mar 2002 at 15:26 +0100, Michael Raab wrote:
in Zusammenhang mit der Videowiedergabe frage ich mich, mit welcher Farbtiefe man am besten fährt.
Bei welcher Farbtiefe muss die CPU am meisten ackern ? 24 Bit oder 16 Bit ?
Momentan habe ich eine Auflösung von 1280 x 1024 24 Bit Farbtiefe. Probeweise habe ich mal auf 16 Bit eingestellt, aber keinen sichtbaren unterschied feststellen können.
Ein genaue Empfehlung kann ich Dir da nicht geben. Hängt von der Grafikkarte, Deiner X-Version, Deinem Player und zu guter Letzt vom Video ab. Wenn es Dein System unterstützt, daß die Videodaten im YV12- oder YUY2-Format[1] übertragen werden, so kannst Du ohne Probleme 24 oder 32 Bit[2] verwenden. Die Daten werden dabei erst vom Prozessor der Grafikkarte endgültig in RGB gewandelt und skaliert. IIRC unterstützen die meisten Grafikkarten das, wie es allerdings treibermäßig aussieht, kann ich Dir nicht genau sagen. Ich verwende eine Matrox G450 und MPlayer; die zwei spielen perfekt zusammen. Sieh Dir die Ausgabe von xvinfo an, darin sollten Hinweise enthalten sein, wie es mit der Unterstützung aussieht. Wenn Du keine Unterstützung hast - bei 16 Bit sind weniger Daten zu transportieren, allerdings muß möglicherweise das Video konvertiert werden. Oer anders: Ich weiß es auch nicht genau, sieh Dir einfach die CPU-Auslastung während dem Videoabspielen an. [1] AFAIK: Es werden nicht die voll decodierten Pixel mit 24 Bit Farbtiefe übertragen, sondern unterschiedlich stark gewichtet Farbe und Helligkeit (IIRC auch als Chrominanz und Luminanz bezeichnet) [2] Bei 32 Bit sind nur 24 Bit sinnvolle Informationen, allerdings tut sich der Prozessor weit leichter, weil pro Pixel nur genau ein Speicherzugriff benötigt wird (32_bit x86-Architektur vorausgesetzt). Bei 24 Bit werden für 50% der Pixel 2 Zugriffe benötigt. Da hats zwar früher mal Probleme gegeben, aber das ist mittlerweile Geschichte. -- Adalbert PGP welcome, request public key: mailto:adalbert+key@lopez.at