Hallo Manfred, nochmals danke für Deine Antwort. Am Donnerstag, 6. Januar 2005 21:29 schrieb Manfred Tremmel:
Am Donnerstag, 6. Januar 2005 18:59 schrieb Andreas Mantke:
Hallo Manfred,
einheitliche Codec Schnittstelle unter Linux, Du kannst also nicht avifile Dateiformate in MPlayer mitnutzen, oder MPlayer in xine oder ...
Geht das denn in einer anderen Systemumgebung? Ich vermute mal, daß
Gute Frage, beim Amiga gabs DataTypes, die Systemweit Dateiformate bekannt gemacht haben (Bilder-, Audio-, Video-, Hypertext- und weiß der Geier was für Formate noch alles). Nach Installation eines DataTypes konnten dann alle Programme mit dem Format umgehen, die die DataType Schnittstelle verwendeten.
Das wäre für die Zukunft eine gute Perspektive, wenn man sich auf ein gemeinsames Format der Codecs einigen könnte und alle Programme dann dadrauf zugreifen könnten. Das m.E. wäre ein entscheidender Vorteil auch gegenüber anderen Betriebssystemen. (...)
Ich kenne Windowsinterna zu wenig um beurteilen zu können, wie das da abläuft. Ich hatte nie eins und kann auch gut verzichten.
Da könnte ich gut drauf verzichten. Aber ich muß mich im Moment mit beiden Systemen auseinander setzen. Und manche Sachen, die ich gerade ausprobiere laufen - nach dem was ich feststellen mußte - nur unter Windows und scheinen für Linux noch nicht fertig zu sein. Aber nach dem was ich gelesen habe, kann man unter Win auch nicht Codecs aus mehreren Quellen benutzen.
Ich habe noch das Verzeichnis RealPlayer8/Codecs und das avifile0.7 gefunden, das Du angesprochen hast. Ob libquicktime auch welche enthält, weiß ich jetzt nicht.
Ok.
Das heißt, daß in libquicktime auch welche enthalten sind? (...)
Noch eine weitere Verständnisfrage: Das Dateiformat (z.B. avi) ist als Container zu sehen, in dem dann letztlich der mit dem Komprimier-Dekomprimier-Algorithmus erstellte Inhalt steckt. D.h., auch wenn es nach außen hin ein avi-file ist, kann innen drin völlig anderer Inhalt stecken (mit unterschiedlicher Art und Weise des Komprimierungsverfahrens) und deshalb nur auf dem System abspielbar sein, das den entsprechenden Codecs bereit stellt. So habe ich jedenfalls die Infos verstanden, die ich dazu gelesen habe.
Ich kann da nur zu xine ins Detail gehen. Es gibt da verschiedene Verarbeitungsstufen:
1. Input-Plugin liest die Daten über diverse Quellen (http, file, ...) 2. Demuxer ist für die Erkennung und Bearbeitung des Containerformats zuständig (AVI, Quicktime, ...), er extrahiert daraus die einzelnen Informationen wie Ton und Audiospur heraus. 3. Audio-/Video-Codec, decodiert Audio- bzw. Videodaten 4. Audio-/Video-Ausgabeplugin ist für die Darstellung bzw. Soundausgabe zuständig
Danke für die konkrete Erklärung. Dann habe ich das, was ich gelesen habe, richtig interpretiert. Dann habe ich jetzt das richtige Bild davon. Schönen Abend Andreas -- ## Content Developer OpenOffice.org: lang/DE ## Freie Office-Suite für Linux, Mac, Windows, Solaris ## http://de.openoffice.org ## Meine Seite http://www.amantke.de