Am Monday 10 January 2011 18:17:22 schrieb Christian Meseberg:
Hallo zusammen,
Christian Meseberg meinte am Montag, den 10.01.2011 um 17:55 Uhr wegen:Codepage Darstellung
Du mußt Deinem Editor sagen, er soll die BOMs interpretieren? Dann machst Du was falsch. Der Sinn ist es ja gerade, dass das transparent passiert, ohne dass Du das extra konfigurieren mußt. Das kann ja sogar Notepad.
Der Standard-Editor ist McEdit und ich habe als Standard Unicode (UFT-8) eingestellt. Ich habe auch andere Codecs probiert aber nichts hilft. Auch andere Editoren, z.B. windows-kompatibel, oder Html bringens nicht.
Sorry, Standard ist MicroEd/PlainText.
-- Beste Grüße Christian
Gut, das Audacious gerade von Helene Fischer [ Von hier bis unendlich ] - 4. Und morgen früh küss ich dich wach spielt :music:
Hallo Alle, Zeichencodierung ist meiner Meinung nach ein sehr vielfältiges Gebiet. Zuerst muss der Ersteller des Textes eine Zeichencodierung verwendet haben, die für andere allgemein zugänglich ist. Mit traditional chinese werden hier in Westeuropa wohl nur wenige was lesen können, wenn das Programm es überhaupt darstellen kann. Zum Zweiten muss das Programm es darstellen können und zum Dritten muss der Benutzer es auch lesen können. In den Urzeiten der Computertechnik gab es EBCDIC (üblich auf Großrechneren in Europa) oder ASCII (American Standard Code for Information Interchange) auf Rechnern in den USA, Midrange Rechnern und PC's. Das war der kleinste gemeinsame Code, mit dem man auskommen konnte. Später wurden dann im deutschen Sprachraum auf PC's die Codes für eckige und geschweifte Klammern etc. für deutsche Umlaute missbraucht. Bis hierher waren das Alles noch Kodierungen, die mit 7 Bit auskamen. Später hat man dann auf Kodierungen mit 8 Bit umgestellt. Unter DOS und Windows die Codepages (437 für USA, 850 für Europa, 864 für Arabisch und Andere). Unix-Systeme haben sich da, glaube ich, etwas mehr Zeit gelassen, um dann direkt auf die ISO-NLS-Zeichenkodierungen umzustellen, die aber auch nur aus 8 Bit bestanden. Mit diesen Zeichenkodierungen konnte man zwar größere Kulturräume zusammenfassen (Westeuropa, Osteuropa, etc. ¿hablamos espanol?), aber immer noch nicht die Menge der in der Welt verwendeten Schriftzeichen. Wenn das umgekehrte Fragezeichen ankommt, dann passt der Zeichensatz für Westeuropa. Da trat dann die Idee von UNICODE auf den Plan, zuerst mit einer Kodierung in 16 Bit, die aber für die Vielfalt auf unserer Erde immer noch nicht reichte. Die Überlegungen mit UNICODE mit einer 32 Bit Darstellung konnten sich wohl auf Grund des Speicherverbrauchs nicht durchsetzen. Also fiel Jemandem ein, eine Darstellung in variabler Länge zu verwenden. Die ASCII-Zeichen waren in den untersten 7 Bit untergebracht und das 8.te Bit diente als Markierung, das da noch was nachkommt. Und so kann man das mit jedem folgenden Byte auch machen, sprich Zeichenkodierung ohne Ende. Das ist UTF8. Aber zwei Probleme bleiben uns immer noch erhalten: Kann unser System diese Zeichen auch darstellen (z.Bsp.: haben wir die passenden Fonts installiert, etc)? Können wir diese Zeichen auch lesen? Ich verwende hier für $LANG de_DE.UTF8, damit sollten die gängigen Programme eine deutsche Tastatur erwarten, eine deutsche Grammatik zur Prüfung verwenden und die Zeichen in UTF8 abspeichern. Und bei jemandem, der sein System auf japanisch eingestellt hat, werden die Zeichen hoffentlich dargestellt; ob er sie aber lesen kann ??? Tschö, Emil -- Registered Linux User since 19940320 -------------------------------------------------- Emil Stephan, Marktplatz 39, 53773 Hennef, Germany voice: +49-2242-84438 Accelerate Windows: 9.81 m/sec^2 would be adequate -- Um die Liste abzubestellen, schicken Sie eine Mail an: opensuse-de+unsubscribe@opensuse.org Um eine Liste aller verfuegbaren Kommandos zu bekommen, schicken Sie eine Mail an: opensuse-de+help@opensuse.org