Después de analizar el problema de la codificación he visto que los 2 problemas que hay en SUSE son los siguientes: 1. La detección automática de la codificación no va. Creo que para hacerla que fuera eficiente, deberia SuSE obtener algun sistema de detección del idioma origen de forma inteligente. Porque ayuda bastante saber el idioma origen del documento, para detectar la codificación. Sobretodo en idiomas con acentos, como el francés y el espanyol y el catalan Hay otra manera más facil, que las codificaciones iso, ubican los acentos en unas posiciones unicas respecto a las otras codificaciones. Por lo que con mirar si en el contenido abundan unos, u otros códigos, se puede detectar facilmente. 2. La conversión no tiene vuelta atrás. Cuando se codifica en utf-8, se ignoran los códigos erróneos al no haber usado una codificación correcta. Són erróneos porque superan los 2 bytes habituales del unicode, o incluso los 4 bytes despúes de intentar desempaquetar el código que no era utf-8 si no (iso-8859-x). Al leer un texto escrito en iso-8859-x como si fuera un formato utf-8 (al no haber funcionado la detección) cuando finalmente lo guardas como formato utf-8, estos códigos erróneos desaparecen, con lo que no hay una vuelta atrás para recuperar los acentos, porque han desaparecido. Entonces se deberia impedir leer un documento como utf-8 si el formato no es correcto, o bien buscar un código especial en utf-8 para guardar la información errónea de otra codificación. Yo creo que lo práctico es impedir abrir un fichero como utf-8 si da códigos erróneos, y aprovechar que los da en la autodetección de utf-8. No se si te servirá de ayuda, pero en fin. Mas vale probar suerte. Urbez. -- ################################################ #- Urbez Santana i Roma - #- Email: urbez@linuxupc.upc.es #- Private Web: http://linuxupc.upc.es/~urbez/ ################################################