El 21/03/08, Carlos E. R. escribió:
Sí había limitación de hardware. Unos cuanto kb era lo máximo que podían poner, y tenías que ser de la CIA o la NASA para conseguirlos.
Tú no has visto las placas de memoria de ferrita, tamaño A3 para un cuarto de kilobyte.
Hay que aprovechar al máximo los recursos disponibles. La memoria era escasa pero no inexistente. Y hay, lo que llama, "prioridades". Ese error fue, claramente, un error "humano", falta de visión o "mente de programador" (centrada en un objetivo) que les llevó a valorar de una forma errónea el significado real de lo que estaban haciendo. Mira, la wiki lo explica perfectamente en el artículo del Y2K: *** http://en.wikipedia.org/wiki/Y2k "(...) the first person known to publicly address the problem was Bob Bemer who had noticed it in 1958, as a result of work on genealogical software. He spent the next twenty years trying to make programmers, IBM, the US government and the ISO aware of the problem, with little result. This included the recommendation that the COBOL PICTURE clause should be used to specify four digit years for dates. This could have been done by programmers at any time from the initial release of the first COBOL compiler in 1961 onwards. However, lack of foresight, the desire to save storage space, and overall complacency prevented this advice from being followed." *** Pobre Bob... intentando explicar a los programadores ¡que estaban equivocados! :-) "Falta de visión, deseo de ahorrar espacio..." Hum, qué raro, no dice nada de "memoria físicamente no disponible" >:-)
Al contrario, era una decisión lógica de uso eficiente de los materiales existentes.
Una decisión lógica, no, yo diría más bien "arbitraria", donde no se valoró más que una variable: la memoria. Ese fue el gran error.
Pues eso, se quita del siglo, que este ordenador no va a durar tanto.
Premisas, todas ellas, que el tiempo ha demostrado que eran incorrectas. Hay que ser (o intentar ser) "globales" -y no sólo en informática-, hay que prever no el "hoy" ni el "ahora", sino ir más allá del momento actual porque no sabes qué puede pasar ni cómo se van a desarrollar las cosas: esa es la belleza del orden... y del caos. "El aleteo de una mariposa en Hong Kong puede desatar una tormenta en Nueva York..." Creo que la informática en general debería desarrollar un pensamiento más científico para poder interactuar de una forma más precisa con el entorno que la rodea... sería más efectiva... sería casi, perfecta.
No, la gestión original era correcta para los recursos que tenían.
Según esa teoría, nunca existiría el error :-): siempre se trabaja en base a lo que se conoce, eso es obvio, pero disponer de datos "limitados" no te exime -ni justifica- el fracaso. Hay que "saber (o aprender a) prever".
En el caso de los discos duros el fallo de los sectores está previsto. Hay por ahí una probabilidad estadística que te da la tasa de sectores fallados por cuestiones como simple ruido estadístico.
¿Y no hay por ahí alguna directriz que indique qué hacer en caso de fallo? >:-)
No se ignora.
No, bueno... lo parcheas :-) Pero ¿cómo evaluas la efectividad del parche?
No, no es suerte. Sólo se cuelga cuando el sector en cuestión contiene un fichero imprescindible. Tiene que darse una serie de circunstancias para producir el cuelgue, no basta con tener un error de lectura.
Todo eso que acabas de decir, es, precisamente, lo que se considera como "suerte": suerte. (Del lat. sors, sortis). Encadenamiento de los sucesos, considerado como fortuito o casual :-P
Porque en cada prueba aumenta >:-)
Un error fortuito es una cosa. Un error que va aumentando es otra muy distinta.
También aumenta de 1 a 2, o de 2 a 5... ¿En qué dato científico, lógico, comparable y reproducible basas, pues, tu decisión de que el 6 es "la hora de cambiar de disco"? >:-) Saludos, -- Camaleón --------------------------------------------------------------------- Para dar de baja la suscripción, mande un mensaje a: opensuse-es+unsubscribe@opensuse.org Para obtener el resto de direcciones-comando, mande un mensaje a: opensuse-es+help@opensuse.org