On Tuesday 16 December 2008 05:20:16 Rafa Grimán wrote:
Hola :)
Jo, vamos para largo, ¿no? ^-^ <snip>
Y es que las máquinas todavía andan. ¿Todavía hay thin clients? o ¿fue una moda?
Depende del cliente. En entornos "seguros" sí se usan porque evitan que los usuarios puedan robar datos.
Solo en esos casos. Pensé que ofrecían otras ventajas, menor costo, mejor mantenimiento, menor costo de mantenimiento. =/ por aquí abundan los equipos desktop, inclusive para la secretaria que tiene que escribir en word o usar el excel y mandar emails.. y jugar solitario. Mientras el practicante se curte el lomo (opss, mi misantropía otra vez). =P <snip>
En el caso de Linux hay bastante código desarrollado con hebras/threads (incluso a nivel de escritorio). En el tema de paralelización o multihilo o SMP o como se quiera llamar es complejo por varias razones:
- no es fácil de programar ya que hay que controlar muy bien las variables (y sus valores), evitar race conditions, bucles infinitos, los workflows son muy complejos, ...
- no es fácil depurar
Por eso mucha gente le tiene miedo o cuesta tanto, salen aplicaciones muy de vez en cuando, ...
Es decir no hay un método adecuado para programar y tampoco un lenguaje de programación que pueda subsanar esas dificultades. Ojala lo de Apple salga bien. Si es que no hay alguna otra opción, claro. Al menos en lo que voy leyendo no hay mucha actividad para optimizar más lo que es 64 bits. Al menos no en el nivel doméstico. =/ Info de la arquitectura de 64 bits http://en.wikipedia.org/wiki/64_bit desde 1960... y actualmente no se utilizan los 64 bits, se usan 48 =/ Incluye una descripción de los modelos de datos: http://en.wikipedia.org/wiki/64_bit#64-bit_data_models y hablan de C y C++ <snip>
Lo de "necesitar" es algo muy subjetivo. Por ejemplo, yo en mi casa no "necesito" los 64 bits, pero mi hermano sí (3D, edición de vídeo y audio, postproducción y esas cosas) porque le viene bien eso de acceder a mucha memoria (entre otras cosas), de ahí que tenga un Mac ;)
En el caso de clientes con grandes bases de datos, CAD/CAM/CAE, CFD, simulaciones, investigaciones científicas, ... Hoy en día _SÍ_ lo necesitan ya que el volumen de datos que se manejan son inmensos y los tiempos de respuesta esperados tienden a cero.
Otro ejemplo es en el mundo de los juegos: cuanta más RAM tengas, mejor que mejor y si la CPU es potente ... mejor qu emejor :)
O.O? el nuevo chip de intel vuelve a usar HT, me parece. Luego, que se disponga de una calidad de maquina mejor subsana algunos problemas. Mayor velocidad para el acceso a memoria, velocidad de bus para acceso a la tarjeta de vídeo discreta (no integrada, algunos quieren jugar Crysis en integradas.) Pero luego están las consolas de juegos y... me parece que antes los juegos salían para la PC primero, pero ahora eso se invierte. Todavía ha salido nada como los wiimote para la PC. La PC ya no es mercado objetivo para los juegos.
Pra atrabajo ofimático no es necesario, para navegar por Inet tampoco, pero sí hay determinados mercados que lo necesitan porque no puedes conseguir resultados en el tiempo esperado sin la tecnología de 64 bits: requieren grandes cantidades de memoria, el número de variables es ingente, el volumen de datos en disco es abismal (acabo de ver un correo de un cliente que tiene más de 300 millones de ficheros, por ejemplo) y eso no se mueve con 32 bits.
En resumen, para el mercado domestico no se necesita 64bits.
De 6 años hacia aquí, los 64 bits han creado una dependencia en muchos entornos porque pedimos una calidad y un tiempo de respuesta determinado habiendo un incremento exponencial en el volumen de dlos datos.
Un ejemplo de esto son los clientes del mundo del diseño de automóviles. Cuando se empezaron a simular choques con coches, se simulaba lo que le ocurría a una parte muy concreta del parachoques ... pasó el tiempo y hoy se simula lo que les ocurre a tus órganos en caso de un choque. Imagínate el volumen de datos que se manejan en tiempo real para simular todo ese sistema: coche + persona + órganos.
No creo que esos sistemas usen windows. Es un entorno industrial, usan cámaras de alta velocidad y variedad de sensores, no tantos como el LHC, pero si tienen mucho trabajo, pero los datos de los sensores se calculan en gráficas de curvas. Hay nada como un sistema VAX (http://en.wikipedia.org/wiki/VAX 32bits en la década de los 70s, ¿que os parece?) pero puesto para sistemas actuales. Su hubiera la etiqueta <s>, la línea anterior se tacharía.
Tal vez los fabricantes de chips se han adelantado demasiado. Ya han pasado tantos años desde que se introdujo.. ya van ¿4? ¿5? (Digo actividades de oficina y domésticas)
Usan Cobol, piden Cobol... .net tiene una gran cola con el pasado (a diferencia de lo que usa Apple). No hay juegos 64 bits. Los marcianos nos van a encontrar con software de 32 bits todavía. =P
No estoy tan de acuerdo contigo. En el caso de los juegos (y del mundo 3D), hay parte del código que se ejecuta en CPU y otra parte en GPU, cada vez se usan más polígonos para "dibujar" los objetos, cada vez se pide más realismo (tanto de imagen como de física: caída de objetos, trayectorias de balas, saltos, pesos, ...) y cada vez se requiere más RAM. Los 32 bits en ese tipo de escenarios (mundos/juegos 3D) se quedan muy limitados.
También han incrementado el número de consolas (y sus usos, tienen netflix para ver pelis), los juegos y su presencia en el mercado. Si bien mi consideración es muy parcial, puesto que no cabe en mi la idea de adquirir un ordenador para darle al bioshock o al crysis (Están disponibles para las consolas), pero tampoco hay que descartar los nuevos participantes en el mercado de juegos. (Tampoco tengo consolas =/)
Otro ejemplo dentro del mundo de 3D es el tema de ray traycing, el renderizado de una escena no es más que ray traycing: CPU puro y duro.
¿Vectores? Hay dos métodos: http://en.wikipedia.org/wiki/Ray_tracing física y gráficos. Dándole un vistazo rápido, veo por que usan superordenadores para análisis de sismos y del clima. Ray traycing en gráficos para fotorealismo y efectos visuales, no posible en aplicaciones de tiempo real (juegos)... hmm algo confuso el artículo pues dice que no es posible en tiempo real pero luego dice que si, y muestra una considerable lista de resultados y software (algunos opensource ;) ahí esta Blender) Es un campo muy amplio, no entiendo por que a SGI le fue mal. =/ <snip>
Se estarán preparando para ofrecer soluciones con ellas ¿no? ;)
Nosotros concretamente no, nuestro mundo no son los netbooks y si los hiciésemos ... serían muy grandes ;)
-_- Si, ahí confundí. Ustedes no tienen como cliente objetivo el mercado doméstico. <snip>
En el caso de servidores web, un cluster es muy sencillo ya que lo que se ofrece es balanceo de carga y alta disponibilidad, luego no hay paso de mensajes, no se transfieren datos necesarios de unos a otros.
En el caos de sus bases de datos, lo que se está usando es BBDD basados en columnas y no en registros (filas). Es mucho más eficiente y hay menos paso de mensajes entre una máquina y otra. Un cluster de BBDD es útil hasta unos 8 nodos más o menos. En el caso de estas BBDD funcionan bien porque no hay mucho paso de mensajes (si las comparamos con RDBMS tradicionales). Pero (y lo dicen los propios fabricantes y admins de estas BBDD), lo ideal es que que se ejecute en una única máquina ya que toda la comunicación se hace en RAM y no en Ethernet o Infiniband.
En el caso de un rederfarm lo del cluster es la mejor solución, no hay prácticamente paso de mensajes ya que:
1.- el nodo de render se comunica con el head node y le dice que está libre
2.- el head node le pasa una escena/trabajo/... a renderizar al nodo de render
3.- el nodo de render se pone a renderizar (dependiendo de la escena, calidad, ...) puede estar hasta varias horas renderizando
4.- el nodo de render le envía al head node el fotograma
El paso 3 puede ser muy largo por lo que no hay casi tráfico de red, aquí un render farm es algo maravilloso :)
The Death Star (http://en.wikipedia.org/wiki/Death_Star_(ILM)), aunque creo que esa ya es una máquina algo antigua. Sin embargo creo recordar que hay empresas que alquilan sus sistemas. Sun, Amazon... cuestión de tener la pasta, poner los datos y sacar los resultados: http://en.wikipedia.org/wiki/Sun_Grid
Otros escenarios son los clusters de alta disponibilidad y de balanceo de carga (suelen ir juntos aunque no necesariamente), como es el caso de servidores web, correo, ftp, servidores de ficheros (si alguien tiene interés y quiere ir preparándose para el futuro, que se ponga a estudiar pNFS).
Solo he visto lans =P Seria interesante ordenar todo esto para los jóvenes que están estudiando informática. =)
Rafa
-- "We cannot treat computers as Humans. Computers need love."
rgriman@skype.com
-- Carlos A. -- Para dar de baja la suscripción, mande un mensaje a: opensuse-es+unsubscribe@opensuse.org Para obtener el resto de direcciones-comando, mande un mensaje a: opensuse-es+help@opensuse.org