Mailinglist Archive: opensuse-es (1576 mails)

< Previous Next >
Re: [opensuse-es] openSUSE 11.1 launch party
  • From: Shinji Ikari <darkwildkat@xxxxxxxxx>
  • Date: Tue, 16 Dec 2008 13:51:04 -0500
  • Message-id: <200812161351.04646.darkwildkat@xxxxxxxxx>
On Tuesday 16 December 2008 05:20:16 Rafa Grimán wrote:
Hola :)

Jo, vamos para largo, ¿no? ^-^

<snip>

Y es que las máquinas todavía andan. ¿Todavía hay thin clients? o ¿fue
una moda?

Depende del cliente. En entornos "seguros" sí se usan porque evitan que los
usuarios puedan robar datos.

Solo en esos casos. Pensé que ofrecían otras ventajas, menor costo, mejor
mantenimiento, menor costo de mantenimiento. =/ por aquí abundan los equipos
desktop, inclusive para la secretaria que tiene que escribir en word o usar el
excel y mandar emails.. y jugar solitario. Mientras el practicante se curte el
lomo (opss, mi misantropía otra vez). =P

<snip>

En el caso de Linux hay bastante código desarrollado con hebras/threads
(incluso a nivel de escritorio). En el tema de paralelización o multihilo o
SMP o como se quiera llamar es complejo por varias razones:

- no es fácil de programar ya que hay que controlar muy bien
las variables (y sus valores), evitar race conditions,
bucles infinitos, los workflows son muy complejos, ...

- no es fácil depurar

Por eso mucha gente le tiene miedo o cuesta tanto, salen aplicaciones muy
de vez en cuando, ...

Es decir no hay un método adecuado para programar y tampoco un lenguaje de
programación que pueda subsanar esas dificultades. Ojala lo de Apple salga
bien. Si es que no hay alguna otra opción, claro.
Al menos en lo que voy leyendo no hay mucha actividad para optimizar más lo
que es 64 bits. Al menos no en el nivel doméstico. =/

Info de la arquitectura de 64 bits
http://en.wikipedia.org/wiki/64_bit
desde 1960... y actualmente no se utilizan los 64 bits, se usan 48 =/
Incluye una descripción de los modelos de datos:
http://en.wikipedia.org/wiki/64_bit#64-bit_data_models
y hablan de C y C++

<snip>

Lo de "necesitar" es algo muy subjetivo. Por ejemplo, yo en mi casa
no "necesito" los 64 bits, pero mi hermano sí (3D, edición de vídeo y
audio, postproducción y esas cosas) porque le viene bien eso de acceder a
mucha memoria (entre otras cosas), de ahí que tenga un Mac ;)

En el caso de clientes con grandes bases de datos, CAD/CAM/CAE, CFD,
simulaciones, investigaciones científicas, ... Hoy en día _SÍ_ lo necesitan
ya que el volumen de datos que se manejan son inmensos y los tiempos de
respuesta esperados tienden a cero.

Otro ejemplo es en el mundo de los juegos: cuanta más RAM tengas, mejor que
mejor y si la CPU es potente ... mejor qu emejor :)

O.O? el nuevo chip de intel vuelve a usar HT, me parece. Luego, que se
disponga de una calidad de maquina mejor subsana algunos problemas. Mayor
velocidad para el acceso a memoria, velocidad de bus para acceso a la tarjeta
de vídeo discreta (no integrada, algunos quieren jugar Crysis en integradas.)
Pero luego están las consolas de juegos y... me parece que antes los juegos
salían para la PC primero, pero ahora eso se invierte.
Todavía ha salido nada como los wiimote para la PC. La PC ya no es mercado
objetivo para los juegos.

Pra atrabajo ofimático no es necesario, para navegar por Inet tampoco, pero
sí hay determinados mercados que lo necesitan porque no puedes conseguir
resultados en el tiempo esperado sin la tecnología de 64 bits: requieren
grandes cantidades de memoria, el número de variables es ingente, el
volumen de datos en disco es abismal (acabo de ver un correo de un cliente
que tiene más de 300 millones de ficheros, por ejemplo) y eso no se mueve
con 32 bits.

En resumen, para el mercado domestico no se necesita 64bits.

De 6 años hacia aquí, los 64 bits han creado una dependencia en muchos
entornos porque pedimos una calidad y un tiempo de respuesta determinado
habiendo un incremento exponencial en el volumen de dlos datos.

Un ejemplo de esto son los clientes del mundo del diseño de automóviles.
Cuando se empezaron a simular choques con coches, se simulaba lo que le
ocurría a una parte muy concreta del parachoques ... pasó el tiempo y hoy
se simula lo que les ocurre a tus órganos en caso de un choque. Imagínate
el volumen de datos que se manejan en tiempo real para simular todo ese
sistema: coche + persona + órganos.

No creo que esos sistemas usen windows. Es un entorno industrial, usan cámaras
de alta velocidad y variedad de sensores, no tantos como el LHC, pero si
tienen mucho trabajo, pero los datos de los sensores se calculan en gráficas
de curvas.
Hay nada como un sistema VAX (http://en.wikipedia.org/wiki/VAX 32bits en la
década de los 70s, ¿que os parece?) pero puesto para sistemas actuales. Su
hubiera la etiqueta <s>, la línea anterior se tacharía.

Tal vez los fabricantes de chips se han adelantado demasiado. Ya han
pasado tantos años desde que se introdujo.. ya van ¿4? ¿5?
(Digo actividades de oficina y domésticas)

Usan Cobol, piden Cobol... .net tiene una gran cola con el pasado (a
diferencia de lo que usa Apple). No hay juegos 64 bits. Los marcianos nos
van a encontrar con software de 32 bits todavía. =P

No estoy tan de acuerdo contigo. En el caso de los juegos (y del mundo 3D),
hay parte del código que se ejecuta en CPU y otra parte en GPU, cada vez se
usan más polígonos para "dibujar" los objetos, cada vez se pide más
realismo (tanto de imagen como de física: caída de objetos, trayectorias de
balas, saltos, pesos, ...) y cada vez se requiere más RAM. Los 32 bits en
ese tipo de escenarios (mundos/juegos 3D) se quedan muy limitados.

También han incrementado el número de consolas (y sus usos, tienen netflix
para ver pelis), los juegos y su presencia en el mercado. Si bien mi
consideración es muy parcial, puesto que no cabe en mi la idea de adquirir un
ordenador para darle al bioshock o al crysis (Están disponibles para las
consolas), pero tampoco hay que descartar los nuevos participantes en el
mercado de juegos. (Tampoco tengo consolas =/)

Otro ejemplo dentro del mundo de 3D es el tema de ray traycing, el
renderizado de una escena no es más que ray traycing: CPU puro y duro.

¿Vectores?
Hay dos métodos: http://en.wikipedia.org/wiki/Ray_tracing
física y gráficos. Dándole un vistazo rápido, veo por que usan
superordenadores para análisis de sismos y del clima.
Ray traycing en gráficos para fotorealismo y efectos visuales, no posible en
aplicaciones de tiempo real (juegos)... hmm algo confuso el artículo pues dice
que no es posible en tiempo real pero luego dice que si, y muestra una
considerable lista de resultados y software (algunos opensource ;) ahí esta
Blender)

Es un campo muy amplio, no entiendo por que a SGI le fue mal. =/

<snip>

Se estarán preparando para ofrecer soluciones con ellas ¿no? ;)

Nosotros concretamente no, nuestro mundo no son los netbooks y si los
hiciésemos ... serían muy grandes ;)

-_- Si, ahí confundí. Ustedes no tienen como cliente objetivo el mercado
doméstico.
<snip>

En el caso de servidores web, un cluster es muy sencillo ya que lo que se
ofrece es balanceo de carga y alta disponibilidad, luego no hay paso de
mensajes, no se transfieren datos necesarios de unos a otros.

En el caos de sus bases de datos, lo que se está usando es BBDD basados en
columnas y no en registros (filas). Es mucho más eficiente y hay menos paso
de mensajes entre una máquina y otra. Un cluster de BBDD es útil hasta unos
8 nodos más o menos. En el caso de estas BBDD funcionan bien porque no hay
mucho paso de mensajes (si las comparamos con RDBMS tradicionales). Pero (y
lo dicen los propios fabricantes y admins de estas BBDD), lo ideal es que
que se ejecute en una única máquina ya que toda la comunicación se hace en
RAM y no en Ethernet o Infiniband.

En el caso de un rederfarm lo del cluster es la mejor solución, no hay
prácticamente paso de mensajes ya que:

1.- el nodo de render se comunica con el head node y le dice
que está libre

2.- el head node le pasa una escena/trabajo/... a renderizar
al nodo de render

3.- el nodo de render se pone a renderizar (dependiendo de la
escena, calidad, ...) puede estar hasta varias horas
renderizando

4.- el nodo de render le envía al head node el fotograma

El paso 3 puede ser muy largo por lo que no hay casi tráfico de red, aquí
un render farm es algo maravilloso :)

The Death Star (http://en.wikipedia.org/wiki/Death_Star_(ILM)), aunque creo
que esa ya es una máquina algo antigua.
Sin embargo creo recordar que hay empresas que alquilan sus sistemas. Sun,
Amazon... cuestión de tener la pasta, poner los datos y sacar los resultados:
http://en.wikipedia.org/wiki/Sun_Grid


Otros escenarios son los clusters de alta disponibilidad y de balanceo de
carga (suelen ir juntos aunque no necesariamente), como es el caso de
servidores web, correo, ftp, servidores de ficheros (si alguien tiene
interés y quiere ir preparándose para el futuro, que se ponga a estudiar
pNFS).

Solo he visto lans =P
Seria interesante ordenar todo esto para los jóvenes que están estudiando
informática. =)


Rafa

--
"We cannot treat computers as Humans. Computers need love."

rgriman@xxxxxxxxx

--
Carlos A.
--
Para dar de baja la suscripción, mande un mensaje a:
opensuse-es+unsubscribe@xxxxxxxxxxxx
Para obtener el resto de direcciones-comando, mande
un mensaje a:
opensuse-es+help@xxxxxxxxxxxx

< Previous Next >
Follow Ups