[opensuse-es] [OT] Tuberías de los sistemas de refrigeración de Google
Saludos, ha pasado tiempo desde que pasé el último OT, pero aquí paso uno simpático: Imágenes de las tuberías utilizadas en los data centers de Google: http://www.designboom.com/technology/where-the-internet-lives-behind-the-sce... No es un artículo técnico, y la fuente tampoco es relevante en el aspecto técnico (es una web para diseñadores industriales y arquitectos), pero creo que les sorprenderá gratamente lo que se muestra y que a diferencia de los lugares donde se trabaja... se pone especial interés en la eficiencia. Y nada más. -- Carlos A. -- Para dar de baja la suscripción, mande un mensaje a: opensuse-es+unsubscribe@opensuse.org Para obtener el resto de direcciones-comando, mande un mensaje a: opensuse-es+help@opensuse.org
El 23 de diciembre de 2012 17:40, Carlos Ayala
Saludos,
ha pasado tiempo desde que pasé el último OT, pero aquí paso uno simpático:
Imágenes de las tuberías utilizadas en los data centers de Google:
http://www.designboom.com/technology/where-the-internet-lives-behind-the-sce...
No es un artículo técnico, y la fuente tampoco es relevante en el aspecto técnico (es una web para diseñadores industriales y arquitectos), pero creo que les sorprenderá gratamente lo que se muestra y que a diferencia de los lugares donde se trabaja... se pone especial interés en la eficiencia.
Estás seguro de lo que decis??? Por lo que veo en las fotos del centro de Iowa, el techo es de chapas galvanizadas acanaladas, sin aislación termica, y eso no veo que sea muy eficiente, a la hora de refrigerar todo lo que está bajo ese techo. Si fuese el de Finlandia, donde el clima es más frío, sería mas justificable. Por lo demás muy lindo el colorinche de las cañerías, y al menos en cuanto al diseño han tenido en cuenta la instalación de uniones elasticas para reducir las tensiones mecánicas de las cañerías, y evitar posibles roturas debido a esas tensiones, cosa que en mis años de mantenimiento en fabricas, no lo había visto. Salu2 -- USA LINUX OPENSUSE QUE ES SOFTWARE LIBRE, NO NECESITAS PIRATEAR NADA Y NI TE VAS A PREOCUPAR MAS POR LOS VIRUS Y SPYWARES: http://www.opensuse.org/es/ Puedes visitar mi blog en: http://jerbes.blogspot.com.ar/ -- Para dar de baja la suscripción, mande un mensaje a: opensuse-es+unsubscribe@opensuse.org Para obtener el resto de direcciones-comando, mande un mensaje a: opensuse-es+help@opensuse.org
2012/12/24 Juan Erbes
El 23 de diciembre de 2012 17:40, Carlos Ayala
escribió: Saludos,
ha pasado tiempo desde que pasé el último OT, pero aquí paso uno simpático:
Imágenes de las tuberías utilizadas en los data centers de Google:
http://www.designboom.com/technology/where-the-internet-lives-behind-the-sce...
No es un artículo técnico, y la fuente tampoco es relevante en el aspecto técnico (es una web para diseñadores industriales y arquitectos), pero creo que les sorprenderá gratamente lo que se muestra y que a diferencia de los lugares donde se trabaja... se pone especial interés en la eficiencia.
Estás seguro de lo que decis???
Yo creo que sí está seguro de lo que dice: nos está pasando un link a una noticia que ha leído.
Por lo que veo en las fotos del centro de Iowa, el techo es de chapas galvanizadas acanaladas, sin aislación termica,
Lo que se ve son las chapas, pero no sabemos si hay o no aislamiento térmico. Es decir: la imagen no es que sea muy buena, no tenemos los planos del edificio, no tenemos fotos de la parte superior, ... Luego no podemos afirmar que no hay aislamiento térmico. Además, las chapas se encuentran en la zona de los chillers, lo cual no es importante. De hecho, hay muchas empresas cuyos chillers están fuera del edificio (entre ellos Google, Facebook, ...). En el caso del CPD o Data Center: cuando yo estaba en SGI y Rackable compró a SGI, Rackable era proveedor de Google, FB, MSN, ... Los racks y servidores se construían de forma que podías poner los servidores back-to-back en un mismo rack de forma que tenías una columna central que recogía el aire caliente, como una chimenea. En la parte superior del rack había un tubo (igual que los extractores de las cocinas) que canalizaba el aire caliente a los chillers. Gracias a esto, el diseño del CPD era distinto a lo que nos dice la lógica: no existe pasillo caliente y pasillo frío, los servidores pueden estar enfrentados, no hay flujos de aire caliente y frío típicamente de CPDs "convencionales", ... También hay que tener en cuenta que estos CPDs también utilizan puertas de refrigeración líquida, contenedores, ... Como podemos observar en algunas de las imágenes. Por lo que no nos vale la "lógica tradicional" y la comparación con otros CPDs. Otra cosa a tener en cuenta es la altura de los techos: recordemos que el aire caliente sube. Si ves los grandes CPDs: suelen tener los techos bastante altos.
y eso no veo que sea muy eficiente, a la hora de refrigerar todo lo que está bajo ese techo. Si fuese el de Finlandia, donde el clima es más frío, sería mas justificable.
Lo dicho: necesitaríamos más información para poder afirmar esto. Rafa -- Para dar de baja la suscripción, mande un mensaje a: opensuse-es+unsubscribe@opensuse.org Para obtener el resto de direcciones-comando, mande un mensaje a: opensuse-es+help@opensuse.org
-----BEGIN PGP SIGNED MESSAGE----- Hash: SHA256 El 2012-12-26 a las 09:13 +0100, Rafa Griman escribió:
Gracias a esto, el diseño del CPD era distinto a lo que nos dice la lógica: no existe pasillo caliente y pasillo frío, los servidores pueden estar enfrentados, no hay flujos de aire caliente y frío típicamente de CPDs "convencionales", ...
En los centros de telefonía en que yo trabajaba el aire frío entraba por el falso suelo, por los agujeros de cableado de los racks (en realidad, armarios cerrados con puertas), y salía por la parte alta de los racks. Lo de pasillos calientes y frios no lo he visto. - -- Saludos Carlos E. R. -----BEGIN PGP SIGNATURE----- Version: GnuPG v2.0.16 (GNU/Linux) iF4EAREIAAYFAlDayTQACgkQja8UbcUWM1xOQAD/cMr4tXCUtAxOd080hbwrhxJi FSZWEmQkWmNn/W/imaYBAJG6vGVdEbmYa84uoKO31IC84cVT7oXqTRlqjbM45jiD =0z+l -----END PGP SIGNATURE-----
2012/12/26 Carlos E. R.
-----BEGIN PGP SIGNED MESSAGE----- Hash: SHA256
El 2012-12-26 a las 09:13 +0100, Rafa Griman escribió:
Gracias a esto, el diseño del CPD era distinto a lo que nos dice la lógica: no existe pasillo caliente y pasillo frío, los servidores pueden estar enfrentados, no hay flujos de aire caliente y frío típicamente de CPDs "convencionales", ...
En los centros de telefonía en que yo trabajaba el aire frío entraba por el falso suelo, por los agujeros de cableado de los racks (en realidad, armarios cerrados con puertas), y salía por la parte alta de los racks. Lo de pasillos calientes y frios no lo he visto.
IIRC, algunos mainframes de IBM también funcionaban como comentas. Lo del pasillo frío y caliente es que pones los racks de forma que la parte frontal de los servidores está enfrentado en una fila y la parte trasera de los servidores está enfrentado en otro pasillo. De forma que el aire frío y el caliente está alternado. Algunos ejemplos: http://macc.umich.edu/about/hot-aisle_cold-aisle.jpg http://bboxblog.files.wordpress.com/2011/04/hotaisle-coldaisle.jpg http://techmeasures.files.wordpress.com/2012/01/crac_hot_cold_aisle.png http://www.conteg.com/data/fotogalerie/original/100/310.jpg Esto da lugar a que el aire frío y caliente se mezcle por lo que en algunas situaciones se hacen estudios de CFD y de distribución del aire frío y caliente: http://www.telehouse.net/_assets/images/Hot-and-Cold-Aisle.png El problema aparece cuando el aire y los espacios/CPDs abiertos ya no son eficientes y no consigues enfriar todos los servidores. Pasamos a cosas como la que comentas y otras soluciones entre las que nos encontramos: contenedores (como los de APC: http://www.energystar.gov/ia/products/power_mgt/images/Figure-6-Hot-Aisle-Co...), los racks de Rackable que he comentado anteriormente (http://www.sgi.com/products/servers/half_depth/overview.html), refrigeración líquida, inmersión de los servidores en líquidos, direct liquid cooling, ... incluso hay pruebas con nitrógeno líquido. Rafa -- Para dar de baja la suscripción, mande un mensaje a: opensuse-es+unsubscribe@opensuse.org Para obtener el resto de direcciones-comando, mande un mensaje a: opensuse-es+help@opensuse.org
El día 26 de diciembre de 2012 06:13, Rafa Griman
2012/12/24 Juan Erbes
: El 23 de diciembre de 2012 17:40, Carlos Ayala
escribió: Saludos,
ha pasado tiempo desde que pasé el último OT, pero aquí paso uno simpático:
Imágenes de las tuberías utilizadas en los data centers de Google:
http://www.designboom.com/technology/where-the-internet-lives-behind-the-sce...
No es un artículo técnico, y la fuente tampoco es relevante en el aspecto técnico (es una web para diseñadores industriales y arquitectos), pero creo que les sorprenderá gratamente lo que se muestra y que a diferencia de los lugares donde se trabaja... se pone especial interés en la eficiencia.
Estás seguro de lo que decis???
Yo creo que sí está seguro de lo que dice: nos está pasando un link a una noticia que ha leído.
Por lo que veo en las fotos del centro de Iowa, el techo es de chapas galvanizadas acanaladas, sin aislación termica,
Lo que se ve son las chapas, pero no sabemos si hay o no aislamiento térmico. Es decir: la imagen no es que sea muy buena, no tenemos los planos del edificio, no tenemos fotos de la parte superior, ... Luego no podemos afirmar que no hay aislamiento térmico.
Acabo de mirar las fotos que dice Juan, y también puedo decir que lo que se ve en las fotos del centro de Iowa, es un techo de chapas metálicas, SIN AISLACIÓN TERMICA DEL LADO INFERIOR. Lo demás, es todo palabrería! -- Para dar de baja la suscripción, mande un mensaje a: opensuse-es+unsubscribe@opensuse.org Para obtener el resto de direcciones-comando, mande un mensaje a: opensuse-es+help@opensuse.org
On 26/12/2012, at 06:34, Pinguino Patagonico
El día 26 de diciembre de 2012 06:13, Rafa Griman
escribió: 2012/12/24 Juan Erbes
: El 23 de diciembre de 2012 17:40, Carlos Ayala
escribió: Saludos,
ha pasado tiempo desde que pasé el último OT, pero aquí paso uno simpático:
Imágenes de las tuberías utilizadas en los data centers de Google:
http://www.designboom.com/technology/where-the-internet-lives-behind-the-sce...
No es un artículo técnico, y la fuente tampoco es relevante en el aspecto técnico (es una web para diseñadores industriales y arquitectos), pero creo que les sorprenderá gratamente lo que se muestra y que a diferencia de los lugares donde se trabaja... se pone especial interés en la eficiencia.
Estás seguro de lo que decis???
Yo creo que sí está seguro de lo que dice: nos está pasando un link a una noticia que ha leído.
Por lo que veo en las fotos del centro de Iowa, el techo es de chapas galvanizadas acanaladas, sin aislación termica,
Lo que se ve son las chapas, pero no sabemos si hay o no aislamiento térmico. Es decir: la imagen no es que sea muy buena, no tenemos los planos del edificio, no tenemos fotos de la parte superior, ... Luego no podemos afirmar que no hay aislamiento térmico.
Acabo de mirar las fotos que dice Juan, y también puedo decir que lo que se ve en las fotos del centro de Iowa, es un techo de chapas metálicas, SIN AISLACIÓN TERMICA DEL LADO INFERIOR.
Lo demás, es todo palabrería! --
Saludos, Responderé en mi defensa: Meh! Antes de proporcionar el enlace hice la aclaración de que la fuente no es técnica. El enlace fue proporcionado a fin de: Tener un tema de discusión e intercambio de ideas. Favor de limitar la discusión a añadir más contenido. Carlos A. -- Para dar de baja la suscripción, mande un mensaje a: opensuse-es+unsubscribe@opensuse.org Para obtener el resto de direcciones-comando, mande un mensaje a: opensuse-es+help@opensuse.org
participants (6)
-
Carlos Ayala
-
Carlos E. R.
-
Juan Erbes
-
Pinguino Patagonico
-
Rafa Griman
-
Shinji Ikari