
谷歌水冷机房颠覆你的想象
核心提示:
随着技术领域的不断发展与创新,更多的高科技企业级产品层出不穷。在过去的一年里,我们看到许多新的冷却系统,像是典型的浸没服务器冷却罩。通过水冷方式给服务器处理器降温可能很快成为行之有效的一种散热方式。
中国IDC圈8月12日报道:随着技术领域的不断发展与创新,更多的高科技企业级产品层出不穷。在过去的一年里,我们看到许多新的冷却系统,像是典型的浸没服务器冷却罩。通过水冷方式给服务器处理器降温可能很快成为行之有效的一种散热方式。当然技术发展并不局限,这种水冷技术的发展可以随着时间应用到更多的产品中去。今年谷歌又推出了水冷服务器技术再次在业内引起了反响。

谷歌数据中心
之所以有这么快的搜索速度和强大的服务能力也是依赖于谷歌全球分布的众多的数据中心,无论是其采用的水冷系统还是高科技于一身的数据中心都值得我们一探究竟。
谷歌俄克拉荷马州梅斯县数据中心
俄克拉荷马州梅斯县,谷歌数据中心的服务器机架。每个服务器有四个开关,用不同颜色的线缆连接。

服务器机架
谷歌在整个数据中心内使用相同颜色的线缆,因此在出现问题的时候,就可以很方便地找出该更换哪一根。
在MayesCounty数据中心这样照片里,我们看到数以百计的风扇直接将热空气排入密闭的风道,从冷却塔来的冷水通过包裹金属外层的水管输送到风道顶端的热交换器,热空气迅速被冷却避免在风扇周围聚集。

MayesCounty数据中心巨大的风道
数据中心内部保持80华氏度(约等于26.67摄氏度),略高于其它数据中心。80华氏度的空气进入服务器内部,然后被加热。服务器后部的风扇将被加热到接近120华氏度的空气排入封闭的风道,热空气上升,并被顶部的热交换器冷却,被冷却的空气会从下方的活动地板排出。
但是这样做的危险是一旦水冷管泄露,后果非常严重。
Google芬兰Hamina数据中心
芬兰哈米纳的谷歌数据中心,在一家旧造纸厂的基础上修建,它不仅有足量的楼面空间,而且也接近芬兰湾的冷却水。

芬兰哈米纳的谷歌数据中心
Google把整个建筑视为风道的一部分,并没有完全弃用水冷系统,而是将其升级进化,从而提高水冷系统的效率。

冷却管道
通过Google在芬兰Hamina数据中心照片,我们看到在热风道上多组热交换器。并且通过谷歌数据中心的冷却管道我们知道,这里只靠海水来冷却服务器。

存储槽
谷歌数据中心重新利用了一个老造纸厂在造纸过程中使用的存储槽。
谷歌爱荷华州康瑟尔布拉夫斯数据中心
爱荷华州康瑟尔布拉夫斯的谷歌数据中心,网络机房内的路由器和交换机。这栋建筑物内的光纤网络可以达到的速度,是典型的家庭互联网连接速度的20万倍以上。光缆沿着天花板附近的黄色线缆架延伸。

路由器和交换机
隔热管弯曲成U形,这样当管道内的流体温度变化时,它们就有空间膨胀和收缩。

U形管
管道内是高压水,随时准备发挥灭火功效。

高压水

塑料门帘
一个机房中的塑料门帘。冷空气通过地板进入室内,透明的塑料门帘把热空气和冷空气隔开来。
谷歌俄勒冈州达拉斯数据中心
俄勒冈州达拉斯,进出谷歌数据中心的水管。蓝色管道供应冷水,红色管道送回温水,以进行冷却。

进出水管

线缆
俄勒冈州达拉斯的数据中心的线缆,跟所有谷歌数据中心的线缆一样,都是按颜色组织的。
谷歌佐治亚州道格拉斯县数据中心
管道
这些管道输送冷却水。工人使用照片中所示的自行车在这个巨大的数据中心中“走动”。
谷歌南卡罗来纳伯克利县的数据中心
南卡罗来纳伯克利县的隔热存储罐,多可容纳24万加仑用来冷却数据中心心脏的水。

隔热存储罐
Google爱荷华州的ConcilBluffs数据中心
ConcilBluffs数据中心内部
从上图(以上图片均来自网络)我们可以看到ConcilBluffs数据中心的内部,一个巨大的房间,而不是被分成若干独立的区域。完全采用风道设备,彻底避免服务器或机架产生的空气泄露。冷空气直接流入服务器,热空气并不会流回,而是通过热交换器将热量传递出去。


空气流动控制格外重要,空气流动经济性是提升散热效率的关键。提高空气流动经济性的关键是让冷空气流入服务器,而不是让服务器排出热空气。
水冷的核心优势是输送水比输送空气成本更低,而且水的热容积更大。Google的设计思想是尽可能让水通过各种方式到达机架,这并不是工业界第一次这么做,但Google做的几近完美。
|