眼看快过年了,估计大家没心思看太专业的文章(关于这个文末有投票调查。。),一起来欣赏下Google的号称'全世界最漂亮的机房'吧。 这是谷歌某个数据中心冷站的内部场景。整个房间管道林立,色彩斑斓。 左侧是大型冷水机组,右侧是板式热交换器,以便在室外温度较低时候采用板换散热实现水侧节能。谷歌也非常重视数据中心的耗水问题,据他们估算,采用高效节能方式的数据中心每年可节约几亿加仑的饮用水。 空调管道采用了谷歌企业标准色来区分不同管路的功能。例如, 绿色——冷却水回水管, 黄色——冷却水供水管, 蓝色——冷冻水供水管, 深红色和冷机侧的粉红色——冷冻水回水管, 白色——消防管路, 从而便于运维人员快速定位并查找问题。 从图中还可以看出,有一些运营层面的小细节也考虑得非常周全。例如,管路屋顶等地方采用了很多的电动吊装葫芦链条,方便重型设备的吊装维护或更换;又例如,管路底部采用了中间凹两边凸的滚轮型支撑,这样会减少管路振动和拉伸形变产生的物理应力; 还有,楼层间的竖管采用了U型弯曲以便减少水温变化和建筑形变带来的隐形损伤;冷机周边地面也配备了应急排水口,等等。此外,在偌大的机房中,运营人员采用同样运用了谷歌标准色的自行车来进行现场巡视。 IT设备同样也采用五种颜色的网线,加上不同数据中心不同主题的装修风格,都是数据中心颜色标识管理的典范。 下图为谷歌在美国俄克拉荷马州的数据中心,整个机房在大量服务器LED指示灯的闪烁下显得非常整洁和梦幻。 从这个整机房的俯视图看,数据中心采用了厂房式大开间框架结构。封闭热通道的一排排机柜构成庞大微模块阵列,机房顶部是供电网络桥架和消防管路。冷气从地板输送,用塑料帘隔开热空气。用布帘密封可以隔绝冷热气流的混合,减少冷量的浪费。 谷歌采用了创新的空调置顶散热方式。整个机房大环境作为冷通道提供冷量给服务器吸入,加热后的热空气在封闭通道内上升,然后通过热通道顶部的空调盘管制冷,并被几个烟囱状导风管和大散热风扇重新循环回外部冷环境。 这种空调置顶布局虽然存在着盘管漏水、更换维护较难等风险,并对产品质量和施工工艺要求非常高,但其气流组织较为合理。例如热气流自动上升,冷气流自动下沉,从而减少风扇的功耗,且机房大冷池环境可以作为缓冲池,减少局部空调故障引发的热保护。 据相关资料显示,谷歌微模块的整个热通道温度非常高,像个大烤箱,温度可以高达49摄氏度,以至于一旦必须进去维护,那么服务器必须关掉才行。采用热通道封闭可以提供一个较为舒适的现场运营环境,热量被限制在热通道中,并被冷冻水带走。 上图还显示了谷歌微模块热通道内部的一些细节。例如,热通道宽度大约是两块标准地板砖,里边安装的是机柜顶部空调盘管的安装支架和加固支撑,地板底下的快接软管提供冷冻水给热通道顶部的空调盘管。从冷冻水管的数量和密度上看,顶部空调盘管也做了模块化冗余设计,是个很不错的设计。 谷歌在供电和制冷等方面总能打破常规。例如,他们有些机房没有采用商用的传统UPS和精密空调方案。下图是谷歌创新的“三明治”服务器,谷歌还为此申请了专利。“三明治”服务器采用的是液冷散热片,上下两个服务器靠此散热片内部的冷冻水以及循环风扇带走热量。 谷歌“三明治”服务器示意图 当然,也不是谷歌的所有机房都采用这些创新的散热方案,例如一些POD小机房和网络设备间就采用传统的散热方案。下图展示的网络设备间采用了传统的风管上送风或者地板下送风方式散热,双路冗余高可靠供电。不过,在这些传统机房模块中谷歌都采用了简单低成本的塑料帘子隔离冷热通道方案,避免了冷热气流直接混合短路,也大大提高了能源利用效率。 谷歌一POD小机房 塑料挂帘可以将冷却用的冷空气保持在机房内,而阻挡来自外面的热空气。 谷歌数据中心平均PUE为1.13,如果忽略变电站、电源转换以及发电设备,PUE将降低到1.06。 PUE是Power Usage Effectiveness(电源使用效率)的简写,是评价数据中心能源效率的指标,是数据中心消耗的所有能源与IT负载使用的能源之比。PUE值已成为国际上比较通行的数据中心电力使用效率的衡量指标。PUE越接近于1,表示数据中心的绿色化程度越高。 以上内容由暖通妹微信公众号整理自CSDN、网界网、TechTarget数据中心 机房CFD温度速度场,非GOOGLE Google展示的制冷设计专利 写在最后 “每一个Google员工都需要签署一份保密协议,而这在Facebook根本不需要。”即便现在,Google对数据中心的保密等级并没有因为公开一些无足轻重的照片而降低。除了图片、描述笼统的文字和YouTube上有限的介绍影片,Google数据中心更多的秘密还需要时间来揭晓。 最后的最后,来个投票吧~! 轻松愉悦的几篇。。 格力美的互撕 — 都是千年的狐狸,玩的什么聊斋?(你投票了吗) 纯干货。。 关注几位最用心的妹子 ▼无法识别二维码可以点「阅读原文」噢! |
|