除了海底、山洞 在数据中心节能这件事上还有哪些灵感?

海峰姐
集装箱数据中心算是特种应用数据中心的形态,曙光推出集装箱级微模块C9000系列,可是适用于野外需求,不具备土建、盖数据中心楼的条件同时希望数据中心能够迁移。

一年前,我在播报微软在海底建设数据中心的新闻时,还是很震惊的,感叹在解决数据中心能耗问题上,行业内真是用尽办法,后来就陆续看到北极圈构建数据中心,腾讯在山洞构建数据中心等各种创意实践。

互联网公司建立在北极圈内的数据中心

微软Project Natick 项目第二阶段下海

腾讯山洞数据中心外景图

这些尝试都源于眼下爆炸增长的数据量,尤其在人工智能和5G时代,作为承载这些数据的的物理载体,数据中心面临的挑战越来越大:一是数据中心的存储能力、计算能力随着数据中心的规模增长,机柜功率密度会越来越高。二是单体数据中心的能耗持续居高不下。

但海底、山洞、北极圈,这种利用自然冷源来为数据中心提供更高能效的模式不具备可复制性,毕竟要受地理、自然环境的局限,相比下,很多科技公司在标准化、广泛普及性,全地域推广的探索更值得关注。

面对数据中心超高、超前密度的应用,中科曙光在十年前就开始数据中心的技术研究。

一是早布局。中科曙光早在2009年就成立了数据中心产品实验部,2010年推出曙光模块化数据中心,2014年研发国内首套标准化液冷服务器并在2017年交付商用。

二是产品全。7月16日,中科曙光旗下曙光节能技术(北京)股份有限公司(以下简称“曙光节能”)就携带与数据中心功率密度、计算模组相对应的诸多产品解决方案亮相,满足不同行业,不同场景用户需求。

三是前瞻性。不仅能承接现在,还面向未来,现在曙光拥有的“液冷”核心专利超过40项,此外还有40项“液冷”相关专利提交申请。比如C8000刀片式计算模组就依托 “全浸没液冷”技术,可以使 PUE值达到1.05及以下,相比传统风冷数据中心可以节电超过30%。

从机房到数据中心的演进

如果回溯最早的数据中心,应该是六十年代的机房,那时候一间屋子的计算机处理能力,放到现在一台笔记本电脑就搞定了。

曙光节能总经理何继盛

曙光根据数据中心发展做过一个划分,六十年代出现的机房可以称作第一代数据中心,主要应用是大型科研计算,每天工作8小时,因为透风度不好,只是关注洁净度,在机房建设上没有统一的标准。

随着服务器形态的变化,用于商务处理的塔式服务器出现,也有了专用的机柜、专门的UPS来保障服务器供电的稳定性,数据中心也有了空调通过自然的对流进行冷冻,这个时期算第二代数据中心。

前四代数据中心运行和维护特点

2000年后互联网开始蓬勃发展,数据中心继续向第三代演进,机架服务器开始流行,有了空调的对流通道,数据中心的建设朝着规范化、标准化发展,在这个时期,拥有几百甚至上千机柜的数据中心就算比较大了。

随着云计算的发展,公有云、行业云的大数据中心应用单体量增加,数据中心的建设理念发生变化,最典型的是数据中心的建设与IT设备结合更紧密,开始出现冷通道的精细化组织管理以及便捷空调的应用。

与此同时,每一代数据中心的功率密度不断提升,能耗不断降低。

功率密度如果用机架衡量的话,第二代数据中心的机柜功率密度是1-2千瓦;第三代数据中心典型的功率密度大概在3-5千瓦。云计算应用使得数据中心朝着单体面积大、功率高、维护简单的趋势发展,云计算时代主流的密度5-8千瓦。

未来,第五代数据中心将会于有哪些创新模式?

在曙光节能总经理何继盛看来,现在,数据中心基础设施面临更高要求:更高密度、更快的建设速度、更低的能耗、更高的可用性、更智能的监控管理系统。

现在,数据中心进入5.0时代,除了具备标准与模块化特点外,追求低能耗与“高计算密度”成为新的趋势。

5.0时代 液冷成为主潮流

从中国数据中心节能技术委员会秘书长吕天文分享的数据来看,目前全国数据中心的耗电量已连续8年超过12%的速度增长,预计2020年总耗电量将达到2962亿千瓦(2018年中国城乡居民用电总量为9685亿千瓦)。因此数据中心节能问题,引发包括政府在内的广泛关注。

在中国市场,现阶段多数数据中心仍采用风冷,而国外很多用户则是进入到了液冷时代,用户主要是大型数据中心和超级计算中心。

比如美国国家安全局、美国空军、CGG、ORANGE、VIENNA 科学计算集群、日本东京工业大学已经使用了Green Revolution Cooling 的浸没式液冷技术, 美国AFRL、ERDL、法国TUTAL、欧洲AWE 等使用了SGI 的液冷服务器。

现在,液冷数据中心变成非常炙手可热的话题,也变成行业公认的未来数据中心的趋势。

首先,液冷和空气制冷相比,液冷具备超强冷却能力。以前的空气制冷到达点是机柜,而液冷可以实现部件级,直接对最高发热的部件、集中热点进行制冷,形成精确制冷或者部件级制冷。

第二,降低数据中心环境的噪音。采用液冷数据中心可以实现无压缩机无风扇,从而实现静音机房。

第三,液体可以给元器件带来更稳定的工作温度,从而保证元器件的工作性能更高。比如手工做温度限制的CPU,在稳定的环境之下可以实现超水平运行。

仅在2015年,全中国数据中心的耗电量就高达1000亿度,年耗电量超过全社会用电量的1.5%,相当于整个三峡水电站一年的发电量。

对于整个数据中心来讲,提高数据中心能效,可以实现全地域、标准化的布置,可以实现全年的自然冷却,PUE最低可以做到最接近的理论值。

不同场景下的前瞻布局

针对不同的IT应用系统,不同的数据中心有自己不同的特色,专业厂商在产品布局的时候都会秉承“传承过去,向未来演进”的理念。

曙光节能就按照客户的功率密度,制造出满足中低密度计算需求的风冷标准模组、满足高密度计算的液冷冷板模组,以及满足救灾、户外勘探等特种作业环境需求的“集装箱式”计算模组。

1

针对中低密度的数据中心

曙光节能会有机柜池级微模块C2000系列,是风冷时代池级模块比较广泛应用的比较有特色的产品,适用于5-15千瓦的功率范围的应用场景,而排级微模块C1000系列是风冷时代最高能效比的一种产品形态。

另外在针对中低密度数据中心,曙光节能有机柜级微模块C500系列,针对微型数据中心,可以比较广泛的应用在金融、广电、医疗等等分支机构里面。

2

集装箱数据中心

集装箱数据中心算是特种应用数据中心的形态,曙光推出集装箱级微模块C9000系列,可是适用于野外需求,不具备土建、盖数据中心楼的条件同时希望数据中心能够迁移。

典型的案例是贵州的天眼望远镜,在整体配套基地还没建成前,就有大量的数据需要处理,采用集装箱数据中心进行数据处理再合适不过。

现在曙光节能的计算模组已被电力、气象、金融、通信、互联网企业、高校研究院等广泛采用,曙光提供的“低能耗”、“高密度”计算节点数以万计。

随着数据中心机柜的标准与模块化普及,短时间在偏远地区大规模建设数据中心成为可能。但对于90%企业、机构来说,配置的‘数据中心’远离用户、远离主干网络、失去运维的便捷性是无法接受的。

而除了面向中低密度的应用,曙光节能面向高密度的是30千瓦以上的方案更具前瞻性。2012年开始,曙光便探究降低数据中心能耗的核心技术——“全浸没式液冷”。给用户提供便捷、标准、灵活的节能、高计算密度数据中心解决方案。

坚定前行者的先发优势

现阶段,液冷服务器主要分为冷板式冷却液冷服务器、全浸没式冷却液冷服务器。在国内,联想、新华三、华为均设计冷板式液冷技术产品,互联网领域的阿里推出了浸没式液冷服务器,而曙光公司则是冷板式、全浸式均有生产。

TC4600E—LP液冷服务器

通过对CPU和内存覆盖冷板,液体直接带走这两个高发热部件的热量。主板通过冷水把CPU和内存的热量带走,水温升大概是10度,带走热量之后是45度,之后经过自然的冷却又变成35度水回来,继续冷却。

可以说,冷板式的液冷系统改变了整个服务器的制冷形态,带给传统风冷数据中心所不具备的优势条件,省却服务器80-90%的发热,使得耗能可以大幅度下降,PUE可以实现1.2以下,同时又给CPU和内存提供了更好的工作环境和工作温度。

2015年曙光在国内正式推出冷板式液冷服务器以来,广泛应用到各个行业。

而全浸没液冷,可以说是有很多技术的无人区,在冷板液冷服务器量产以后三年,曙光推出全浸没基础设施配套解决方案C8000系列,满足了超高密度数据中心的需求。

曙光“全浸没液冷”计算模组—C8000

全浸没液冷总体方向比冷板式更进一步,在能效方面,给元器件提供更可靠和彻底的工作温度。冷板式的服务器是的风冷和液冷混合,浸没式则是完全去除空调的全液冷的数据中心。

在全浸没液冷领域,曙光在能效、性能、噪音方面做到极致。据何继盛介绍,曙光于2015年推出国内首款标准化量产的冷板式液冷服务器,并在当年完成国内首个冷板式液冷服务器大规模应用项目,2017年又交付了国内首套商用全浸没液冷服务器,并在今年完成了国内首个浸没式液冷服务器大规模应用项目。

平稳运行中的曙光“全浸没液冷”服务器群(局部)

随着5G时代到来,在用户密集区配置高计算密度的边缘数据中心正成为趋势。曙光液冷“数据中心”计算模组,为用户在密集地区的“边缘计算”节点配置,提供了可靠、节能的系统解决方案。这也将加速5G时代的云游戏、云3D、云渲染设计等高交互、复杂计算场景的实现。

而从整个行业来看,数据中心对节能降耗的要求越来越高,未来,“液冷”技术是降低数据中心能耗的最可靠与可行的方案,毋庸置疑将成为国内外厂商重点争取的市场,而曙光的坚定前行和先发优势逐步体现,通过对技术的积累、产品的规划和项目的落地,加速全国“数据中心”步入“液冷”时代。

THEEND

最新评论(评论仅代表用户观点)

更多
暂无评论