百度云计算中心顺势而为 构筑绿色智能发展之路

快资讯
残红渐褪
根据资料显示,目前我国主流大型机房的建成数量和前两年相比明显回落。对于企业而言,谁的数据中心有更大的吞吐量,谁就在数据时代占据了领先位置,但随之而来的是数据中心能耗支出占比高的问题日益突出。 图...

根据资料显示,目前我国主流大型机房的建成数量和前两年相比明显回落。对于企业而言,谁的数据中心有更大的吞吐量,谁就在数据时代占据了领先位置,但随之而来的是数据中心能耗支出占比高的问题日益突出。

图示为超大规模数据中心发展趋势图

就一个拥有3000个机架的数据中心来说,每个机架平均功率按照3KW来算,其总负荷就将达到9000KW,即每小时耗电量为9000度,全年的耗电量将达到78840000KWh,电费支出超过7800万元,加上配套的制冷、照明等其他设施的耗电量,电费接近1.5亿,这对于数据中心来说是一笔不小的开支。随着数据中心的数量不断增多,越来越多的企业意识到数据中心的发展,并不是简单粗暴的扩大规模,而是要找到吞吐量和能耗量的平衡,这一思想的转变,也让超大型IDC已经进入到追求绿色高效和智能安全的IDC后发展时代。

目前,我国超大型IDC正在努力寻求绿色高效和智能安全的转变,以百度云计算(阳泉)中心为例,作为以IDC为核心功能的云计算中心,一直在各个环节不断进行优化和创新,在保持数据安全稳定的同时,力求达到节能减排最大化的目的。目前,百度云计算(阳泉)中心单模组PUE已经达到1.10。众所周知,PUE值越低,代表数据中心的节能程度越高。

图示为百度云计算(阳泉)中心节能示意图

事实上,百度作为数据中心行业的先驱,从百度云计算(阳泉)中心建立之初,就以快速迭代、推陈出新的思维理念,不断探索新装备新技术,力求将节能做到极致。

在暖通架构方面同时采用CRAH、AHU、IDEC和OCU四种新型的空调末端形式,其中百度自研置顶冷却单元OCU(Overhead Cooling Unit)新型空调末端,空调末端无风扇,零能耗,结合预制模块技术,将冷却模块垂直安装在机架上方,利用空气对流原理,将“热通道”的热空气抽走,同时送出冷空气给“冷通道”,这一技术的采用,大大降低了数据中心的能耗消耗。而且,百度云计算(阳泉)中心还是国内首个应用光伏发电的数据中心,同时大量签约风电清洁,2018年使用的风能和太阳能可以达到5500万度,预计占全年使用量23%以上。

此外,在电气架构方面,百度云计算(阳泉)中心采用市电+UPS、市电+UPS(ECO)模式、市电+高压直流在线、市电+高压直流离线四种架构。其中首次使用了市电+高压直流离线的供电架构,使供电效率从传统2N冗余UPS双路供电的90%大幅度提高到了99.5%,并配合国内首批内置式锂电池机柜,完全摒弃了UPS和铅酸电池的配置,节省出25%的机房空间,最大限度的利用了资源。

我国数据中心发展历史已有20多年,从小规模试点到大规模井喷,再到企业对于数据中心的认识、构建和规划发生转变,建设绿色高效和智能安全的数据中心已成为行业趋势,而百度云计算(阳泉)中心追求的低能耗数据存储技术,采用世界最先进的架构和技术以及引入AI智能管理,既是在“节能减排”思想指导下的一次进化,也是下一代数据中心发展的关键,未来百度也将继续开源减排,推动数据中心产业朝着绿色、安全、可持续方向发展。

THEEND

最新评论(评论仅代表用户观点)

更多
暂无评论