在人工智能时代走向绿色

AI时代前沿
随着计算机技术的不断发展,计算机正成为我们所见过的最强大的工具。但不幸的是,它也是耗电最多的。半导体工业正在处理性能方面取得令人印象深刻的改进,这带来了两个重大的负面后果。

随着数字化转型的趋势越来越明显,在全球范围内,数据中心的发展呈爆炸式增长。如今全世界人们面临同样的问题——数据中心正慢慢地对环境造成损害。由于冷却方法的创新,能源使用量稳定在世界电力的2-3%左右,但根据联合国的数据,电子垃圾的数量正在增长,每年超过5000万吨。而这些废弃硬件只有20%被无害化回收。

随着计算机技术的不断发展,计算机正成为我们所见过的最强大的工具。但不幸的是,它也是耗电最多的。半导体工业正在处理性能方面取得令人印象深刻的改进,这带来了两个重大的负面后果。不断升级的性能提升是以功率消耗为代价的;现在硬件更新比以往更快。这引起了对数据中心电力使用和电子浪费的关注。

那么,数据中心能做些什么来抵消这些不利影响呢?企业需要在他们的数据中心优先考虑绿色选择。随着新的进步,推动绿色数据中心的努力已经从一个环保意识的选择转变为一个经济有效的选择。看看今天的数据中心的电力使用和成本,我们可以看到,即使10%的效率提高,也会对公司的财务和生态底线产生巨大的影响。根据预估全球数据中心的年能源消耗如果保持在300太瓦时左右(1太瓦小时=10^12瓦时=10^9千瓦时=10亿千瓦时=10亿度电),那么基于全球平均每千瓦时商业用电成本0.127美元,能源效率提高10%意味着全球企业将在数据中心能源成本上节省38亿美元。

也许减少数据中心电力使用化石燃料造成的环境破坏的最重要的方法就是不使用化石燃料。因此,数据中心操作员可以根据自己的需要选择再生能源,从而减少排放到大气中的温室气体。

企业在致力于保护环境的同时,也开始意识到效率的提高和成本的节约。事实上,简单地减少电力的使用可以通过同时减少运营费用来增加利润。通过检查设施的电力使用效率(PUE)、服务器密度、入口温度和电子垃圾数量,这些公司开始关注不理想的数据中心建设、运营和维护如何影响他们的成本和环境。许多数据中心运行时,进入服务器的空气的入口温度低于制造商指定的温度。通过简单地提高数据中心的温度,减少大量的空气冷却电力使用也可以降低成本。

通过长期考虑和升级设备的关键部件,数据中心运营商实现了性能的提高、成本的降低和环境碳足迹的减少。

液态制冷技术

还有一个可以考虑的解决方案是升级数据中心的冷却系统,并从空气冷却方案过渡到液冷方案。最新的硬件和计算系统正在给大多数数据中心带来严重的散热问题。空气冷却方法的散热速度和散热量是有限制的。

液体在散热方面比空气更有效,因为液体有更高的导热系数。液冷设计也能更好地将热量排到系统外部,而不是像空气冷却那样将热量移到服务器机箱内部。热量在一个区域被分散到液体中,然后最终在一个单独的位置被驱散出液体和系统。

虽然对现有的气冷服务器改造实施液冷是可能的,但通常成本更高。由于大多数数据中心没有配备液冷设备,这意味着安装基础设施的初始资本支出成本可能很高。但运营成本要低得多。传统的风冷装置PUE很差,需要耗费大量的能源来驱动空调和通风系统。从功耗成本到处理性能的角度来看,它们效率低下。但是使用直接到芯片的液冷技术,例如,数据中心的能耗可以减少40%。与服务器供应商合作,许多(但不是所有)服务器可以修改为使用液冷技术,这可以减少电力使用,因为首先风冷将以较慢的速度运行,其次可以显著减少数据中心的空调。

除了具有成本效益和减少温室气体的使用电力,液体冷却还提供了性能改进。随着冷却性能的改善,CPU、GPU内存和更多内存不会达到热极限和节流速度(因为过热而降低这些芯片的效能)。这对于专注于需要更高性能水平的前沿HPC(高性能计算)和AI应用的企业来说尤为重要。

密度,分解和数据中心设计

下一个层次的考虑是查看机架和数据中心本身的设计。现代数据中心由成百上千个机架的服务器和存储系统组成,因此每个机架的效率可以显著提高整个数据中心的效率。

企业最容易投资的改进之一是增加机架的密度。可用的服务器越多,意味着可以为业务应用程序使用更多的整体计算、存储和内存,而且还可以提高成本效率。数据中心应设计冷热通道,尽量减少排风(热)与进风(冷)的混合。因为这会增加空调的总用电量。而且这使得数据中心能够更有效地运行,在提高效率的同时减少电力消耗。

服务器本身的机械设计也不应该被忽视。如果有任何气流堵塞,那么风扇将不得不更努力地工作,以达到同样的冷却量——增加电力使用量,同时潜在地影响性能。在服务器机箱内移动部件可以减少障碍物,并使整个系统的气流最大化。此外,保持风扇转速尽可能低,同时保持微处理器处于安全的运行状态,可以在服务器与服务器之间节省能源。

新的服务器系统设计在这方面贡献很大。这些服务器采用模块化设计,由内存、存储、计算、电源等独立升级的子系统组成。可以减少系统内部和外部电缆的数量,也能减少气流堵塞。注意网络和电缆,通常在系统的后方,以使气流不受阻。研究不依赖于或比标准服务器拥有更少电缆的系统。这使得企业可以选择性地确定服务器的哪些方面是节流点,并只更换这些系统——同时还可以保留不需要更换的硬件。

这种对硬件资源更有效的方法打破了3-5年的数据中心升级模型,实现了更可持续的基础设施,鼓励升级和替换服务器和系统中缺乏的元素。具有显著的成本效益,而且对环境非常友好。资本支出和硬件再利用/回收的减少,同时也大大减少了服务器产生的电子垃圾。分解的服务器允许对子系统进行单独的升级,而不需要替换整个服务器。通过只更换必要的子系统(CPU、内存、存储或网络),电子垃圾的数量将大大减少。根据工作负载需求,调查并确定何时对每个子系统执行不同类型的升级。

我们可以同时做对地球和经济利益有利的事情。然而,为了实现一个更绿色的未来,我们必须共同努力,做出明智的选择,并执行将显著影响行业碳足迹的方法。此外,该行业还需要进行大量的教育,帮助企业认识到更环保的数据中心的重要性和好处。

企业可以使用许多技术和解决方案来应对数据中心对环境的不利影响,在这样做的同时,它们提供了优化性能的双重优势。如果我们今天采取适当的行动,我们的数据中心就不会进一步损害环境。

THEEND

最新评论(评论仅代表用户观点)

更多
暂无评论