数据中心能效影响因素及评价指标
0 引言
数据中心是能够容纳多个计算机或服务器及与之配套的通信和存储设备的多功能建筑物,它包含一整套的复杂设施,如电源保障系统、环境控制设备、安全装置等[1],以实现数据信息的集中处理、存储、传输[2],将数据交换等多项流程集中统一,是当前信息和通信经济的核心[3]。随着互联网热潮的来袭,大众对互联网服务的广泛需求[4]、经济部门对数据存储的需求[5]等,都促使数据中心行业发展迅速。据统计,到2019年,整个行业的年增长率已超过10%[5],而根据2007年美国国会数据中心能源效率报告,数据中心3年内服务器、网络设备和温控设施等用电成本约为购买服务器等设备成本的1.5倍,未来这个费用还会继续增长[6]。为扩展当前数据中心的运算能力,数据中心正在向能源密集型发展,因此未来很长一段时间内其能耗仍将持续上涨[7]。通常情况下,数据中心比其他建筑更需要能源,其单位面积的能源消耗约为传统办公楼的40倍[8],2009年我国数据中心消耗的电力为413.7亿W·h, 预计到2020年达2 500亿W·h[3]。数据中心能耗上升的同时也带来了严重的环境问题。故数据中心设计者将更多的目光转向能效,通过能效指标的提出将能耗量化,以解决当前数据中心高耗能问题,强化节能和环保的意识。因此对数据中心能源分配和能效指标进行完整研究具有重要意义。
本文重点介绍近20年数据中心能效评价指标的发展及环境指标的引入情况,并分析数据中心能效的影响因素,提出应当有一个全面的能效评价指标或基于现有指标建立一个完善的评价体系。
1 数据中心能耗分配情况及能效影响因素
1.1 数据中心能耗分配情况
图1显示了数据中心的能量分配与使用流程,了解该流程是理解数据中心能效评价指标的基础。由图可知,并非所有进入系统的能量都用于IT(information technology, 信息技术)设备执行有用的计算工作,有40%的能量用于暖通空调和不间断电源等组件。同样在IT设备中,只有约30%的能量严格用于计算,其余能量被电源、风扇、驱动器等消耗。最后,图中右边的部分显示IT设备往往不能实现高负荷的计算工作,即能量被用来运行比IT设备所能支持的少得多的计算。因此,了解能源链[9]不同阶段、不同组件对能效的影响因素并采用不同的指标来衡量能源的使用是非常重要的。
图1 数据中心能量链[9]
1.2 数据中心能效影响因素
数据中心从设计规划到正常运行主要包括数据中心选址、供配电系统匹配、冷却系统匹配等过程,这些过程及其相应的技术手段选择都将对数据中心能效产生影响。
1.2.1 数据中心选址
数据中心的选址对其能耗至关重要。数据中心所处的自然环境会影响其能耗,有研究表明位于高温高湿地区的数据中心其冷却系统需要更高强度的工作以维持设施内的稳定运行条件[10]。由于越来越多的互联网和云计算服务出现,采取政策措施提高数据中心能效并限制能耗增长是行之有效的手段[11]。从能效角度出发,还应当对数据中心的碳排放、水资源可获得性、电网效率、能源回收可能性做好全面考量才能确定其选址[11]。
1.2.2 供配电系统匹配
供配电系统耗能来源于不间断电源的使用和转换损耗,为了最大限度减少停电导致的服务器停机或硬件损坏问题,数据中心对其技术层都会采用不间断电源,配备大量电池组,能够为数据中心供电至少几分钟,以缩短外部应急电源启动的时间,避免设备损坏和数据点丢失[12]。通常不间断电源在负载较高时转换效率为88%~94%,提高不间断电源的转换效率是减少其能耗的主要研究方向,目前最新的飞轮不间断电源和高效不间断电源可以使得总体的转换效率提高到97%[13]。同时保持不间断电源在最大功率附近工作可使价值最大化,故在构建和设计数据中心时需要明智地选择组件以保持不间断电源可能提供的最大功率。另外,过长的电力线缆在传输时也会产生不可忽略的损耗,如电缆长度大于100 m时,损耗可能高达1%~3%[13]。
1.2.3 冷却系统匹配
由冷却系统运行带来的非生产能耗占数据中心总能耗的40%,降低这部分能耗是提高数据中心能效的重要研究方向。传统冷却方式消耗大量的能量,其主要原因有以下3点[14]:1) 冷源能耗高,传统的蒸气压缩式系统需要全年不间断工作;2) 管道系统能耗高,如泵和风扇需要消耗大量的能量实现冷水和空气的输送,且由于运输管道绝热不完全,运输过程中不可避免地会造成冷量的损失;3) 冷热气流的混合,由于数据中心内部缺乏气流控制装置,热空气容易混入冷通道。
对于第一点,自然冷却(free cooling)技术是一个理想的解决方案。对于绝大多数数据中心而言,一年中有很长一段时间内部温度是高于室外温度的。当室外温度足够低时,热量将自然向室外流动,则蒸气压缩式制冷系统无需工作,从而实现能耗的显著降低。Lee等人在17个气候区的数据中心使用直接式风侧自然冷却,用一个动态建筑能源模拟程序来检验节能潜力。结果表明,直接式风侧自然冷却在温暖潮湿的海洋气候区有很大的节能潜力[15]。Siriwardana等人在澳大利亚不同气候条件下使用直接式风侧自然冷却做了类似的研究[16]。Depoorter等人研究表明,直接式风侧自然冷却在任何地区应用均能达到节能效果[17],根据所在地区的不同,可使整个数据中心的能耗降低5.4%~7.9%。常见的数据中心冷却方式及特点如表1所示。
表1 数据中心常见冷却方式及特点
类别 |
冷却方式 | 工作原理 | 特点 |
传统风冷 | 风冷直膨式机房空调系统[18] | 压缩机排出的高温气态制冷剂在室外侧翅片换热器冷凝成液体后,经膨胀阀节流降压成为低温气液混合体,再流入室内侧翅片换热器,吸收热量蒸发后回到压缩机,完成一个制冷循环;同时从室内来的回风经过室内侧蒸发器后被冷却降温,处理后的冷风由室内侧风机送入室内 | 机房空调相对独立运行和控制,易于形成冗余,可靠性较高,安装和维护简单,但设备能效偏低 |
水冷直膨式机房空调系统[18] | 室内机配置水冷冷凝器,由室外冷却塔提供冷却水;与风冷型机组的主要区别在于冷凝器的冷却方式 | 制冷循环系统管路短;所有机组的冷却水可以设计到一个系统当中,由水泵为冷却水循环提供动力 | |
冷水型机房空调系统[19] | 一般由冷水机组、冷却塔、冷水泵、冷却水泵、冷水型精密空调、管路及附件组成。采用冷水机组或板式换热器提供冷水对机房进行温湿度控制 | 能效较高,结构紧凑,节省安装空间,可远距离输送冷量,但存在漏水风险,通常应用于我国大型数据中心,应用范围较广 | |
自然冷却 |
风侧自然冷却系统[14] | 当外界空气满足数据中心的温度要求时,直接引进满足温度条件的外界空气,或采用换热器使得室内热风与室外冷风进行换热对数据中心进行冷却,从而减少了制取冷源的能耗 | 外界空气需满足温湿度要求,对室外环境洁净度要求较高 |
水侧自然冷却系统[14] | 包括直接利用自然环境中的低温水的直接水侧自然冷却方式,还包括通过冷却塔或者干冷器,利用冷空气获得低温水的冷却方式;冷水机组不再使用,大大降低制冷系统能耗,提升系统能效 | 是国内大中型数据中心最为普遍的自然冷却形式;与冷水机组配套使用,不会影响机房内环境;对外界空气环境湿度有一定要求,它代表了水通过蒸发能达到的最低温度,湿度不同对应的冷却时间也会有所差异,水侧自然冷却系统是数据中心节能的有效手段 | |
热管式自然冷却系统[20] | 典型的热管冷却系统由蒸发器、冷凝器、气管和液管组成。制冷剂吸收室内空气传导的热量气化,后经其他总管输送至冷凝器散热冷凝为液体,在重力作用下流回蒸发器,再次蒸发吸热,完成热量传输过程 | 通过热管提供冷量,无需机械制冷实现机房冷却;与风侧自然冷却相比,不影响室内空气质量;与水侧自然冷却相比,传热效果及自然冷源利用率更高 |
对于第二点,当前提出了采用变频风机/水泵[21,22,23]、绝热保温等方式以减少管道系统能耗。
对于第三点,目前有通过改变机架的相对位置、送回风方式、通道封闭等措施改善数据中心热环境以实现空调能耗的降低。针对地板下送风型数据中心,杨力芝等人发现采用热通道封闭方式有利于室内环境热性能改善,不易出现局部冷热点,允许适当升高机房空调的送风设定温度,达到节能效果[24]。Arghode等人研究了地板穿孔率、孔径、边缘堵塞和地板类型对流场的影响,结果表明,地板穿孔率对冷通道气流组织分布有显著影响[25,26]。Fulpagare等人指出,地板下静压层的堵塞会导致穿过室内的空气流量减少80%,同时室内空气温度将升高2.5 ℃[27]。耿云等人结合数值设计和实验验证,推荐地板下静压层高度为600~700 mm, 其内部加设15°挡板,且穿孔地板穿孔率为20%~50%时,数据中心冷却效果达到最优[28]。优先考虑数据中心降耗时,送风温度可从16 ℃提升至19 ℃[29]。
1.2.4 室内温度对能效的影响
根据经验,提高室内环境温度能够从两方面节能。首先是降低冷却负荷,建筑的负荷之一是通过围护结构传热从外界获得的热量,其所耗费的能量与室内外环境温差成正比。故随着室内温度的升高,来自建筑围护结构的冷却负荷占比有所降低。其次是来自冷却系统本身,热力学分析表明,提高高温热源的温度,同时保持较低的散热器温度不变,则系统的冷却量会更多,冷却时间更长,系统的冷却散热效率将会提高[30]。且室内温度升高,要达到同样的换热要求和热量,所需的冷源温度也可相应提高,降低了对冷源温度低温的要求,自然冷却可以应用的时间范围就更广,即可以进行自然冷却的时间跨度更长。我国对于数据中心要求的标准为A级、B级机房温度为(23±1)℃,C级机房为18~28 ℃[31]。理论上,在控制温度范围内的较高温度下运行能够提高冷却系统的效率,从而降低数据中心的总能耗。但事实上,室内温度的升高会导致数据中心某些组件和系统的能耗增加,使得数据中心总能耗只会略微下降,甚至不降反升。因此提高室内温度对数据中心能效的影响需从每个组件对温度变化的响应分析,迈克尔·帕特森英特尔公司的分析结论[30]如表2所示。
表2 数据中心内部组件能耗受室内温度影响状况[30]
具体组件 | 受温度影响状况 | |
服务器 |
中央处理器 | 泄漏对温度敏感,温度驱动的泄漏量高达总功率的50% |
服务器变速风扇 | 温度升高,风扇转速相应升高,能耗增大 | |
内存 | 受温度变化影响可以忽略 | |
平台组件 | 受入口环境温度的轻微影响 | |
电力输送 |
配电装置和不间断电源 | 不同组件受温度影响不相同,总体看来对温度变化并不敏感 |
传输过程 | 每升高3 ℃,电阻损耗高1% | |
冷却系统 |
空气处理单元 | 能耗不会发生显著变化 |
冷水系统 | 能耗不会发生显著变化 | |
制冷设备 | 提高室温,则允许冷却水温度提高,冷却水温度每提高0.6 ℃,制冷性能系数约提高1.0%~2.5% |
2 数据中心能效评价指标
为了数据中心的安全与节能,使用合适的能效评价指标对数据中心进行精准评价显得十分重要[4]。能效评价指标用于评估数据中心耗能情况,避免过多冗余,确保数据中心设备安全的同时降低数据中心运营成本。数据中心能效评价指标如表3所示。
表3 数据中心能效评价指标总结
指标 | 名称 | 公式 | 作用 | 提出者 | 取值范围 | 提出时间 |
PUE | 电能利用效率 |
PUE=设备总能耗IT设备能耗ΡUE=设备总能耗ΙΤ设备能耗 |
比较计算应用和基础设施设备能耗与IT设备能耗 | The Green Grid[32] | ≥1 | 2007 |
DCiE |
数据中心基础设施效率 |
DCiE=IT设备能耗设备总能耗DCiE=ΙΤ设备能耗设备总能耗 |
测量数据中心内IT设备实际消耗的功率百分比 | The Green Grid[32] | 0~1 | 2007 |
ERE |
能源再利用效率 |
ERE=总能耗−可再生能耗IT设备能耗ERE=总能耗-可再生能耗ΙΤ设备能耗 |
计算数据中心内不可再生能源能耗与IT设备能耗比值 | The Green Grid[33] | ≥0 | 2010 |
ERF |
能量再利用因子 |
ERF=数据中心外回收再利用的能源数据中心总能源消耗ERF=数据中心外回收再利用的能源数据中心总能源消耗 |
确定数据中心以外被输送到其他区域或设施中再利用的能量 | The Green Grid[34] | 0~1 | 2010 |
CUE |
碳使用效率 |
CUE=温室气体总排放量IT设备能耗CUE=温室气体总排放量ΙΤ设备能耗 |
评估数据中心总温室气体排放量及IT设备能耗 | The Green Grid[35] | ≥0 | 2010 |
WUE |
水资源利用效率 |
WUE=数据中心年用水量IT设备能耗WUE=数据中心年用水量ΙΤ设备能耗 |
度量数据中心现场用水效率 | The Green Grid[36] | ≥0 | 2011 |
WUEsource |
WUEsource=数据中心使用能源耗水量+数据中心年用水量IT设备能耗WUEsource=数据中心使用能源耗水量+数据中心年用水量ΙΤ设备能耗 |
度量数据中心现场及发电源的用水效率 | The Green Grid[36] | ≥0 | 2011 | |
DCeP |
能源生产率 |
DCeP=有用的⌶作设备总能耗DCeΡ=有用的⌶作设备总能耗 |
衡量数据中心能源利用效率 | The Green Grid[37] | ≥0 | 2014 |
GEC |
绿色能源系数 |
GEC=数据中心使用的绿色能源量总设备能耗GEC=数据中心使用的绿色能源量总设备能耗 |
量化数据中心总能耗中绿色能源的部分 | The Green Grid[37] | 0~1 | 2014 |
CADE |
企业平均数据中心效率 | CADE=IT设施效率×IT资产效率 | 计算基础设施能效与IT资产效率的积 | McKinsey & Company and Uptime Institute[38] |
2008 | |
ITEE |
IT设备能效 |
ITEE=IT设备额定⌶作能力IT设备的额定能耗ΙΤEE=ΙΤ设备额定⌶作能力ΙΤ设备的额定能耗 |
额定工况,比较IT设备工作能力与能耗 | Green IT Promotion Council[39] |
2012 |
2.1 绿色网格组织提出的能效评价指标
绿色网格组织提出的指标有:PUE、CUE、WUE、DCeP、GEC及部分衍生指标。其中,PUE(power usage effectiveness)是该组织最早提出的能源效率指标。理想状态下,数据中心的总效率可以归结为消耗单位能量产生多少“有用的工作”,但是由于不同数据中心完成不一样的计算存储任务,并且这些任务与外部输入密切相关,因此“有用的工作”难以确定。PUE的提出成功解决了这一问题,它使用数据中心总的能源消耗和IT设备用于完成“有用的工作”的能耗的比值来显示效率,从而避免量化“有用的工作”。因此,目前被国内外数据中心行业广泛使用[40]。由PUE的定义可知,它是量纲一的量,范围可以从1.0到无穷大。接近1.0的PUE值表示数据中心效率为100%,即所有能耗都用于IT设备运行,为理想状态。数据中心机房的PUE值越大,则表示制冷和供电等配套基础设施所消耗的电能越多[41]。Uptime Institute 2018年发布的报告显示,2007年,全球数据中心PUE平均值为2.5,2013年PUE已经降低为1.65,2018年全球数据中心PUE为1.58[42]。PUE接近1.2则被视为效率“非常高”[7],目前该数值已经可以达到,谷歌、Facebook等超高效数据中心PUE甚至低至1.1。依据PUE数值确定的数据中心效率评级如表4所示[43]。
表4 依据PUE数值确定的数据中心效率评级
PUE |
绿色网格组织评级系统 | PUE | 环保局评级系统 |
3.0 |
非常低效 | ||
2.5 |
低效 | 1.9 | 当前趋势 |
2.0 |
均值 | 1.7 | 改进操作 |
1.5 |
高效 | 1.3 | 最佳实践 |
1.2 |
非常高效 | 1.2 | 技术水平 |
绿色网格组织在设计PUE指标时假设的总体电力流程如图2所示[44],图中设备电源包括了所有与IT设备(如计算机、存储设备和服务器)相关的负载,用来监控数据中心的辅助设备(如KVM交换机、监视器和工作站/笔记本计算机)、供配电系统组件(如不间断电源、开关设备、发电机、配电装置、电池和IT设备外部的配电损耗)、冷却系统部件(如冷却器、机房空调、空气处理设备、泵和冷却塔)和其他杂项组件负载(如数据中心照明)。
图2 绿色网格组织对PUE的定义[44]
根据以上描述可以将PUE分解成为3个部分并衍生出2个新的指标。
PUE=CLF+PLF+1 (1)ΡUE=CLF+ΡLF+1 (1)
式中 CLF为制冷因子,是冷却塔、冷却器、机房空调、泵等基础设施消耗的功率与IT设备负载的比值;PLF为供配电因子,是开关设备、不间断电源、配电装置等消耗的功率与IT设备负载的比值;1为标准化的IT设备负载。
CLF和PLF的提出是对PUE的补充与深化,通过分别计算这2个指标可以进一步深入分析制冷系统和供配电系统的能效。与PUE同时构想出的评价指标是DCiE[45],它是PUE的倒数,本质上与PUE是一样的,同样可以说明数据中心的能量分配情况。不同的是DCiE是一个效率指标,在技术上更有吸引力,受到工程师们的青睐,而PUE很好地反映了数据中心在基础设施上的能源消耗,更受操作人员的喜爱。由于DCiE与PUE仅仅在格式上具有差异,且PUE得到广泛认可,DCiE正在渐渐淡出视野。
尽管PUE被广泛应用,但它并非一个“完美的指标”,仍存在着缺陷:1) PUE没有考虑到各数据中心所处地区的气象条件,因此跨地区的数据中心PUE无法进行比较[45]。2) PUE理论上能够推动数据中心基础设施能耗的降低,但由于该指标无法提供关于IT设备自身能效的信息,会导致评估结果与数据中心实际生产效率有很大的偏差,这也是PUE为人所诟病的重要原因。Whitehead等人指出没有进行基础设施升级的数据中心运营一段时间后,由于IT设备的老化引起耗电量的增加,PUE值将会降低[46]。当IT设备采用虚拟化等技术时会大幅降低IT设备的数量及其能耗,这对数据中心而言是有益的。但由于数据中心总能耗与IT设备能耗并非简单的线性关系,故总能耗不会同样程度地降低,这就造成PUE值反而增大[47]。3) PUE的计算定义式中没有引入时间的概念,所以PUE无法为数据中心提供实质的节能方向[48]。
数据中心运营过程中将电能转化为热能,该过程会造成热量的过剩,研究人员提出,这些过剩的热量可以以不同的方式回收利用[33],如供暖办公室的热需求、预热水和数据中心附近的其他设施等[49],从而为数据中心能效的提高提供新的方向,因此2010年绿色网格组织进一步提出了ERE和ERF 2个指标。
ERE是绿色网格组织用来衡量能源再利用效率的新指标[33],该指标用来计算数据中心内不可再生能源能耗与IT设备能耗的比值[50]。ERE实质上与PUE是一致的,都是用数据中心总能耗与IT设备能耗的比值来衡量数据中心能效,区别在于ERE衡量的数据中心存在能量的回收利用,因此实际的总能耗为输入的能量减去被回收的能量,其理想值为1,即数据中心产生的废热都能够被回收利用。ERF是用于衡量数据中心输入的总能量中能够被回收利用的能量占比[33],理想状态下ERF=0,即数据中心无废热产生。ERE、ERF和PUE三者的关系如下:
ERE=(1−ERF)PUE (2)ERE=(1-ERF)ΡUE (2)
随着数据中心规模的不断扩大,其能耗上涨迅速,人们开始意识到数据中心在消耗能源的同时也会对环境造成一定的影响,仅仅考虑能量回收远远不够。首先是数据中心的碳排放,为了深入了解数据中心能耗对环境的影响及相关的碳排放情况,CUE于2010年被绿色网格组织推出。该指标利用碳排放量与IT设备能耗的比值衡量与数据中心相关的温室气体排放问题。其中,碳排放量包括所有的温室气体,如二氧化碳和甲烷,并将其转化为“二氧化碳当量值”,理想情况下数据中心运行时零碳排放,故CUE的理想值为0,理论上无上限值。
在当前和未来的数据中心设计、定位和运营中,碳排放的影响变得极其重要,因此CUE指标越来越受到重视,当其与PUE结合使用时,数据中心的运营商能够快速地评估数据中心的可持续性,以确定是否需要提高数据中心的能效或可持续性。由此衍生出CEF,建立了与CUE和PUE的联系,三者的关系如下:
CUE=CEF×PUE (3)CUE=CEF×ΡUE (3)
式中 CEF为每消耗1 kW·h电能产生的碳排放量,由于不同国家的生产力水平不同,相应的CEF因子也不尽相同。
PUE在计算时并没有把水的消耗包括在数据中心总能耗中,但据估计,美国数据中心能耗的4%被用于支持水的流动和处理[51]。为了跟踪水的消耗对环境的影响,绿色网格组织于2011年推出了WUE。数据中心全年供冷,耗水量居高不下,已经引起了国内外尤其是水资源贫乏国家和地区的高度重视。如何降低数据中心的耗水量已经成为数据中心值得深入研究的一大课题[52]。它的定义与CUE相似,用来衡量与IT设备能耗相关的总用水量,因此其理想值也为0,且理论上无上限值[53]。特殊的是,WUE必须考虑“基于来源”和“基于站点”的度量标准问题,这是因为水的使用策略的改变会影响其他站点的使用参数,或影响不同的公共事业的水供应链,因此基于站点的WUE被定义为WUEsite,它的计算方案相对局限,仅仅考虑了数据中心运行期间的水资源消耗,而WUEsource引入了一个重要的扩展领域[46],将数据中心现场使用的电能在生产期间的水资源消耗纳入了考虑范围,评价更为准确。
数据中心规模不断扩大的同时,其运算任务也更为繁重,如何实现PUE指标中规避的“有用的工作”的量化成为新的指标研究方向。因此,更先进的指标DCeP于2014年被绿色网格组织提出,它是一个生产率指标,用于衡量数据中心完成的“有用的工作”占数据中心总能耗的比率。该指标试图通过多个复杂的代理来量化数据中心所做的“有用的工作”[37,54],在设施功率表处或附近测量数据中心总能耗,以准确体现数据中心的功率[55]。但由于在以可实施、有意义的方式定义“有用的工作”方面存在困难,所以该指标还未能取代PUE而被广泛应用[40]。尽管当前DCeP的确定存在困难,但绿色网格组织预测它将会成为该行业的一个战略重点。
2011年CUE和WUE的提出预示着人们已经意识到了数据中心能源消耗对环境产生的影响,但这2个指标仅考虑了碳排放和水资源的影响,仍然十分片面。为综合衡量绿色可再生能源在数据中心总能耗中的占比,绿色网格组织于2014年提出了GEC,该指标的理想值为1,下限为0。绿色能源可以是任何形式的可再生能源[55],如通过光伏电池板的太阳能,或太阳能电池板的热能、风力涡轮机提供的风能、水力能源、生物燃料能源等。绿色能源可以在数据中心附近生产,也可以由数据中心管理层通过持有绿色能源证书的公用事业提供商采购。GEC的显著优势是它弥补了数据中心两两之间无法比较的缺陷,它的引入能够允许对2个具有等效的PUE值的地点进行比较[46],其中一个数据中心使用可再生能源产生的电力,另一个依赖发电站产生的电力。
2.2 其他组织提出的能效评价指标
CADE是麦肯锡提出的一个新的企业平均数据中心效率指标,用以衡量企业和公共部门及第三方托管数据中心的单独和综合能效[38]。图3显示了CADE的各个组成部分。为了衡量数据中心使用进入设施的能量的效率,CADE获取信息技术消耗的电量或信息技术负载,并将其除以数据中心消耗的总电量。为了确定安装在设施层面的物理设备使用的充分程度,CADE公式将IT设备能效与IT设备的利用率相乘,然后,将该设施效率度量乘以平均IT资产利用率,并得出组织的CADE评级。麦肯锡建立了5个CADE等级[56],在第1级运行的数据中心的CADE评级为0~5%,从效率的角度来看是最弱的。在第5级运行的数据中心效率最高,并且学术评价等级超过40%。
图3 CADE的组成[56]
ITEE(服务器IT设备能效)是由环保资讯科技促进会提出的一项节能指标,可以通过IT设备总容量与IT设备总额定功率的比值来确定。其节能的主要途径是通过建立在降低功耗方面处理能力很强的新设备来提高能效,该指标可与绿色网格组织提出的等效指标DCeP进行比较[39]。
3 当前指标间的相互联系及未来展望
当前指标之间的相互联系如图4所示,从图中可以看出,现有指标在评估数据中心能效和提供能耗优化方面发挥着不同的作用,但同时各指标也存在着局限性。最早提出的PUE虽然已成为数据中心能源性能的行业标准,但它未考虑数据中心设施的硬件效率、绿色能源的来源和对环境的影响,也无法提供实质性的节能方向。而CUE、WUE、GEC等绿色指标,仅仅能评价数据中心特定方面的能效表现,无法全面评价数据中心能效。CLF、PLF、ERE等衍生指标是对PUE的深化,但无法跳出PUE的范畴从而替代PUE成为行业标准。
图4 各指标间的相互联系
基于现有指标,本文提出了如图5所示的能效评价指标模型。该模型综合了环境因素(碳排放、水资源消耗、可再生能源使用、能量回收)和数据中心内部能耗(IT设备能耗、基础设施能耗、运营性能),试图系统地评估数据中心的能效、最大限度地减小环境足迹。虽然该指标目前还无法提出,但已有从业者进行了相关方向的研究,努力寻求PUE以外更好的指标[57]。Lajevardi等人为进一步解释能效和热管理的有效性提出了PDE(功率密度,W/m3)指标[58]。Jeong等人提出了一种基于控制图的整体调查方法,用于资源效率评估和关键绩效指标之间相互关系的识别[59]。未来,从业者们需要进行更进一步的研究,建立更加全面完善的能效评价体系。
图5 数据中心能效评价指标模型
4 结论
1) 数据中心从设计规划到正常运行的过程中,数据中心选址、供配电系统匹配、冷却系统匹配、室内温度控制等因素都会对其能效产生影响,且任何一种因素的影响都不是绝对的,因此需综合考虑各因素带来的效果,选择最好的建造方案。
2) 当前成为行业标准的PUE指标仍存在缺陷,虽然已有研究者提出了一些新的评价指标或体系,但截至目前并未出现能够替代PUE成为新的行业标准的指标。
3) 新指标应当具备将数据中心能耗与环境影响相联系的能力,以实现能效优化和最大限度地减小环境足迹。
参考文献
[2] 尹晓竹.PUE分析与数据中心节能[J].机房技术与管理,2013(6):29- 34.
[3] 中国制冷学会数据中心冷却工作组.2016中国数据中心冷却技术年度发展研究报告[M].北京:中国建筑工业出版社,2016:1.
[4] VAN DE VOORT T,ZAVREL V,GALDIZ I T,et al.Analysis of performance metrics for data center efficiency[J].REHVA journal,2017 (2):6- 7.
[6] 武晋,何利力.云计算数据中心能耗优化研究综述[J].软件导刊,2019,18(8):4- 7.
[7] PATTINSON C,KOR A,CROSS R.Chapter 12-critical issues for data center energy efficiency[M]//Green Information Technology,2015:223- 248.
[8] BROWN R E,INCORPORATED I,INCORPORATED E,et al.Report to congress on server and data center energy efficiency:public law 109-431[R].Berkeley:Lawrence Berkeley National Laboratory,2007:1- 137.
[9] DE NAPOLI C,FORESTIERO A,LAGANÀ D,et al.Efficiency and green metrics for distributed data centers[EB/OL].[2020-05-01].https://intranet.icar.cnr.it/wp-content/uploads/2016/11/RT-ICAR-CS-16-04.pdf.
[11] 李海波,王洁萍,王卫国,等.数据中心能效分析及标准化建议[J].信息技术与标准化,2012(5):32- 35.
[12] SCHOMAKER G,JANACEK S,SCHLITT D.The energy demand of data centers[C]// ICT Innovations for Sustainability,Springer,Cham,2015:113- 124.
[13] 巫晨云.数据中心能效影响因素及评估模型浅析[J].电信工程技术与标准化,2014,27(1):46- 49.
[18] 许梦玫,翟晓强,李国柱,等.数据中心冷却技术的研究进展[J].建筑科学,2018,34(8):124- 132.
[19] 肖皓斌.一种新型数据中心冷却方案及其能耗特性分析[J].制冷与空调,2016,16(7):26- 30.
[20] 夏兴祥,王铁军,袁祎,等.热管复合式机房空调系统节能研究[J].太阳能学报,2018,39(12):3339- 3344.
[21] BOUCHER T D,AUSLANDER D M,BASH C E,et al.Viability of dynamic cooling control in a data center environment[C]//The Ninth Intersociety Conference on Thermal and Thermomechanical Phenomena in Electronic Systems.Las Vegas,2004:593- 600
[22] 何其振.数据中心中央空调水泵变频节能改造方案的探讨[J].科技与企业,2016(3):217- 219.
[23] 马春霞.数据中心空调冷冻水系统设计的节能措施探讨[J].机房技术与管理,2016(6):27- 29.
[24] 杨力芝,张忠斌,陆宏杰,等.地板送风方式对数据中心热环境性能的影响分析[J].暖通空调,2018,48(12):25- 31,53
[25] ARGHODE V K,YOGENDRA J.Modeling strategies for air flow through perforated tiles in a data center[J].IEEE transactions on components,packaging and manufacturing technology,2013,3(5):800- 810.
[28] 耿云,胡雨,张忠斌,等.风道结构对地板下送风型数据中心气流组织的影响(1):数值设计[J].制冷学报,2018,39(2):80- 88,134.
[29] 胡雨,耿云,张忠斌,等.风道结构对地板下送风型数据中心气流组织的影响(2):实验验证[J].制冷学报,2018,39(3):13- 21.
[30] PATTERSON M K.The effect of data center temperature on energy efficiency[C]// 2008 11th Intersociety Conference on Thermal and Thermomechanical Phenomena in Electronic Systems.Orlando,2008:1167- 1174.
[31] 朱滨,吴晓晖,聂志华.数据中心空调系统国内外设计标准的分析和探讨[J].智能建筑与城市信息,2015(9):86- 88.
[32] The Green Grid.Green grid metrics:describing data center power efficiency[EB/OL].[2020-05-01].http://www.The green grid.org/gg_content/Green_Grid_Metrics_WP.pdf.
[33] PATTERSON M,TSCHUDI B,VANGEET O,et al.ERE:a metric for measuring the benefit of reuse energy from a data center[J].White paper,2010,29:2- 15.
[34] AVELAR V,AZEVEDO D,FRENCH A,et al.PUE:a comprehensive examination of the metric[J].White paper,2012,49:2- 8.
[35] AZEVEDO D,PATTERSON M,POUCHET J,et al.Carbon usage effectiveness (CUE):a green grid data center sustainability metric[J].White paper,2010,32:2- 7.
[36] AZEVEDO D,BELADY S C,POUCHET J.Water usage effectiveness (WUETM):a green grid datacenter sustainability metric[J].White paper,2011,35:3- 11.
[37] GRID G.Harmonizing global metrics for data center energy efficiency,global taskforce reaches agreement regarding data center productivity[EB/OL].[2020-05-01].https://home.jeita.or.jp/greenit-pc/topics/release/pdf/dppe_e_20140430.pdf.
[38] KAPAN J,FORREST W,KINDLER N.Revolutionizing data center energy efficiency [EB/OL] .[2020-05-28].http://www.ecobaun.com/images/ Revolutionizing_Data_Center_Efficiency.pdf.
[39] JAMALZADEH M,BEHRAVAN N.An exhaustive framework for better data centers' energy efficiency and greenness by using metrics[J].Indian journal of computer science and engineering,2011,2(6):813- 822.
[42] Uptime Institute.Uptime Institute global data center survey[EB/OL].[2020-05-28].https://uptimeinstitute.com/uptime_assets/f7bb01a900c060 cc9abe42bb084609f63f02e448f5df1ca7ba7fdebb746cd1 c4-2018-data-center-industry-survey.pdf.
[43] ZOIE R C,MIHAELA R D,ALEXANDRU S.An analysis of the power usage effectiveness metric in data centers[C]// International Symposium on Electrical and Electronics Engineering,2017:1- 6.
[44] TAHERI J,ZOMAYA A Y.Energy efficiency metrics for data centers[M].USA:Wiley-IEEE Press,2012:245- 269.
[45] SCHAEPPI B,BOGNER T,SCHLOESSER A,et al.Metrics for energy efficiency assessment in data centers and server rooms[C]//2012 Electronics Goes Green,2012:1- 6.
[47] 陈庆.数据中心能耗指标PUE解析[J].中国金融电脑,2019 (4):40- 45.
[48] 许文民.降低数据中心 PUE 值的方法研究[J].科技与创新,2016 (20):110- 111.
[49] Energy Star.Harmonizing global metrics for data center energy efficiency,measurement protocol for GEC,ERF and CUE[EB/OL].[2020-05-01].http://www.energystar.gov/ buildings/ tools-andresources/measurement-protocol-gec-erf-and-cue.
[50] SCHDWELL B.Data center green performance measurement:state of the art and open research challenges[C]// Nineteenth Americas Conference on Information Systems (AMCIS),2013:1- 15.
[51] GOLDSTEIN R,SMITH W.Water & sustainability (Volume 4):U.S.electricity consumption for water supply & treatment-the next half century[J].Water supply,2002,4:93.
[52] 殷平.数据中心研究(8):水资源利用[J].暖通空调,2018,48(3):1- 7.
[53] LEVY M,RAVIV D.An overview of data center metrics and a novel approach for a new family of metrics[J].Advances in science,technology and engineering systems journal,2018,3(2):238- 251.
[54] BROWN E.Electronics disposal efficiency (EDE):an IT recycling metric for enterprises and data centers[J].White paper,2012,53:1- 34.
[56] TAHERI J,ZOMAYA A Y.Energy efficiency metrics for data centers[J].Energy-efficient distributed computing systems,2012,88:24.
[59] JEONG S,KIM Y.A holistic investigation method for data center resource efficiency[C]//International Conference on ICT Convergence,2014:548- 551.
作者简介:张忠斌,男,1980年生,博士研究生,教授210023江苏省南京市栖霞区学林路2号E-mail:zhangzhongbin@163.com;
收稿日期:2020-05-28
基金:镇江市重点研发计划项目(编号:GY2019025);江苏省研究生研究与实践创新项目(编号:SJCX21_0571);
本文引用格式:张忠斌,邵小桐,宋平,等.数据中心能效影响因素及评价指标[J].暖通空调,2022,52(3):148-156,99.