目 录
1、
如何衡量机房能耗效率 ....................................................................................................... 2 1.1机房能耗效率测量方法 .................................................................................................... 2 1.2机房能耗数据的采集 ........................................................................................................ 3 2、 如何分析机房能耗效率 ....................................................................................................... 4
2.1机房内KPI对比分析 ........................................................................................................ 4
2.1.1对比KPI:耗电量/PUE。 ..................................................................................... 4 2.1.2对比KPI:PUE/室内温度。 ................................................................................. 7 2.1.3对比KPI:PUE/室内湿度。 ................................................................................. 9 2.2设备类型分析 .................................................................................................................. 10
2.2.1设备类型分项耗电量统计 ................................................................................... 10 2.2.2各类设备占总耗电量比重 ................................................................................... 10 2.3 KPI波动分析 ................................................................................................................... 11 2.4 PUE分布统计 .................................................................................................................. 12 2.5能耗费用计算 .................................................................................................................. 12 2.6聚类分析 .......................................................................................................................... 13 2.7模型预测值分析 .............................................................................................................. 14 3如何提高机房能耗效率 ............................................................................................................. 14
3.1数据中心设备的合理利用 .............................................................................................. 15 3.2虚拟化的利用 .................................................................................................................. 16 3.3机柜摆放 .......................................................................................................................... 17 3.4 IT设备摆放 ...................................................................................................................... 17 3.5最大限度提高冷却效率 .................................................................................................. 17 3.6增强设备电力管理提高PUE效率 ................................................................................. 18
3.6.1提高PUE效率之降低供电能效因子 .................................................................. 19 3.6.2提高PUE效率之减少制冷能效因子 .................................................................. 19
4总结 ............................................................................................................................................. 20
目前,PUE已经成为国际上比较通行的数据中心电力使用效率衡量指标。据
统计,国外先进的机房PUE值可以达到1.21(Google六座数据中心平均PUE值为1.21),而我们国家的PUE平均值则在2.5以上,这意味着IT设备每耗一度电,就有多达1.5度的电被机房设施消耗掉了。特别是中小规模的机房PUE值更高,测量数值普遍在3左右,这说明有大量的电实际都被电源、制冷、散热这些设备给消耗了,而用于IT设备中的电能很少。
据统计,目前国内机房中140平米以下的占50%,400平米以下的占75%左右。如果按照装机量大致计算,总的全国机房耗电量在100亿度到200亿度。如果能把PUE降低一个数值,节约的能耗就是33%,大概 30到60亿人民币。
可见,数据中心用户的目标是应当将PUE目标值定在2以下,尽可能接近1。换句话说,如果IT设施需要1,000瓦电力,数据中心需要的总电力不应当超过2,000瓦。
1、 如何衡量机房能耗效率
1.1机房能耗效率测量方法
当前,测量数据中心的能耗指标有两种方法:
1、Power Usage Effectiveness(电源使用效率,PUE)
2、Data Center Infrastructure Efficiency(数据中心基础架构效率,DCIE)。
这两种方法都考虑了数据中心里供电、散热系统和IT设备所各自消耗的能量。The Green Grid组织(绿色网格组织,这个组织是去年为了专门开
发数据中心能效及生产力测量体系而组建的)定义了这两种测量方法的具体计算方式:
3、 PUE = 数据中心总设备能耗/IT设备能耗,PUE是一个比率,基准是2,越接近1表明能效水平越好。
4、 DCIE = IT设备能耗/数据中心总设备能耗x 100,DCIE是一个百分比值,数值越大越好。
根据The Green Grid,测量数据中心中IT设备电耗的最有效的方法是测量机房PDU( power distribution units,我们可以理解为列头柜)的输出电量,这个方法应该代表了数据中心里向服务器机柜输送的总电力。
1.2机房能耗数据的采集
为了节能,你首先得知道你的数据中心能效水平是怎样的,所以必须开始实时测量和监视数据中心的用电。
1、主设备能耗采集: 2、空调能耗采集: 3、机房照明插座能耗采集: 4、机房环境温湿度采集: 5、数据上传:
2、 如何分析机房能耗效率
数据采集完成后,通过能耗分析管理系统平台分析,为我们提高数据机房的电源使用效率指明方向,请看以下分析数据:
2.1机房内KPI对比分析
2.1.1对比KPI:耗电量/PUE。
[数据粒度:日]
图(2.1)
图(2.2)
图(1)显示PUE与耗电量在一定范围内(耗电量大于某值)呈正相关;图(2)显示PUE与耗电量在一定范围内(耗电量小于某值)呈负相关。 分析:绝大多数能耗产生于IT设备和空调设备,忽略开关、照明等次要因素,则:
PUE=
数据中心总能耗IT设备能耗+空调能耗空调能耗
==1+
IT设备能耗IT设备能耗IT设备能耗
IT设备能耗
由该公式可以
看出,PUE实际上与空调能耗呈正相关。
①、 当IT设备能耗较低时,总能耗较小,IT设备利用率较低,空调能耗占比较
大,此时空调能耗的值较大,随着业务量增加,IT设备能耗增大,数据中
IT设备能耗
心总能耗增大。在一定范围内,空调能耗上升不明显,此时空调能耗变小,
IT设备能耗
PUE值变小,PUE与总能耗呈负相关的关系;
②、 随着业务量继续增加,IT设备能耗不断提高,IT设备利用率不断提升,空调
能耗变大,数据中心总能耗增大。到一定数值(拐点)后,IT设备能耗增速赶不上空调能耗增速(保持机房室内温度相对稳定,防止形成局部高温
区),此时空调能耗变大,PUE值变大,PUE与总能耗呈正相关的关系,
IT设备能耗
并逐步变成负相关,形成第二拐点。
机房PUE与总能耗相关性分析中可以看出PUE与总能耗的相关性有正负的变化,其第一拐点是有重要意义的,负相关说明机房能效较差,节能空间较大;正相关说明机房能效较高,进一步节能较难。如果正相关区间比例较大说明机房总体能效较好,进一步节能需采用高技术高投入的节能技术手段,如:主设备智能能源调配及空调深度技术改造手段;反之负相关区间比例较大说明机房总体能效较差,节能之需采用简单技术低成本节能技术手段,如:因空调节能空间大,升温、关机或其他低成本温控技术手段即可立见功效。如果到了第二拐点,说明主设备产生的热负荷超出空调承受能力,也很危险易引起主设备高温宕机,需增配空调,同时也说明了安装IDC机房主设备温度告警3D呈现系统的必要性。
引申到集团各地其他类型机房,基本都是负相关的,估计第一拐点暂时找不到,因其能效根本达不到以上机房的水平。因此集团各类机房节能空间巨大。
当然目前数据采集时间、样本数据量还较小,应该加长时间即加大数据量进一步验证拐点值的变化。如此拐点理论成立,软件可进一步研发拐点呈现功能。
2.1.2对比KPI:PUE/室内温度。
图(2.3)
(2.4)
图(2.5)
从图(2.3)和图(2.4)中可以看到,在温度较低(24、25度)时,PUE较高,且PUE与室内温度呈反相关的关系。从图(2.3)中可以看到,在温度较高(26、27度)时,PUE较低,且PUE与室内温度没有明显的线性关系。
分析:室内温度过低,势必需要空调提供较大的功率负荷,因此空调耗电较多,故而PUE较高,而温度适中,空调提供功率较低,PUE自然较低。
从机房PUE与室内温度相关性分析中可以看出在一定温度区间有负相关性,超出某温度值就无相关性了。这个温度值是否就是机房适度温度的最低值呢?低于这个温度值是否能说明空调能耗有浪费现象,适当高于这个温度值空调能效较理想,但不能太高,否则主设备有高温宕机的风险,可以配合IDC机房主设备温度告警3D呈现系统分析出机房温度值不能高于多少。
当然如能够取到机房空调出风口温度,再与机房PUE做相关分析更能说明问题。当初安装测试系统时以为能很快拿到机房空调监控协议,可采集协议数据中的出风口温度做相关能耗因子,因此未安装出风口温度传感器,如协议短期内仍然拿不到可在空调出风口处安装温度传感器。
2.1.3对比KPI:PUE/室内湿度。
图(2.6)
结论:PUE基本与室内湿度呈正相关,室内湿度升高,空调耗电量升高,那么PUE相对来说会升高。不过湿度数据的真实性需要验证,机房建设标准一般规定室内湿度为40%-55%RH,一般设置在45%RH,而图中显示,室内湿度数据大多在20%-30%RH之间。
2.2设备类型分析
2.2.1设备类型分项耗电量统计
2.2.2各类设备占总耗电量比重
从图中可以看出,主要耗能设备为列头柜(列头柜后带IT设备)和中央空
调,PUE=
270.44+138.92
=1.51,较为理想,符合PUE的长期分布。
270.44
2.3 KPI波动分析
KPI因素:能耗。[数据粒度:小时]
从图中可以看出,一天当中,从0点到6点时段,能耗较为平滑;从6点到12、13点时段,能耗快速上升,而后能耗逐渐减少。对于日/周,日/月两种粒度,没有观察到较为明显的趋势变化。
2.4 PUE分布统计
从图中可以看出,PUE以1.5为均值,大致呈现正态分布。PUE值1.3只有1次,似乎当天空调维修未全开。
2.5能耗费用计算
以电费0.7/度计算,则机房6月份电费使用情况如下图:
从图中可以看出,6月份共产生电费:89138元。其中列头柜耗电占其中的67.95%,中央空调占32.05%。
2.6聚类分析
选择已进行能耗监测的六个机房:广州南基201、202、203机房,汕头移动龙湖移动大楼6F数据1机房、6FIT1机房以及北京研究院310机房。
选择一个时间段进行聚类,结果6个机房聚为了两类:其中汕头的2个机房为一类(均为核心网数据机房),广州南基的3个机房与北京研究院310机房为另一类(均为IDC专用机房)。
为分析广州南基3个机房与北京研究院310机房为什么会聚到一类,进行第二层递进聚类。在递进聚类时,发现选择“室外温度”和“室外湿度”两个属性时,这四个机房仍聚为一类,说明这两个属性对这四个机房没有影响或影响度也类似,查看数据确实是这四个机房的室外温度均没有值(均未安装室外温湿度传感器)。而选择另外任意一个属性,比如室内温度、室内湿度、城市、PUE、面积等递进聚类时,发现聚类成了两类:研究院310机房为一类,南基3个机房为另一类。
通过聚类发现室内温度、城市、PUE值、机房类型、楼层、装机率、机楼位置、朝向、面积、室内湿度,层高等对研究院310机房和南基3个机房的影响度不一样。而多纬度递进聚类可以找出各个参量对能耗的影响度。若找到一个能效配置非常合理的机房,则我们在相似区域(经纬度和区域相近)新建类似机房
时,就可以参考此标杆机房的各项参量配比。
2.7模型预测值分析
为了检查预测值的准确性,我们预测历史能耗值,将预测值与历史记录值进行对比,看预测的结果是否准确。
建立模型后,预测2012-05-12开始一周内的能耗值(下图)。
预测到的单点平均值与实际的单点平均值相差28度电,误差在0%以内(即没有误差)的预测值达占比到了71%,误差在10%以内的预测值占比达到了100%。能耗预测模型的预测非常准确。
3如何提高机房能耗效率
随着IT设备的更新换代,每单位空间需要越来越多的电源和冷却能力,但是每单位能源可提供更高的计算能力,需要进行适当的配置后,新服务器设备有助于用更少的设备做更多的工作,从而为数据中心运营释放电源和冷却能力,做好节能降耗。
在前面,我们已经对该机房能耗效率方面做了详尽的评估和分析, 总体来说,目前中国移动研究院310机房PUE值基本上可达到1.5左右,在国内处于领先水平。分析该机房的PUE指标能够达到国内先进水平的原因主要为以下几
个方面:
3.1数据中心设备的合理利用
数据中心设备的复杂度非常高,在高可靠性的要求之下。可以采用的解决方式是,把原来纵向的应用架构改成了新的横向架构,即服务器、存储和网络的横向管理,而不是像从前那样按照各个系统来建立支撑平台。
通过横向的调整和整合,把各类应用层全部统一管理,提出服务器存储和网络支撑共享的方略,最终达到按需分配的模式。具体而言,在整合过程中,通过机房的整合,把设备逐步整合到一起;通过网络的整合,把原来分布在各个区域之中的服务器,对不同的终端进行支撑,构建成一个数据与存储一体化的网络架构。实施方法如下:
首先把物理分散服务器进行物理集中,以支撑网络结构的调整。主要的思路是减少服务器,减少存储设备和相关的基础设施,把原来机房进行集中。物理集中完毕之后,然后对应用进行划分,根据划分结果进行服务器的集中,将分散在各处的服务器、维护人员进行整合,并对机房进行相应的选址及规划。 然后是服务器的逻辑集中和应用整合。先是建立服务器群组,进行应用的归类与划分;然后利用逻辑和物理分区技术,实现服务器计算能力的“动态应用”;并利用统一的分级存储结构,实现数据生命周期管理。将进行容灾系统的建设,用集中的、稳定的大服务器,代替分散的、不稳定的小服务器集群,进行灾备中心、安全中心的建设工作,以提高现在系统的可控性、可用性,并减少成本。
在整合过程中,从运营商的角度来讲要服务于具体的业务目标,而不是跟着目前的技术去走。
3.2虚拟化的利用
虚拟化是新一代数据中心使用最为广泛的技术,也是其与传统数据中心的最大差异。在新一代数据中心,通过服务器虚拟化、网络虚拟化、应用虚拟化等解决方案,不仅可以帮助企业或机构减少服务器数量、优化资源利用率、简化管理,还可以帮助企业或机构实现动态IT基础设施环境,从而降低成本、快速响应业务需求的变化。
虚拟化分为硬件虚拟化和软件虚拟化两大部分
硬件虚拟化体现了硬件即服务的理念,只有规模大的企业或IT投资较大的大中型企业才有可能从硬件虚拟化中受益。而对于IT投资不足的中小型企业,硬件虚拟化带来的效益可能和部署硬件虚拟化带来的成本持平。
软件虚拟化技术可适用于各个层次的企业,具有广泛适用性。对拥有数据中心的大型企业,可以同时使用硬件虚拟化和软件虚拟化技术,并同时获得两者带来的优势和效益;对于没有数据中心的中小型企业,使用软件虚拟化技术的性价比更高。
现在业内的数字表明,很多服务器的利用率很低。举个例子,在基于x86服务器环境中,Windows和Linux服务器利用率一般低于CPU资源的15%;很多UNIX服务器只利用了15~25%;这意味着服务器有75~90%的时间在消耗电源和冷却资源,却不完成任何工作。虚拟化和合并能力使您能够将多个服务器上的工作负载合并到单个服务器上,使服务器利用率提高到50~70%,并且潜在地以削减的成本在x86和UNIX服务器上完成4到6倍的工作。
3.3机柜摆放
在现代机房的机柜布局中,人们为了美观和便于观察会将所的的机柜朝同一个方向摆放,如果按照这种摆放方式,机柜盲板有效阻挡冷热空气的效果将大打折扣。正确的摆放方式应该是将服务器机柜面对面或背对背的方式摆放,在机柜前设出风口,使之形成“冷”通道和“热”通道。这样机柜之间的冷风和热风就不会混合在一起形成短路气流,将提高制冷效果。
3.4 IT设备摆放
随着服务器的小形化、高密度化以及刀片式服务器的产生,使服务器摆放的位置越来越不容IT管理者忽视。这些高功率设备的发热量比普通IT设备可能要高1倍或者更多,如果将这些高功率负载密集地摆放在一个机柜内,很人容易会出现一个高密设备群并形成一个巨大的发热群体,这种情况最容易导致数据中心出现局部热点,IT管理人员不得不降低整个机房环境的温度或是添加专门的制冷设备,来处理这个局部发热点。针对这样的问题,可以将这些高功率设备和高密度服务器均分在每个机柜内,这样就会减少数据中心的热点和制冷难点,制冷设备地运行费用和采购费用也随之降低。
3.5最大限度提高冷却效率
服务器市场的惨烈竞争使其成本降低了不少,但是冷却方面的能耗却一路飙升,居高不下。根据数据中心研究机构正常运行时间学会(UPTIMEINSTITUTE)研究发现,由于“气流损失”,也就是“旁路气流”导致数据中心冷去的冷空气有60%都被浪费了。结果是低效的气流管理导致我们在能源方面花了许多冤枉
钱。
可见,优化数据中心气流管理可以降低操作成本和递延资本成本。此外,有效的管理气流还可以在不增加新的冷却设备情况下增加服务器密度。
第一, 空调机与机柜排垂直摆放且避开冷通道。当功率密度高时,空调机应分散安装。
第二, 在高功率密度数据中心,调节出风口的出风速度。增加静压在总压中的比例,使冷风均匀分布。再通过送风口上设置的风量调节阀,调节每个机柜前风口的通风面积和风速,从而达到机柜需求供给合适的风量,以此提高空调的效率。
第三, 在空调机顶部安装回风道,并在热通道上方设置回风口。可以更有效地减少热空气回流,使机房内上下温度平均。将回风道延伸到了热通道两端的上方。这种方法能够使热气流被快速大量的抽走,但是这对风道的横截面积和风速的计算都要求比较精确,防止热空气回流。并在冷热通道的两端添加了出风口,冷却少量从热通道两侧溢出的热空气,防止冷热空气混合,降低制冷效率。
3.6增强设备电力管理提高PUE效率
谈到数据中心节能,PUE是一个重要的指标。它反映了数据中心供电有多少被真正用于服务器计算。最好的结果是PUE为1,有多少供电全部都用于服务器计算。但实际上,这是不可能的,为保证服务器正常稳定工作,需要制冷,需要对服务器进行散热。此外,电源转换、照明、监控安防等需要消耗电力。因此,对于数据中心管理而言,就是想方设法提高PUE的效率(值越小越好)。
PUE值可分解为制冷能效因子、供电能效因子和IT设备能效,当IT设备能
效等于1的情况下,降低PUE值的最有效方法就是降低制冷能效因子和供电能效因子。
3.6.1提高PUE效率之降低供电能效因子
这里的供电能效因子包括ATS开关损耗、低压配电系统损耗、供电电缆损耗和UPS系统损耗。统计数据表明出了UPS系统损耗外,其他损耗值大约为0.02,所以降低UPS系统损耗是关键。
另外,在数据中心里,即使服务器在空闲时也会消耗峰值的75%-80%,使用电源管理软件适时关闭和开启空闲服务器可降低能源峰值的45%,但是应用在需要不间断工作的系统中,很多人关注服务器再启动的响应时间问题。
目前数据中心供电系统节能的发展趋势已经很明显。一方面,取消高昂而耗能的隔离变压器,自试点入户变压器后,所有供电设备环节不再采用工频隔离变压器;另一方面,供电回路上,服务器工作电源是能耗最高节点,效率仅为70%-75%。未开可能采用高压直流技术(380V直流系统),大大减少供电系统损耗。
3.6.2提高PUE效率之减少制冷能效因子
数据中心所需制冷量需要与IT负载热容量匹配,可随IT设备的散热量调节制冷容量和风速,消除不必要的冷量和空气循环来提高制冷系统效率。另一方面,在高热密度的数据中心里,可让冷风更接近热源,可也有效减少制冷损耗。
显然,一个设计与运营良好的数据中心,在空调系统配置正确,不考虑照明、新风机等设备情况下,能效比应该是小于1.6。现在的数据中心客户也已经开始广泛关注节能与效率,目前运行的数据中心PUE基本在2~2.5范围内,新设计的数据中心客户PUE指标倾向于1.8~1.6之间,并且大的客户已经开始在标书中要求采用美国流行的能效评定模型PUE指标设计。
4总结
由以上分析,采用以下方法可以大幅度提高数据中心能耗效率: 第一, IT设备刀片化、虚拟化,减少服务器数量,以降低服务器能耗; 第二, 采用直流供电技术,大幅度提高供电效率;
第三, 使用液体制冷技术,合理布置,让冷源更接近热源,建立冷热通道,
减少空气对流散热。
因篇幅问题不能全部显示,请点此查看更多更全内容