多少主旨节约财富的多种政策(1)

目前影响机房部分温度过高的原因是:气流组织不合理;机房内部的气流分部混乱,不能形成空气有序的循环;局部风量分配不足。为解决这些问题,必须重新组织气流结构,使其有效对流,带走热量。采用管道精确送风,存在机柜间距离过小,正常管道影响布线及维护工作,管道过细不好风阻过大,达不到精确送风效果。

随着数据中心规模的不断增长,能耗问题凸显,能耗问题已经成为制约数据中心发展的关键因素。能耗基本占用了数据中心一半的运行成本,大大降低了数据中心的盈利能力。一方面,数据中心规模越来越大,设备数量不断增多和处理能力的不断增强,带来了更多的能量消耗;另一方面,设备数量越多,需要冷却的设施开销就越大,一般计算资源每消耗1瓦电能,就需要额外的0.5~1瓦电能进行冷却。数据中心已经意识到了能耗问题,必须采取必要的节能手段。否则,数据中心再这样建设下去,将入不敷出,数据中心建的规模越大亏损的越厉害。其实,在数据中心节能上,已经有很多文章可做,包括硬件、软件、算法设计、机房环境设计等等,从不同角度出发都可以有一些值得借鉴的节能方法。那么若仅从软件方面考虑,有哪些节能的行之有效方法呢?本文将针对软件节能技术扩展讲来,介绍其中一二。

占据中国经济最大比重和命脉的中央大企业集团,同时也是能耗的大户,他们受到了来自政府的节能减排业绩考核,所以这些中央大企业集团迅速将节能减排的指标层层分解下达各级下属企业,并作为重点考核项目。同时,各企业也希望通过节能减排,通过“绿色行动计划”推进成本的长期降低,达到公司快速、健康、持续发展的目标。

节能:数据中心的持久战

一、机房现存在的问题

威尼斯网址开户网站 1

IDC能耗特点

近日,工业和信息化部在其官方网站发布了《〈绿色数据中心先进适用技术目录〉公示》。目录共分为制冷/冷却类、供配电类、IT
类、模块化类、运维管理类五大类别,涉及17项具体技术。

  无论你的公司已经开始走上了以提高数据中心能效为目的的道路,还是甚至不知道对节能何处下手,本文将介绍NetApp公司用来改善数据中心基础设施的十项方法。用户会惊喜地发现,这些方法不但简单易学,还经济可行。

机房现状:通化移动生产五楼交换机房安装了五台精密空调分别是:9AU16一台、9AU22两台、M40一台、M60一台,送风方式均为上送风,目前采用风帽直吹式送风。

软件节能的主要出发点是数据中心里有成千上万台的设备,在不同时刻不同业务情况下,每台设备的工作繁忙程度都不同,如果能将这些资源有效利用起来,让这些设备工作起来更有效率,从而起到节能的目的。比如数据中心里的服务器,所有服务器并不是一直都处于运转状态,尤其是在夜晚和凌晨用户较少的时候,许多树脂型的负载相当低,而处于空闲状态的服务器与工作状态的服务器功耗几乎没有差别,大量的计算资源和能量被白白浪费掉。还比如设备的风扇,如果机房内温度较高,风扇持续处于高速状态,这样必然增加能耗,这也是很多数据中心保持内部恒温在24度左右的环境的原因,让设备风扇处于低转状态,设备处于这样的温度环境中,硬件也不易出现老化。数据中心的功能主要由CPU、内存、存储、网络等几个部分组成,软件节能技术也是从这些方面逐一入手。

业务和管理的电子化和网络化发展,导致企业关键业务的支撑、运行和重要数据的存储,离不开数据中心(IDC),因此IDC现在得以快速发展和大量建设。但IDC由于设备集中,大型主机数量众多,成为了企业的用电大户。据初步统计,电信运营商的电力消耗约占公司总体消耗的87%,87%的电力消耗中有73%左右消耗在基站和机房上。根据我们对西安某电信大楼的测量,IDC机房中UPS和空调的用电量超过了整个大楼用电量的80%,而IDC机房面积不足大楼的5%。

技术的进步使得数据中心在节能方面不断改善。去年3月份,工信部、国家机关事务管理局、国家能源局联合印发的《国家绿色数据中心试点工作方案》透露,随着信息化快速发展,全球数据中心建设总量已超过300万个,耗电量占全球总耗电量的比例为1.1%~1.5%,其高能耗问题已引起各国政府的高度重视。

  大大小小的客户反映,能耗带来的成本是他们担心的一大问题。Gartner公司估计,到2008年,IT预算总额当中48%将用于能源这一项。这个比例实在高得惊人。

威尼斯网址开户网站 2

部件节能算法

但IDC机房又是节能的难点,越来越强处理能力的服务器,越来越大容量的数据存储设备和网络设备,需要消耗更多的电能。而集成度越来越高的设备,发热量越加集中,导致机房温度控制是个很大的问题。如果将IDC机房空调和机房散热的问题解决好,IDC机房用电问题就可以有效缓解。只有对降低机房能耗的新技术与新方法进行研究,力求通过合理选用服务器机架、合理进行散热规划、优化机房设计、布局、使用等方面,提高机房散热效率,降低IDC机房的整体能耗,才能达到节能减排的目标。

“作为工业领域的大耗能产业,国家对数据中心节能发展非常重视,行业和用户也在持续关注,市场正在培养,发展潜力巨大。”在11月16日召开的中国数据中心节能技术大会上,中国电子节能技术协会数据中心节能技术委员会秘书长吕天文表示,节能现在已经成为数据中心重要的领域,甚至是着力点。

  在2007年8月发布的报告中,美国环保署(EPA)表示形势不容乐观。美国环保署的估计数字显示,要是能效方面保持目前这个趋势,全美数据中心的能耗量到2011年几乎要翻一番。

图1现实机房平面示意图

所有的设备都需要有CPU,而CPU也是一个消耗能量比较显著的器件,通过对CPU的能耗进行有效管理,从而达到降耗目的。比如对CPU进行节能状态的设计,当CPU处于空闲状态时,及时进入休眠或者关闭状态,当需要运转时,自动唤醒即可。当CPU进行休眠或者关闭状态时,自动调整电压和频率,从而达到降耗目的。当然,这个过程要靠复杂的算法来完成,通过算法来自动控制,实现CPU的自动调节,达到节能目的。不仅是CPU,内存、存储部件等都可以实现,通过动态的能效管理,有效提升这些能耗部件的运行效率,在空闲和繁忙之间自如切换,降低设备运行时的能耗。其实很多设备在大部分时间里都有空闲状态,通过这些能效管理,真正能够降低每台设备的能耗。

威尼斯网址开户网站,随着互联网、移动互联网、云计算以及大数据等应用的快速发展,全球数据中心的建设步伐正在加快,与此同时,数据中心的节能降耗问题也进一步凸显。在此次大会上,行业协会代表、专家学者以及企业界人士就如何降低数据中心能耗、实现绿色发展进行了深入的探讨。

  多年来,NetApp里面的跨部门团队与地方电力公司之间的合作大大提高了数据中心的能效。这要归功于公司主数据中心的改进,已经达到了节省能效的目的,环保署称这种节省对2011年的数据中心而言处于”先进水平”。另外,公司预计,新建的数据中心都将符合美环保署为2011年制订的”可以达到的最高目标”,不但能提前三年实现,而且只使用现有的技术。以下是提高能效的十个方法:

因机房内留有余地,便于以后增加机柜设备,但由于机房设备的扩充,机柜的体积大小不一,布局不够均匀,其中有部分机柜的间距过大或过小,造成冷风送不进去的现象,阻挡了空气的对流。

资源优化整合

我国数据中心发展迅猛,总量已超过40万个,年耗电量超过全社会用电量的1.5%,其中大多数数据中心的PUE仍普遍大于2.2,与国际先进水平相比有较大差距,如美国数据中心PUE已达1.9,先进数据中心PUE甚至达到1.2以下。PUE值是指数据中心消耗的所有能源与IT负载消耗的能源之比,PUE值越接近于1,表示一个数据中心的绿色化程度越高。可以看到,我国在降低能源消耗方面发展空间极大。

  测量以便控制

机房装机密集、走线架多、空气流通性差,局部设备散热分布不均匀,在机房专用空调配置较合理的情况下,仍存在局部高温报警现象。由于空调采用直吹式送风,风送的不远,产生局布温度过热,并加之机柜发热量过大,从而使整个机房的温度过高。

数据中心业务运转依赖的主要资源就是计算、网络和存储三大资源,而这些宝贵资源在很多数据中心里都存在浪费现象。随便登陆几台设备查一查就知道,大部分的网络设备端口带宽都维持在50%以下,大部分的服务器CPU都低于30%,大量的资源被闲置。当然,数据中心这样做也有苦衷,每当重大活动、节日访问数据中心的流量增加很多,如果不做些冗余,这些时候数据中心根本撑不住,所以将数据中心按照最高业务容量来设计也是必须的。这时对这些资源进行优化整合就非常有意义了,这里主要依靠的是虚拟化技术,通过虚拟化将计算、网络和存储等资源集中起来,统一分配,避免硬件资源过渡部署和利用率不足。比如通过虚拟化技术可以把多个负载整合到同一个物理机上,关闭空闲的物理机,达到节能目的。当当前的资源无法满足时,再将空闲的物理机重新利用起来,通过资源的优化整合,提升资源的使用率,节约数据中心能耗,减少数据中心占用空间。

与此同时,人类社会从机械化、电气化、自动化一路走来,正迈进万物互联、万物智能的智能化时代,移动互联网、云计算、物联网等产业的崛起,使得需要节能改造的数据中心日益增多,据悉,2015年我国数据中心节能改造规模已达30亿元左右。“预计到2019年,全球数据中心基础设施市场规模将达到440亿美元左右。”华为技术有限公司高级经理高继军认为,无论是从厂商角度还是从客户角度出发,都应该去做更多的工作。

  要是无法测量能耗情况,就无法控制,这是运营效率方面的经典格言。为了防止能效低下,先要从基准测量开始。如果不知道电力耗用情况,就不知道要关注哪些方面。为了帮助测量能耗,可以分成以下几大类:
IT系统、UPS、冷却装置、照明系统等。

威尼斯网址开户网站 3

云平台综合管理

高继军同时指出,现在的数据中心存在很多挑战,前期规划难、建设周期长、质量管控难、人工维护难。“数据中心的运维成本70%是电费,主要是制冷能耗,全球数据中心电力消耗大约相当于7个大亚湾核电站的年发电量,总的耗电量非常惊人。数据中心的维护也面临巨大的风险,70%的故障是人为操作造成的,人员水平的差异、经验、熟练程度就决定了运维水平。”

  IT 系统虚拟化及整合

图2现实气流示意图

将数据中心能耗纳入云平台管理,对整个数据中心能耗状态进行动态监控和管理。所有设备运转都要消耗能量,同时所有设备运转也需要散热,制冷又需要消耗能量,在这个过程中,在不影响业务运转的情况下,如何保持最低的能耗量,可以通过云平台来有效管理。在云平台上看到的就是各种资源的消耗情况,有计算、网络和存储资源,也有能耗资源。在业务量并没有增加的情况下,各种资源消耗也没有增长时,如果能耗资源在不断增加,就需要排查原因,通过调整恢复到正常状态。当有业务增加时,能耗资源必然增加,但通过云平台的自动调节,比如适当提升室内运行温度,提升服务器运行CPU利用率,尽量保持当前的能耗水平,这个过程完全可以通过提前设置好运行参数,交由云平台自己完成。现有一种叫DCIM(数据中心基础设施管理软件)的软件,它甚至可以为数据中心实现高达30%的节能效果。这里还有很多种节能算法,在各种论文、报刊上都有提及。比如基于超图的存储优化算法,网络感知节能调度算法DENS,功率封顶技术等等,通过这些优化算法,对数据中心各个环节都有节能优化,同时也可以对数据中心整体的综合能耗进行整体管理和监控,并可以自动调节,从而达到降低能耗的目的。

“数据中心要节能,必须重视节能规划,在建设阶段不重视,以后再改建就难了。”数据中心节能技术委员会执行副主任张广明强调说。

  美国环保署估计,数据中心的总耗电量中50%来自服务器和存储系统,它们自然就成了首要的节电对象。眼下的热门趋势就是服务器虚拟化,这种有效策略可以节省空间、电力和冷却资源。

综上所述,目前影响部分温度过高的原因是:气流组织不合理;机房内部的气流分部混乱,不能形成空气有序的循环;局部风量分配不足。为解决这些问题,必须重新组织气流结构,使其有效对流,带走热量。采用管道精确送风,存在机柜间距离过小,正常管道影响布线及维护工作,管道过细不好风阻过大,达不到精确送风效果。

软件在数据中心节能中逐渐扮演了一个非常重要的角色,数据中心中软件主要是用来操控硬件,给硬件下达启动程序的指令,达到降耗目的。如果软件可以使硬件以更少的能源消耗传递更出色的性能,那么在不增加任何成本的情况下,让数据中心的能耗逐年降低,这是大家都希望看到的结果。

规划指标不等于实际功耗

  为了充分获得服务器虚拟化带来的好处,需要存储基础设施提供汇集的网络存储资源。与服务器虚拟化一样,存储虚拟化也可提高能效:
数量较少、比较庞大的存储系统提供了更多的容量和更高的利用率,因而减少了空间、电力和冷却资源。

注:1)红色机柜为高发热量机柜,2)北侧10扇窗户,3)南例8扇窗户1扇阳台门。

【编辑推荐】

“自从政府呼吁数据中心节能降耗,许多PUE指标在3~3.5的数据中心通过使用高效的节能组织、优化设备运行状态、提高维护水平等,都将数值降到了2~2.5,这并没有难度。”张广明介绍,数值再往下降就没那么容易了,“要靠高效的供电、制冷设备,模块化技术,优化的方案来改善气流组织设计;利用自然冷源、智能管理系统等一系列措施来支撑”。

  通过实施存储和服务器虚拟化技术,改用了更加节能的存储模式。我们用10个最新的存储系统换掉了50个较旧的存储系统,因而获得了以下好处:

张广明估计,理想的数据中心能耗数值应该可以降到1.2左右,“这需要两项技术的叠加,一是去掉制冷系统,把自然冷源的温度提高到60~80摄氏度,这样数据中心即使建设到海南岛,全年也可以用自然冷源,不需要制冷;另外一项技术就是企业自主储能供电,去掉传统的UPS系统,供电系统效率就能从80%左右提高到97%”。难处在于两项技术都需要IT厂商参与,“制冷和供电技术设备厂商单独做不了,必须要多方配合”。

  存储机架的占用空间从25个机架减少到了6个机架;

自从按照行业和政府部门要求,PUE要达到1.5左右,新设计和改造的数据中心的规划指标都齐刷刷降到了1.5,张广明不客气地指出,这太不正常,“PUE指标是个技术指标,不是政治和行政指标,目标的提出也要符合技术的发展规律”。

  电力需求从329kW减少到了69kW;

规划值难以达到,其不合理之处在于,在确定IT设备数量和用电规模时,当前普遍采用的方法会加大IT设备数量和用电量,使得在整个数据中心生命周期内IT设备用电量都达不到规划值。

  空调制冷能力方面的需求减少了94冷吨;

PUE的规划指标不等于实际运行效果,IT设备功耗应该统一根据数据中心的性质、用途、等级提出最终的目标,根据设备的规格、型号、功能、数量确定功耗,但这种方法比较困难。现在的方法是根据数据中心的建设面积、主机房面积、机架平均占地面积、机架数与功率密度计算得到的数值,“虚得太多。”张广明指出。

  系统供电所需的成本每年减少了6万美元。

另一方面,供电系统规划不能保证制冷系统的连续性,使IT用电量在整个数据中心生命周期内不敢增加到规划值。“不敢增加服务器,实质是不能保证电源能够连续运行、连续制冷,这是被动能源带来的问题。”张广明说。

  管理数据

“制冷系统规划欠缺也限制IT用电量在整个数据中心生命周期内都不敢增加到规划值。”张广明说。设备标称的制冷功率忽略了冷气利用效率,“制冷功率等于IT设备消耗功率是不对的,还应考虑传输的损耗、阻力等问题”。

  在进行存储虚拟化规划时,我们对现有业务数据进行了审查。结果发现,存储的数据有50%可以删除。

“从目前国内外最新的研究进展来看,使用液态冷媒替代空气来对计算机设备进行冷却,是未来计算机设备的一场技术革命。”中科曙光数据中心产品事业经理刘广辉说。

  遏制数据过度增长的首要方法就是事先阻止数据激增。企业的磁盘卷通常都含有数百万个重复数据对象。这些对象被修改、分发、备份及归档时,重复数据对象也重复存储。

从分类来说,液冷目前分为“冷板式液冷”和“全浸没式液冷”两大类。浸没式液冷就是把所有的热源浸没在冷媒液体里,通过液体的蒸发或流动把热量带走。间接式液冷是把一个装有液体的腔体和热源接触,通过腔体内液体的流动,将热量带走。

  在使用了几种不同的方法之后,如重复数据删除、克隆和自动精简配置,它们都有助于实现同一目标:
减少不必要的数据。

在实际应用中,冷板式液冷是比较普遍的设计,包括曙光在内的许多企业都有成熟的技术,特别是曙光的TC4600E-LP液冷刀片服务器已经实现了大规模量产,并将其成功应用在地球数值模拟装置原型系统、中国最大的电网仿真高性能计算平台等大项目中,获得了市场的充分认可。

  避免系统过度冷却现象

近日举行的全球超算大会SC16大会上,中科曙光发布了E级计算系统的研发路线图,而E级计算的挑战首先就是解决能耗的问题。在考虑到冷板式液冷已经接近性能瓶颈,难以承载E级计算需求之后,曙光果断地选择了“全浸没相变冷却技术”作为攻关的主要方向。

  冷却系统是IT部门往往开支过多、估计错误的一个方面。厂商通常根据系统一直在峰值负荷下运行来估计功耗。要问问自己,系统在峰值状态下运行的时间有多长?答案可能是几乎没有。那么,为什么要对系统进行不必要的冷却呢?

“浸没式液冷特点是无色、无味、无毒、低温沸腾不可燃、不导电,但由于成本太高,目前市场上还没有产品出来。”吕天文说。

  关键在于算出准确的电力负荷,这可能很棘手。为了帮助得出合理的电力负荷估计值,我们首先在实验室环境测试了设备,之后把设备部署到数据中心。通过这样的测试,我们确定了系统的合理电力负荷估计值比厂商的估计值低30%到40%。知道这一点后,我们就能监控每个机架的电力使用情况,相应调整冷却系统,从而减少了冷却过头所浪费的能源。

数据中心要节能降耗,如果单纯以耗电来衡量的话显然不充分。吕天文告诉《中国科学报》记者,数据中心的能耗不单纯是耗电,材料、人工、水、燃气都包括在内,“我们要利用契机将PUE指标丰富起来”。

  我们还采取更进一步的行动:
在空气处理器上使用了变频驱动装置。不是让风扇一直全速运行,变频驱动装置可根据每一排机架的实际设备冷却要求来改变风扇转速。由于风扇能不断监控温度,自动调整,以便需要时加快或者减慢风扇转速,我们大大节省了能源。实际上,风扇转速降低50%可以把功耗降低87%。

“未来数据中心应该是单一产品建设。”吕天文畅想道,“节能理念从现阶段看,正在从房间型到微模块过渡。未来随着整体理念的发展,微模块会向堆砌型数据中心发展。未来数据中心将实现产品统一,我们可以像砌砖一样来堆砌数据中心,达到节地、节电、提高可靠性的目的。但技术的进步需要用户逐渐消化、吸收,新技术替换旧技术也有渗透率,这是一个长期的过程。”

  合理设计空间布局

  先讲讲物理知识:
热空气上升,冷空气下降。这样的规则也适用于数据中心。通过活动地板对数据中心里面铺设的地板向上输送冷却空气,这种老方法通常耗用更多能源。我们采用的是在机器正面向下输送冷空气。然后,冷空气被吸到机器里面,再从后面作为热空气排出来。热空气升到天花板后,经通风口排到外面。

  不过,机架的位置极其重要,因为用户不希望把一台机器排出来的热空气被另一台机器吸进去。我们放置的机架是前端对前端、后端对后端。这种名为”热通道/冷通道”的方案成了数据中心设计的最佳实践,因为它确实有效。

  由于冷却系统放在机架上,也不需要活动地板(通常要铺传输冷水的水管及其他冷却线缆),从而节省了另外的能源和空间。

  不断改进热隔离

  无论在什么地方使用热通道/冷通道方案的高密度机架,都需要另外的气流措施防止排出来的热空气进入到冷通道。这时,动一动脑筋就能收到成效,不需要什么高技术。

  我们把上升热空气经通风口排出去,同时采用了一种低成本的方法。这方法很有效,也很重要。为了隔离热量,我们在热通道的两头以及机架上的冷却排气系统使用了透明塑料挂帘,使用透明塑料长条把空气控制在热通道,使用同样的长条在管道和设备周围形成一道物理屏障。

  我们估计,单单放在一个数据中心的塑料挂帘每年就可以节省100万度电。

  充分利用自然冷却

  生成的冷空气不一定是惟一冷却来源。干嘛不同时借助大自然呢?我们使用室外空气作为自由冷却,每年可节省150万美元的能源成本。为此,我们在大楼一侧安装了调节风门,可自动调节从室外进入的空气。如果室外气温低于设定的温度点,调节风门会开启,室外空气经过滤后进入冷却系统。反过来,如果室外空气高于设定的温度点,调节风门会关闭,冷却装置则开始工作。

  不过,这种方法需要不断微调及改进。在环境工程师的帮助下,正在努力提高设定的温度点,以便更充分地利用室外空气。最初设定的温度点是11摄氏度,后来逐步提高到了18摄氏度。我们正在进一步提高到24摄氏度,这样可以把自然冷却的时间段增至全年的85%。

  尽量减少电力变换损耗

  数据中心如今不是使用依赖电池的系统,而是使用运转时可存储能量的动态UPS。能量来自我们的切换基础设施,可以让每个UPS设备的电动马达转动起来。

  UPS存储的能量可供电15秒到20秒,这时间足以执行任何切换操作。较旧的电池UPS能效有85%,如今最出色的UPS其能效平均达到了约94%,而有些UPS的能效高达97.7%,损耗的能源不到电池UPS的一半。

  充分利用自然冷却

  生成的冷空气不一定是惟一冷却来源。干嘛不同时借助大自然呢?我们使用室外空气作为自由冷却,每年可节省150万美元的能源成本。为此,我们在大楼一侧安装了调节风门,可自动调节从室外进入的空气。如果室外气温低于设定的温度点,调节风门会开启,室外空气经过滤后进入冷却系统。反过来,如果室外空气高于设定的温度点,调节风门会关闭,冷却装置则开始工作。

  不过,这种方法需要不断微调及改进。在环境工程师的帮助下,正在努力提高设定的温度点,以便更充分地利用室外空气。最初设定的温度点是11摄氏度,后来逐步提高到了18摄氏度。我们正在进一步提高到24摄氏度,这样可以把自然冷却的时间段增至全年的85%。

  尽量减少电力变换损耗

  数据中心如今不是使用依赖电池的系统,而是使用运转时可存储能量的动态UPS。能量来自我们的切换基础设施,可以让每个UPS设备的电动马达转动起来。

  UPS存储的能量可供电15秒到20秒,这时间足以执行任何切换操作。较旧的电池UPS能效有85%,如今最出色的UPS其能效平均达到了约94%,而有些UPS的能效高达97.7%,损耗的能源不到电池UPS的一半。

  利用废热

  电力要求和能源价格与夏季温度攀升密切相关。在温度和电力出现高峰的期间,我们以天然气为动力的热电联供(cogeneration)系统就会投入使用,为一百万瓦的数据中心提供经济的电力。通过这种方法得到了两个好处。

  首先,通过在靠近用电区域的地方发电(分布式发电),降低了电力成本,并且减少了输电过程中损耗的电量。第二个优点直接来自热电联供。热电联供指通过热力学原理高效利用燃料。它利用了发电过程中形成的大量废热。在其中一个数据中心,利用了天然气作为动力的发电机生成的废热,作为对冷却系统所用水进行冷却的吸附式冷却装置的动力源。我们的热电联供系统总能效达到了75%至85%,每年可节省30万美元。

  定期监视和调整

  可以采取另一个步骤来帮助提高数据中心的能效:
准确、定期地监控环境。大多数数据中心测量周边的负荷,因而无法准则测量结果。为了能够真正提高能效,有必要提高测量的准确性,即在机架层面进行测量(每个机架耗用的瓦特),而不是数据中心的某个地方开始温度升高时,单单加快风扇的转速。我们不断测试及调整环境,放在中间层的多个温度传感器测得温度高低平均相差10到12度。

  每个数据中心各不一样。如何决定实施节能型数据中心策略,这取决于用户本身的具体情况。不过,本文介绍的这10个方法应当提供了几条思路。如果不知道这些方法,建议确定数据中心的电力使用效率(PUE)值是多少。之后再设计相应的方法和改进措施,开始启动提高数据中心能效的计划。

相关文章