图片 1图片 2

  为刀片服务器散热有五种基本方法。一旦选中了其中一种方法,可以用多种不同产品和方法来具体实施。

  为刀片服务器散热有五种基本方法。一旦选中了其中一种方法,可以用多种不同产品和方法来具体实施。表1对此进行了概述。  

图片 3

  要应用刀片服务器,必须选择其中一种方法。这种选择要基于目前设施的制约因素以及用户的需要和喜好。

  应用方法的选择

  了解了现有设施的制约因素并且在用户的各种需求和偏好间进行了适当取舍之后,就可以从前面所述的5种基本方法中做出选择了。刀片服务器的应用方法的选择是基于散热问题的,因为这些问题是实际系统中最主要的制
约因素。确定应用方式后,电力供应问题也就随之确定了。

  影响应用方式的最主要的不确定因素就是刀片服务器的密度问题。许多用户更愿意将刀片服务器以最大密度安装。在现有的数据中心环境中这往往不是一个恰当的选择。实际上大部分刀片服务器都采用模块化的机架结构,可以以较低的密度在机柜中安装。例如,IBM
BladeCenter采用独立的机架,一个机柜中可以安装1到6个刀片不等。虽然降低安装密度看上去没有充分发挥刀片服务器的优势,但实际上系统的成本、可用性和安装速度都有所提升,特别是在现有的数据中心环境中安装刀片服务器的情况。

  目前的许多数据中心设计的功率密度为每个机柜2kW甚至更低。在这样的环境中按每个机柜10-30kW的功率安装刀片服务器时,这些刀片服务器需要消耗大量的电力和散热功能,这与机房最初的设计不成比例。正因为这个原因,在现有数据中心中安装刀片服务器时节省空间通常是没有实际好处的。因此,在现有数据中心分散放置刀片服务器是既实用又划算的。以饱和密度安装刀片服务器通常只是在专为支持高密度方案新建的机房设施中比较划算——安装规模极大或者空间极其狭小。

  因此,刀片服务器安装的核心选择就是刀片服务器安装的分散程度――即每个机柜中安装多少个刀片。用户选择的刀片服务器的品牌和型号可能会制约刀片的分散程度,例如,一些刀片服务器采用独立的机架,这种设备就易于分散安装。而另外一些刀片服务器采用一种底板系统,这种系统使得分散安装不切实际。要了解有关这
个问题的更全面更详细的讨论,参见与具体刀片服务器品牌相关的“APC应用说明”。按照前面所述的五种主要刀片服务器应用方法规划好刀片服务器的应用密度后,其结果如表2。  

图片 4

  

图片 5

  表2表明,在30种不同的功率密度和应用方法组合中,有大约11种首选组合和7种临界的组合――共18种比较切合实际的应用方式组合。要选择最佳方案,必须把数千种用户的偏好、制约因素和现有的条件等数据与这18种应用方式组合进行比对。这种比对需要进行广泛的分析,遵循许多规则,这一过程可以象软件运算一样进行。但本白皮书中不做详细叙述。

  在开发工具进行这种分析的过程中,我们得出了在实际工作中经过长期观察得出的一些关键的经验:

  如果在房间中需要安装的刀片服务器机柜超过总机柜数量的25%,那么现有的数据中心的电力和散热
系统可能需要进行全面改造。这说明如果安装数量达到这个限度,用户就需要重建一个机房,否则就得把数据中心关闭一段时间进行系统改造。

  如果现有的数据中心计划安装1到5个刀片服务器机柜,那么为了将对数据中心正常运转的影响降到最低,同时降低安装成本,以饱和密度的25%或50%的数量(如每个机柜中最多放置3个机架)进行安装最合适。对大多数数据中心来说,实现非常高的功率密度所需的成本比增加几个机柜位置所需的空
间成本要高得多。

  现在的数据中心一般都是为系统设备整体提供散热和电力供应,辅助散热方案能够以较低的成本提高应用密度,同时达到可预测的散热效果。

  不当做法

  下面列举了数据中心管理人员平时经常会采用的一些方法和做法,但这些方法是有缺陷的,对解决问题帮助不大,而且往往会使情况更糟。

  降低空气温度。用户通常会通过调低机房空调的温度设定来降低机房的空气温度,以解决数据中心中出现的一些热点。这是用户操作最容易也是最差的做法。采取这种做法会降低空调系统的能力,大大增加增湿器的水消耗量,大大降低数据中心的运行效率(结果还会让你帐单上的电费增加)。所有这些都会发生,而问题根本
得不到解决,因为这是气流的问题,而不是空气温度的问题。

  地板格栅。另外一个看似合理的措施就是把垫高地板的通风地砖换成气孔更大的格栅。这种格栅的样子不是我们所熟悉的带孔的地砖,而是有点象火炉篦子。这种方法对于孤立的机柜会有帮助,但会有严重的副作用――特别是大量使用这种地砖的情况下。在数据中心使用这种地砖通常会导致其它区域的气流减少,但更重要的是这些格栅会引起地砖间的气流发生重大的不可预测的变化。这一问题在APC白皮书46“超高密度机柜和刀片服务器的散热策略”中有详细说明。

  机柜顶部风扇。在机柜顶部安装风扇的情况非常普遍――尽管这些风扇对于一个设计完好的IT机柜中一点好处也没有。服务器过热的原因并不在于机柜内部,而是在于服务器前部进入口处的热空气。这些风扇只能是产生
更多的热量,甚至会降低一个设计优良的数据中心的散热能力。许多用户在目的不明确的情况下按照传统的规格确定风扇的规格。也有一些与机柜配套的有效的风扇辅助设备,这些设备在APC白皮书42“解决应用高密度服务器引起的散热问题的十个步骤”中有更详细的说明。

  孤立机柜。有时候用户会把机柜从整排机柜中单列出来,试图在一定范围内降低机柜密度,让通风地砖的气
流能够更多地接触到机柜。但是这种方法使得设备排出的热气在机柜周围回流到服务器的进气口。整体效果并不是很好。更好的方法是让机柜处于热通道和冷通道的安排中,在刀片服务器机柜之间用带隔板的不加负载的机柜隔开,加宽冷通道,使用辅助散热设备和/或热通道密封系统来增强散热性能。

  结论

  在现有数据中心中应用刀片服务器会给数据中心的电力和散热系统带来压力,这种压力不容忽视。有多种方法可以用来给刀片服务器提供电力或散热功能。针对某一具体安装的最好的方法要根据现有设计的制约条件和数据中心管理人员的需求和喜好而定。

  本文概要阐述了涉及刀片服务器应用的相关事宜和选择。还描述了根据现有数据中心的制约因素和用户需求来选择应用方法的流程。

參考:

保持最佳工作温度对许多数据中心来说是一个挑战,当数据中心没有得到正确冷却时,IT设备可能会过热,过热可能会降低服务器性能或损坏硬件,因此,管理空气流量对性能,成本和能源效率有重大影响。企业都非常重视数据中心冷却失效后的温升问题,保障数据中心的在线运营是一项很大的成本支出,并且绝不允许无计划的停电,更不允许出现单点故障,下面看看数据中心机房几种冷却方式,以及冷却失效对机房温升有多大影响!

不过值得一提的是援引Ars
Technica媒体报道称朱姆沃尔特号装备了IBM的刀片服务器,运行Red Hat
Linux系统。这些服务器都装备在电子模块化机柜(EME)中,船上将会装备16个这样的机柜,每台主机都能将其作为微型数据中心。EME是目前市场上公认坚固的产品,能够降低冲撞对服务器的影响。

图片 6

图片 7图片 8图片 9图片 10图片 11

为维持恒定的室内温度需要全年为之降温,由此带来了巨额的耗电量和电费,在节能减排和降低运营成本的双重压力,迫使人们不断地研发新的节能技术和产品,通过提高运行温度,利用环境空气和针对性的空气进行冷却,而不再是将整个数据中心降到不必要的低温,最终实现节省能源的目的。

除了避免震动和冲击对数据中心产生的影响之外,为了能够保障服务器能够正常长久运行,在船上装备了液体冷却系统,以保持温度不会过高。目前船上的网络部署依然还处于关闭状态,需要等到交付之后进行全面测试。

数据中心机房几种冷却方式

1、免费冷却

更高的运行温度通常也会让免费冷却系统一起受益。在ASHRAE
90.1-2010指导文件中,免费冷却几乎是一项节约能源的强制要求,必将被普遍运用。节能改造的资本投入会部分地抵消运营成本节约的好处。但在改造或升级的同时实现免费冷却也是技术和投资上的挑战。预计未来两年内将出现新的标准,使免费冷却更具可行性。靠近水源的免费冷却将可能会更具优势,但我们将会看到更多类似日本Kyoto
Wheel的空气冷却案例。最终,数据中心运营商将能够在超出以前预计的更多气候条件下采用免费冷却措施,这部分是因为更高运行温度的贡献。

图片 12

2、密封冷却

密封措施也无法解决由于错误的冷却规划、空气流动不充分或冷却能力引起的过热问题。最新的国家防火协会商业标准(NFPA-75)可能会使密封冷却的方案更难实现。对喷淋和(或)气体灭火系统的改造将大大增加成本。除了要尽力避免错误的实施外,日常优化也很重要:在未使用的机架空间一定要安装盲板,架空地板上的孔洞要及时封堵,地板下面影响通风的线缆也要做好清理。

3、后门冷却器

被人们接受的程度也非常高,部分也是因为水冷方式重新受到关注。如果将巨大的机房空调系统取消,改用贴近设备的新型冷却方式的话,相信数据中心行业会运行得比现在更好。教育背景和希望与众不同的个人意愿或许会促生新案例,但成本和电源可用性的矛盾将决定最终结果。

4、蒸发或绝热冷却

虽然使用蒸发方式制冷的科学原理简单,并正在逐渐流行,但它对于大多数数据中心操作人员而言仍然显得新奇。绝热冷却通过降低封闭环境中的某种物质运行的压力来实现冷却,让这些物质沸腾如同岩浆涌上火山表面,同时用风带走山峰上的高温。绝热冷却在温暖、干燥的气候中仍然有效,这大大拓宽了一年中能够“免费冷却”的有效期。其主要的缺点是用水量有些多,但在同等冷却量的情况下,它所需的冷却水仍然比标准冷却塔要少很多。

图片 13

5、紧耦合或热源冷却

紧耦合冷却方式通过贴近热源来实现更有效的运作。这不算什么新东西——问问老的大型机操作员或任何笔记本电脑设计人员就知道了。虽然紧耦合冷却在数据中心里面还是“主流”,但是更新的方法在满足能源效率的需求方面往往做得更好,并获取更多关注。它的工作方式很简单:消耗能源来将大量的空气吹入地板下的空间或者导风管,然后又将这些空气拉回至空调。

更有前途的技术包括浸入式冷却:将服务器整个浸泡在矿物油里,以便使用最少的能耗获得极高的冷却效率。但是技术人员需要对内外布满了石油的服务器进行处理时,心里会怎么想?显然这种冷却方式并不是适合所有场景。

6、更高的运行温度

美国供暖、制冷和空调工程师协会(ASHRAE)在2008年就第一次发表了关于较高温度数据中心的建议,但并未引起注意。服务器不需要冷藏。即使入口空气温度达到华氏75到80°F(摄氏25至27°C),这些设备仍然能维持良好运作。服务器制造商实际上已经扩展了产品的运行温度范围,而且旧设备其实也和新设备一样能够在扩展的温度区间内运行。提高运行温度可以大幅度节省能源消耗,但人们首先需要认可这种处理方式,然后同意让热通道变得更热——想像一下100°F
(38°C)的温度怎样?这会刺激后门冷却器的应用和普及。

图片 14

7、烟囱式机柜和天花板风道

使用天花板上方的空间形成的风道将空气传输给机房空调系统,确保回风以最高的温度返回空调冷却盘管,可以显著增加精密空调系统的冷却能力。结合了吊顶风道和热通道措施的最终设备形式就是烟囱式机柜,可以获得最大的冷却效率。来自服务器群的高温废气从机柜后部的烟囱排出,然后直接通过吊顶天花板上方的风道回到空调设备中。整个过程中热空气和冷空气保持分离,所以可以保持很高的能效比。

虽然效果明显,但是烟囱式机柜并没有获得大力推广或被广泛接受。这可能是因为全密封式的设计灵活性更好,可以使用更多的机柜实现相同的效果。然而,烟囱式机柜可以让整个房间维持冷通道温度,让工作环境变得更加舒适。

直接、间接自然冷却

数据中心利用自然冷源进行制冷的解决方案主要有间接自然冷却和直接自然冷却两种方式。机房空调一年四季都需要制冷,过渡季节室外温度低于室内温度时,自然界存在着丰富的冷源,如何利用大自然的冷源进行冷却是机房空调节能减排的重点问题。

图片 15

1、直接自然冷却

(1)全新风自然冷却

直接引入室外新风、配合冷热通道隔离实现机房制冷,针对不同地区的气候条件,新风进入机房前需要经过过滤、加湿、除湿、送回风混合等预处理。

(2)鸡舍式热压自然循环风冷却

不需要机械帮助,直接靠服务器散发的热能产生动力自然散热。把服务器散发的热量收集起来,利用空气膨胀后产生向上的动力,通过足够高的烟囱让热空气往上升带动空气流动,完成散热循环。

(3)转轮式热交换自然冷却

利用转轮内填料的储能功能,让转轮在两个封闭的风道内缓慢旋转,被室外空气冷却的填料冷却室内空气。

图片 16

2、间接自然冷却

(1)带自然冷却节能模块的风冷式冷水机组

春秋过渡季节和晚上,当环境温度达到比冷冻水回水温度低两度或以上时,开启自然冷却模块制冷,无压缩机功耗,自然冷却不够的部分,再由压缩制冷接力达到需求冷量。随着室外环境温度降低,自然冷却部分占的比例越来越大,直至达到100%,完全自然冷却制冷,无压缩机功耗。

(2)水侧板换节能装置

由大型冷却塔、水冷型冷水机组、板式换热器组成,夏季采用冷水机组和冷却塔制冷,冬季采用板换将有杂质的冷却水转变为干净的冷冻水送入空调室内机,冷水机组停机。

(3)双盘管乙二醇自然冷却

在直膨蒸发器盘管上,再并一组冷冻水经济盘管,通过两套两通阀来调节水是经过板式热交换器的冷凝器还是经过冷冻水盘管。室外干冷器夏季提供冷却水给板换用于直膨制冷,冬季提供冷冻水给经济盘管用于冷冻水制冷。

(4)氟泵自然冷却

在夏季,制冷压缩机运行;当室外温度低于设定点时,自动切换为氟泵节能系统运行,停止压缩机运行,保证全年机房空调安全可靠运行。氟泵不高于压缩机运行功耗的10%,相对于水系统空调,无需添加防冻剂,无水患忧虑。

(5)辅助蒸发自然冷却

空调室外机雾化水喷淋系统将软化水进行增压后通过高速直流马达进行雾化处理,将每一滴水雾化成原水滴的体积1/500左右直接喷洒在冷凝器翅片上实现辅助蒸发,使得冷凝器的整体散热量增大、功耗降低。这种通过室外机雾化喷淋延长自然冷却运行时间的方式,在干燥气候下最为有效,如中国西部和东北部。

综上,对常见的几种自然冷却制冷方式进行综合比较:

图片 17

数据中心冷却失效对机房温升有多大影响?

通过各自的实验研究得出了一些关于冷却失效引起的数据中心的温升曲线和基本结论,对数据中心冷却系统的不同架构进行了研究,对于开放式的冷却系统架构给出了不同功率密度下冷却失效后服务器机柜平均进风温度的变化曲线,如下图所示,可以看出:在不同的功率密度下,服务器机柜平均进风温度的温升速度不同;功率密度越大,服务器机柜平均进风温度升高得越快。因此,对于高热密度的数据中心,有必要设计蓄冷罐来保障冷却连续性。

图片 18

对不同功率密度下数据中心冷却失效后的温升情况进行了研究,结果见下图冷却失效时间在180
s内,因此曲线比较平缓,并且不同曲线的基准温度不同。

图片 19

通过研究数据中心冷却失效引起的机房温升问题,UI提出了冷却连续性的概念,并将数据中心冷却系统的可用性提到与供电可用性同样的高度,将数据中心的不间断供冷分为A,B,C
3个级别,并分别与高热密度、中热密度和低热密度3种功率密度的数据中心应用场景相对应。

图片 20

不同功率密度下数据中心冷却失效引起的温升与时间的关系,结果见表1(基准温度为20
℃)。随着单机柜功率密度的增大,冷却失效引起的温升速率逐渐增大。对于功率密度为5
kW/机柜的数据中心,冷却失效引起10 ℃温升需要50 s。

图片 21

温升速率(y)和功率密度(x)大致合理的最佳拟合关系式为y=0.002 4×2+0.027
5x+0.000 3,如下图所示:

图片 22

将拟合关系式改写成y=0.1x×0.024x+0.027 5x+0.000
3,并对拟合关系式的多项式系数进行主因子分析,可以发现:当功率密度(x)等于10
kW/机柜时,二次项因子为0.1×10×0.024×10=0.24,小于一次项因子0.027
5×10=0.275。当功率密度(x)小于10
kW/机柜时,一次项系数为主因子,并决定整个多项式的值,因此可简化为一次多项式,即在功率密度小于10
kW/机柜时,温升速率(y)与功率密度(x)更接近线性关系:y=0.050 1x-0.032
5(如图5所示)。比较图4和图5拟合曲线的残差R2也容易看出,当功率密度(x)小于10
kW/机柜时,在现有试验数据条件下用线性关系式表达拟合关系更准确。

图片 23

当功率密度(x)大于10
kW/机柜时,由于二次项系数为主因子,并决定整个多项式的值,因此温升速率(y)与功率密度(x)更接近二次多项式关系:y=0.002
4×2+0.027 5x+0.000
3。根据多项式拟合关系式进行拟合数据外推,可以导出10~30
kW/机柜功率密度范围内的温升速率。

研究结论各不相同,这是合理的也是正常的。首先,各自的测试环境和工况不同;其次,影响温升的因素很多,比如功率密度、冷却系统架构、机柜数量、机柜布局、机房层高、架高地板高度、甚至机柜材质都会影响数据中心冷却失效后的温升。因此,不同数据中心冷却失效后的温升情况不一样,不能一概而论。

当前,国内研究数据中心冷却失效引起的温升的有效手段之一是建模仿真分析。笔者建立了数据中心的传热模型,应用数据中心专用仿真软件对数据中心冷却失效的温升进行计算分析。

传热模型描述

简化的数据中心传热模型下图所示,以数据机房作为一个封闭的传热系统,作如下假设:

图片 24

(1)数据中心冷却系统失效,但服务器因有UPS供电而继续运行并持续发热。

(2)数据机房是一个封闭系统,只存在传热,不存在传质。

(3)服务器运行产生的热量通过以下几个途径散失:①热量被机房内的空气吸收;②通过机柜向空气传热;③通过建筑围护结构向室外环境散热;④通过架高地板向地板下环境散热;⑤通过楼板向邻近楼层传热。

(4)数据中心的冷热空气充分混合。

(5)机柜前门和后门通孔率为100%,即认为机柜没有前后门。

(6)传热过程为一维稳态传热过程。

仿真建模分析

采用软件建立一个数据中心的简单物理模型,进行CFD建模分析,3D物理模型如图所示,模型的相关参数见下图:

图片 25

图片 26

通过对一个功率密度为4
kW/机柜的数据中心进行冷却失效建模计算,应用软件可以快捷地给出不同时刻数据中心的温度分布云图,如图所示:

图片 27

对所建模型中的一个服务器机柜的平均进风温度进行分析,当冷却失效后该服务器机柜的平均进风温度曲线如图所示,可以看出,在服务器机柜的平均进风温度达到80
℃以前,其温度近似随时间线性升高,这说明:在一定的功率密度下(本模型为4
kW/机柜),服务器机柜的温升速率为恒定值。这个结论与前文推导出的温升同,物理参数的不同会影响冷却失效后的温升速度,但总体趋势是呈线性变化。

图片 28 图片 29

【编辑推荐】