数据中心良好的环境需要合适的空调方案,合适的空调方案不但能保证机房良好的温湿度、洁净度环境,而且可以使运行费用降低,节约运行成本,降低全生命周期成本。
空调方案的设计主要包括:制冷量需求计算,送风方式选择,设备布局,空调设备选择,空调设备冷却方式设计。
冷量单位:
千瓦(kw)-国际单位制
大卡(kcal/h)-习惯使用单位,与kw的换算关系为:1KCal/h= 1.163W
冷吨(RT)-一定质量的0℃的冰在24小时内变成0℃的水所吸收的热量。日本冷吨:1000千克水、美国冷吨:2000磅水。
1US.RT=3.517kw
匹(HP)表示制冷量时,实际含义为消耗1hp功率所产生的制冷量:1HP-2.5KW。
数据中心的冷负荷可按照GB 50174-2008《电子信息系统机房设计规范》7.2进行设计:
1)机房内设备的散热 Q1
机房内设备散热形成的冷负荷占到总冷负荷的主要部分,机房内设备主要包括服务器、路由器、网络设备等电子信息设备,供配电设备,均属于稳定散热。大多数设备生产厂商均能提供计算机设备的电功率及散热量,设备电功率基本全部转换为散热量,一般在97%以上。
已知设备电功率,则:Q11=X1· X2· N
Q11—电子设备冷负荷,kW
X1—负荷系数,一般取值0.7~1.0计算
X2—同时使用系数,一般取值为0.8~1.0
N—电子设备电功率,kW
每台服务器在出厂时均附有一个额定标称,它标明了该服务器的最大使用功率,但这并不代表实际使用功率,为了了解服务器实际使用功率,往往需要利用厂商提供的功率计算器技术设备在当前配置时的功率需求。这是设计机柜的技术人员知道的。
交换机:1kW/台;列头柜:1kW/台;小型机:5kW~10kW/台;服务器:3~30kW/台
现在的数据中心机房越来越往高密度的方向发展,单台机柜的密度从3kW到30kW都有,差距非常大。所以,我们还是要尽可能的向机房的设计人员了解下他设计的机柜功率。
UPS设备本身也有发热量,一般大容量的UPS布置在一个独立的房间,它对室内外环境的温湿度和洁净度也有一定的要求,UPS设备的发热与其实际功率因数有关,可参照厂商提供的数据,如没有给定的数值,可按下式计算:Q12=Nu(1-η)
式中:
Q12—散热量,kW;
Nu—实耗功率(和安装功率并不同)kW;
η—转化效率,一般取0.8~0.95;
设备的总散热量:Q1=Q11+Q12+……+Q1X
2)建筑围护结构的传热 Q2
维护结构形成的冷负荷主要包括两方面:外维护结构(外墙、屋顶、架空楼板)的传热冷负荷和内维护结构(内墙、内窗、楼板)的传热冷负荷。
3)通过外窗进入的太阳辐射 Q3
通过外窗进入室内的得热量有温差传热和日照辐射两部分。机房外窗宜采用双层玻璃密闭窗,并设窗帘以避免阳光的直射。当采用单层密闭窗时,其玻璃应为中空玻璃。这都是为了尽量减少这部分的热量。
4)人体散热 Q4
机房一般没有长期在其中的工作人员,监控人员在辅助区,所以这部分热负荷Q4可以忽略。
5)照明装置散热 Q5
Q5=1000 N1· N2· N W
N——照明灯具所需功率,kW; 按照机房设计标准,一般机房照明功率密度(W/m2)的现行值可按18W/m2计算
N1—镇流器消耗功率系数,荧光灯的镇流器装在空调房间内时,取N1=1.2;
N2—灯罩隔热系数,取N2 =0.8
6)新风负荷 Q6
《电子信息系统机房设计规范》中空调系统的新风量应取下列二项中的最大值:维持室内正压所需风量;按工作人员计算,每人40m3/h。对于无人机房新风可取自走廊、楼梯间等室内空间。新风冷负荷最好设计专门的新风处理机组来处理。对于采用单独新风系统的机房,Q6不计算在精密空调的冷负荷中。
制冷量需求计算:
功率及面积法:Q=Q1+Qq
Q—总制冷量(KW)
Q1—室内设备负荷(=设备功率×0.8)
Qq—环境热负荷(=0.15kW~0.18kW/m2×机房面积)
面积法(当只知道面积时):Q=S×P
Q—总制冷量(KW)
S—机房面积(m2)
P—冷量估算指标(根据不同用途机房的估算指标选取)
通信机房的冷负荷估算指标:
电信交换机房、移动基站(350 W/m2左右)
数据中心(600~2000 W/m2左右)
计算机房、计费中心、控制中心(350~600W/m2左右)
电子产品及仪表车间、精密加工车间(350W/m2左右)
标准检测室、校准中心(250W/m2左右)
UPS和电池室、动力机房(350W/m2左右)
医院和检测室、生化培养室、洁净室、实验室(200W/m2左右)
仓储室(博物馆、图书馆、档案管、烟草、食品、医药 ……)(200W/m2左右)
制冷量需求计算:
一机房面积180m2,机房内有服务器机柜30台,单柜功率4kW;列头柜4台,单台功率1kW,此机房的散热量是多少?
功率及面积法
Q1 = 设备功率×0.8 =(4kW/台×28台+1 kW/台×4台)×0.8
= 92.8kW (考虑机柜的同时工作情况,按28台计算)
Qq = 0.15kW/m2 ×180m2=27.0kW
Q=Q1+Qq =92.8kW + 27.0kW = 119.8kW
此机房的散热量为119.8kW。
送风方式选择:
机房常见的送风方式有上送风、地板下送风、弥散式送风等,回风方式有自由回风、风道回风、天花回风等。
机房空调系统气流组织确定要考虑以下几个方面:首先要依据设备的冷却方式、安装方式,如目前较常见的设备和机柜的冷却方式都是从前面进风,后面或上部出风。空调的摆放就要注意了,冷量要高效利用,使散热设备的进风口在冷空气的射流范围内。另外机房机房各个系统的建设要依托于建筑环境中,受到建筑层高、形状、面积等因素的制约。
机房空调系统气流组织确定要考虑以下几个方面:
首先要依据设备的冷却方式、安装方式。
冷量的高效利用。
机房建筑结构、平面布局。
上送风风帽送风:
风帽上送风方式的安装较为简单、整体造价较低,对机房的要求也较低,不需要高架地板,所以在中小型机房中采用较多。
风帽上送风机组的有效送风距离较近,有效距离约为15m,两台对吹也只达到30m左右,而且送回风容易收到机房各种条件的影响(如走线架、机柜摆放、空调摆放、机房形状等),所以机房内的温度场相对不是很均匀。此种送风方式还要求设计考虑机组回风通畅,距离回风口前1.5m以内无遮挡物。
风帽上送风存在明显的冷热空气短路现象,制冷效率低,仅应用与小型数据中心机房、热密度较低、机房层高不足的场合。
上送风风道送风:
风管上送风工程造价高于风帽送风方式,安装及维护也较为复杂,对机房的层高也有较高的要求。在风帽上送风无法满足送风距离,空调房间又要求各处空调效果均匀的场所,一般推荐采用此种送风方式机型,风管和风机设计匹配合理时,送风距离可以达到近百米。为了让风管安装后房间仍有较为合适的高度,房间楼层净高一般要求≥4m。
风管上送风需要对风管系统结合机房情况具体设计。送风的风管可分为主风管和支风管,主风管一般从空调机组或静压箱直接引出,支风管引自主风管。机房内的风管系统宜采用低速送风系统,主风管送风风速可取8m/s左右,支风管送风风速可取6.5m/s左右,风管的宽和高的比尽量不要大于4。机房内的静压箱一般安装在空调上部,由空调送风口从下面送入静压箱,静压箱宽度大于2-3倍空调送风口尺寸。静压箱高度一般为1m左右。风管送风口的风速一般为5m/s左右。以上数据为根据规范精选的常用数据,有可能风管系统设计与此有差异。
上送风风道送风,送风经过风道送至机柜上部,并在通道上部往下送冷空气,风道安装百叶送风口或散流器。之前我们也提到了,布置送风方式,要考虑到机柜的进出风方式,有前进风,后部或顶部出风,也有机柜下部进风,顶部出风等,如果现场的机组为顶部出风,采用上送风风道送风很容易使得冷空气和机柜排出的热空气混合,导致送到机柜的空气温度过高,同时也浪费了能耗,所以,这种送风方式适用于后部出风的机柜。这种送风方式需要对风管进行设计,选定风管的整体布局。第一种风管布局最为简洁,设计中只需考虑好风管的变径即可,工程安装最简单,工程造价最低,但各送风口的管道阻力很难设计均匀,空调效果很难控制均匀,较为适合机房面积在60m2以下。形状较为规则的机房。
上送风风道送风:
第二种布局使用最为常见,性价比最高,风管的设计及安装也较为简单,工程造价一般都会比第一种高,其空调效果也别第一种好,设计时不仅需要考虑合理的风管变径,还要考虑好各支管的风量平衡,较为适合机房面积在200m2以下的机房,常见的机房一般推荐使用此种风管布局。
上送风风道送风:
第三种布局也使用得较为普遍,设计及安装极为复杂,工程造价最高,但各送风口的阻力平衡最好容易调控个送风区域的送风量,空调效果最佳非常适合机房面积在200m2以下,机房环境控制精度较高的重要场所。
这种上送风风道送风应用在博物馆、档案馆这些环境中非常合适,珍贵的文物资料、书籍也需要保存在一个恒温恒湿的环境中,而它们本身不散热,就不会有热风冷风混合造成能耗浪费的问题。
下送上回气流组织:
下送上回具有以下显著优点:
(1)有效利用冷源,减少能耗。
(2)机房内整齐、美观。
(3)便于设备扩容和移位。
采用地板下送风上回风,需要注意:
(1)保持活动地板下静压值。
(2)保证高价地板架空高度。
(3)送回风风道净化处理。
地板下送风方式是目前数据中心空调制冷送风方式的主要形式,在金融信息中心、企业数据中心、运营商IDC等数据中心中广泛使用。机房专用空调的冷风送到静电地板下方,形成一个很大的静压箱体,静压箱可减少送风系统动压、增加静压、稳定气流、减少气流振动等,使送风效果更理想。再通过带孔地板将冷空气送到服务器机架上。回风可通过机房内地板上空间或专用回风风道(天花板以上空间)回风。
下送上回具有以下显著优点:有效利用冷源,减少能耗。机房内整齐、美观。便于设备扩容和移位,活动地板下用作送风静压箱,当计算机设备进行增减或更新时,可方便的调动或新增地板送风口。采用地板下送风上回风,需要注意:保持活动地板下静压值,如果送风距离较长,送风方向上的压差较大,不利于地板下保持均匀的静压值,一般地板下送风的送风距离在18m左右。如果地板下方同时作为电缆走线空间,地板下走线拥堵,送风不畅导致空调耗能增加。
避免地板下送风阻塞问题发生,有两个方法:一是保障合理的地板高度,目前很多新建机房已经将地板高度由原来的300mm调整到400mm乃至600-1000mm,附之以合理的风量、风压配置,以及合理的地板下走线方式,可以保证良好的空调系统效率;二是采用地板下送风与走线架上走线方式。
地板下送风与走线架上走线方式,兼顾了地板高效制冷与送风、安静整洁、走线架易于电缆扩容与维护等两方面优点,是数据中心制冷中机房送风方式的最佳方式之一。还有控制活动地板下送风风速,一般不超过20m/s,另外送回风风道净化处理,地板下装饰材料宜选择不起尘不吸尘的材料。
地板下送风:
下送风方式,静电地板下送风。直接将室内送风机段置入静电地板下。
它的优势是从机组到地板的送风没有损失,这样送风距离可以更远,配合冷热通道封闭等技术,可满足高热流密度机房的制冷需要,单台机柜功率5~10kW可采用此送风方式。
置换送风:
置换送风系统温度分布规律与自然对流相接近,减少了冷热气流混合造成的冷量损失,又不需要高价地板。即可以获得较好的节能效果,又不增加投资费用,是一种比较好的送风方式。下图是用CFD软件模拟的不同送风方式下机房的温度分布情况,红色代表高温,蓝色代表低温。可以看到,上送风或是下送风都容易形成明显的冷热通道。而置换送风的温度分布就相对较均匀。不过,在使用的应用中,它也有一些限制。由于要模拟接近对流效果的气流组织,它的送风风速不宜过大,过大容易造成紊流,这就使得它的送风距离收到限制,所以,它通常用在面积较小的机房中。而且在机组前面不能有任何障碍物遮挡。这种送风方式最广泛的应用是在通信基站中。基站的面积一般在在20m2以下,非常适合采用置换送风。
设备布局:
常见的布局有空调单侧布置和双侧布置。无论哪种布置,原则上就是要求机柜要背靠背布置,形成冷热通道,空调出风方向与机柜排列方向平行,同时空调一律放在热通道的两侧或单侧。目的是为了让产生的热空气及时被空调吸入。
冷却系统解决方案:
风冷式直接蒸发系统使用冷媒作为传热媒介。机组内的制冷系统由蒸发盘管、压缩机、冷凝器等制冷管路组成,室内空气穿过机组内部风道进行循环。将远端的风冷冷凝器与室内机相连接,整个制冷循环在一个封闭的系统内,从而吸收房间内的热负荷并排放到大气中去。
水冷或乙二醇冷却系统的内部结构与风冷式机组相同,室内空气通过蒸发器盘管循环。与风冷式不同的是,水冷机组内部安装有板式冷凝器,将实现房间热量与乙二醇溶液之间的热转换。该冷凝器内的液体作为一个二级传热媒介,被抽到远处安装的空气冷却式干冷器或冷却塔内,热量在那里最终排到大气。水冷却系统机房专用空调机组每台机组均自带制冷循环系统,并配有单独的水冷冷凝器,冷凝器置于室内机内部。所有机组的冷却水可以做成一个冷却水循环系统,由水泵提供循环动力,室外冷却水可采用开放冷却水塔和封闭干冷器两种方式。机房专用空调要求一年四季连续运行,封闭干冷器更为耗能,不宜采用;通常采用冷却水塔的冷却方式。
从节能方面考虑,有的专用空调机组在水冷或乙二醇冷却系统的蒸发器上平行加入一个自然冷却用的盘管。在较低的室外环境温度下,通过中央控制器精确地控制阀门,自然冷却盘管将吸收室内的全部的传热量。在换季期间,环境温度将降至机房所需的温度以下,自然冷却盘管将提供预制冷以减少压缩机的运行时间,压缩机一般只需80%的输入功率,因此可以显著地节省成本。
水冷式机组的应用特点 :
优点:
(1) 每个机组的冷凝器、蒸发器均在室内机内部,制冷循环系统在机组内部完成,制冷效率相对风冷机组高。
(2) 不需要室内、室外机的连接铜管,只需要一组冷却水管道可以将所有的机组连接在一起,在大型数据中心系统里,工程量能相对减少,不存在室内、室外机距离限制。
(3) 可以用几组较大的室外干冷器做N+1备份工作方式,在中大型数据中心占地面积相对较小。
(4) 扩容方便,初期设计时留好接口,不需要在投入使用后需要扩容时再寻找室内、室外机通道。
(5) 水循环管道不需要太厚的保温处理,节省通道空间。
缺点:
(1) 数据中心内部带有水循环系统,需要设置防漏水检测系统和防护措施。
(2) 施工工程相对复杂,需要有压力管道施工工艺的工程队完成。
(3) 日常维护的工作较风冷型复杂,对水质的要求相对较高,故障率和维护成本较高,容易形成单点故障,但比冷冻水型简单。
(4) 节能效果有限,在中小机房使用能耗较高,在大型机房中使用较风冷型空调能耗低但较冷冻水型能耗高,同时运行维护费用不低,因而一般使用水冷空调的机房较少。
当有中央空调冷冻水系统或具备单独的风冷冷冻水机组被作为换热方式时,室内空气可通过冷冻水盘管,直接将热负荷传递到冷冻水系统内。在专用空调机组中央控制器的控制下,水流量通过一个两路或者三路的制冷水阀门进行调节,精确地保持机房内的气温状态。采用独立的风冷冷水机组提供冷源时,宜多台N+1备份方式,提高整个系统的运行保障能力。
为提高空调机组的安全性和备份能力,也可在机组内安装两套独立的制冷盘管和控制阀门,能够处理来自两个独立系统的冷冻水。可以在将中央空调冷冻水系统作为基本的冷冻水源,而单独的风冷冷冻水机组作为二级冷冻水源,特别适用于中央空调冷冻水系统在周末或深夜不再使用的情况。
优点:
(1) 风冷冷水机组集中制冷,制冷效率最高,运行费用最低。
(2) 不需要室内机、室外机的连接铜管,只需要一组冷却水管道可以将所有的机组连接在一起。
(3) 在大型数据中心系统里,工程量能相对减少。
(4) 不存在室内机、室外机距离限制。
(5) 可以用几组冷水机组做N+1备份工作方式,占地面积相对小。
(6) 室内机价格非常便宜,整体造价低。
缺点:
(1) 数据中心内部带有水循环系统,需要设置防漏水检测系统和防护措施。
(2) 施工工程相对复杂,需要有压力管道施工资质的工程队完成。
(3) 日常维护的工作复杂,需要在冷水机组的维护人员。
系统解决方案:
数据中心机房内设备发热量大,空调设备能耗很大,其节能方案也就被各方广为重视。从冷却方案上看,数据中心比常规的商业建筑有一个得天独厚的条件:数据中心需要全年制冷,室外温度低于数据中心内部温度是,仍然需要空调提供冷量,如果把室外自然界的冷源直接用来冷却机房,就可以节省大量的能耗。这种技术就叫做自然冷却技术。
这里介绍一种双盘管的节能机组。室外机是一台干冷器,里面是乙二醇溶液。它的室内机中有两个制冷盘管,一个是直接蒸发系统中的蒸发器盘管,压缩机制冷时,干冷器提供冷却水,送到水冷冷凝器中换热,带走制冷系统的热量。当室外温度低时,干冷器提供的低温乙二醇溶液为冷冻水,进入节能盘管和室内高温空气换热,然后直接回到室外干冷器中冷却,这个循环只有水泵和风机工作,压缩机不工作,减小了系统能耗。
自然冷却方案:
冷水式机房空调的优点中,有一点就是冷水式系统较容易采用自然冷却方案。基于这个特点,自然冷却型风冷式冷水主机,配合冷水式机房空调,它与普通冷水机组最大的区别在于它在冷凝盘管之前安装了自然冷却热交换盘管,旨在最先利用环境冷空气冷却盘管内的回水;另一个区别在于内部水循环系统的设计上,自然冷却循环利用三通调节阀将循环水路与自然冷却热交换盘管连接起来
一起来看一下这个方案:
这是一个现代化的标准数据中心,一层为接待区及办公区域,二到四层为机房,屋顶上的是自然冷却型风冷冷水机组。当室外温度高于冷冻水的回水温度时,机组运行机械制冷模式,压缩机开启,由压缩机制冷,提供全部冷量。室外温度降低,机组运行部分自然冷却模式,回水先经过自然冷却盘管,和低温空气进行换热,减少部分热量,此时若没有达到要求的出水温度,则压缩机开启,将回水冷却到要求的出水温度。当室外温度在2℃以下,机组就可以实现100%自然冷却,此压缩机不开启,回水经过自然冷却盘管时已经降到要求的出水温度,不需要压缩机运行。这种自然冷却方式可以节省大量的运行费用。
其实,自然冷却冷水机组的工作原理并不复杂:当三通调节阀中旁通B完全关闭,A与C连通时,即自然冷却热交换盘管关闭,全部冷量由压缩机制冷提供;当室外温度低于回水温度时,A关闭,B与C连通,回水通过自然冷却热交换盘管预冷,然后再进入蒸发器,这样一来,压缩机只需部分工作就可以满足空调冷量的要求,从而节省了大部分能耗;而当室外温度足够低时,A关闭,B与C连通,通过自然冷却就可以完全满足空调冷量要求,压缩机停机,这时机组总能耗明显降低,只包含自然冷却系统的能耗。总之,室外温度越低,节能效果越明显。采用自然冷却冷水机组,具体效果如何会因安装地区的气候条件而不同。
0人已收藏
0人已打赏
免费3人已点赞
分享
暖通资料库
返回版块25.45 万条内容 · 677 人订阅
阅读下一篇
液冷数据中心硬件系统集成技术方案伴随云计算、大数据、人工智能等技术的发展和应用,作为信息基础设施的数据中心及相关设备承担的计算量越来越大,数据中心服务器及通信设备自身处理能力和集成度不断提高,同时也带来了功率密度节节攀升的问题,高热密度给制冷设备和技术提出了更高要求。受限于物理空间以及空气比热容低的特性,风冷技术难以满足高功率元器件散热负荷需求,如图1所示。 同时,国家层面不断推进数据中心绿色低碳建设要求,工信部等七部委联合印发的《信息通信行业绿色低碳发展行动计划(2022-2025年)》中明确提到,到2025年,全国新建大型、超大型数据中心能源利用效率(PUE)降到1.3以下。液体的冷却能力是空气的1000~3000倍,液冷技术以其高效的散热能力,成为降低数据中心PUE的有效手段。
回帖成功
经验值 +10
全部回复(1 )
只看楼主 我来说两句 抢板凳感谢楼主分享....
回复 举报