随着夏季温度的升高,数据中心温度也会不断的增高,导致精密空调负荷增加。如果遇到温度升高,不要着急,今天就为大家介绍一下数据中心降温的12个流程。
1、如果温度上升,不要惊慌。即使气流通道的温度达到80℉也不要紧。虽然这比70℉至72℉的数据中心的标准温度要高一些(工作人员可能并不喜欢这样的场合中工作),但是对于服务器而言,它可能并不像人们想像的那么糟糕。如果机架前端的最高温度读数为80℉或更低,则仍在ASHRAE的TC 9.9最新推荐准则范围内。即使进气温度稍高(最高90℉),也仍然符合A2“允许”准则,这在大多数服务器的50℉至95℉的工作范围内。
2、在服务器前端进行温度测量。这是服务器吸入冷空气的地方,实际上是唯一有效和最重要的测量场所。在机架的顶部、中部和底部读取读数(假设数据中心有热通道-冷通道布局)。机架的顶部温度通常是最高的。如果机架底部温度较低,并且具有开放的机架空间,可以尝试将服务器重新布置在靠近机架底部(或最冷区域)的位置。
3、确保使用盲板挡住机架前部所有未使用的开放空间。这将防止热空气从机架后部重新循环到机架前部。
4、不必担心后部温度,即使温度在100℉或更高,也不要采用风扇吹向机架后部进行冷却,这只会使更多的热空气混入冷气通道中。
5、如果数据中心具有高架地板,需要确保地板的格栅或穿孔正确地位于最热的机架所在的位置。如果有必要,可以重新布置或更换不同的地板格栅,以使气流与热负荷相匹配。注意不要将地板格栅放置在离机房空调太近的位置,这将使冷气流立即回流到机房空调中,并使房间/行中其余他部分的冷空气流失。
6、检查地板在机柜内部是否有开口。地板上的电缆开口将让热空气从活动地板静压箱中排出,并将可用的冷空气进入到冷通道中的地板通风口。使用空气密闭套件可最大程度地减少此问题。
7、如果可能,尝试重新分配热负荷,并将其均匀分布到每个机架中,以避免或尽量减少“热点”。需要记住,在移动服务器之前,需要检查机架顶部、中部和底部的温度,只需将较热的服务器(同样基于机架前端温度)重新放置到较冷的区域。然后使用盲板挡住间隙。再次检查所有机架温度,确保没有创建新的热点区域。
8、检查机架后部是否有阻碍气流的电缆。这将给IT设备的风扇带来过大的背压,并可能导致设备过热,即使前面有足够的冷空气也是如此。这对于装有许多较长电源线和网络电缆的装有1U服务器的机架尤其如此。考虑采用较短的(1至2英尺)电源线,并更换大多数服务器附带的较长电源线。同时使用尽可能短的网络电缆。使用电缆管理来清理机架后部,以免阻碍气流。
9、如果机房中有高架管道冷却系统,需要确保冷空气出口直接位于机架前部,而回流管道位于热通道的上方。专家表示,一些数据中心机房的天花板通风口和回风口位置不佳,导致房间过热,这只是因为所有的冷空气都没有直接流到机架的前端或未正确抽取热空气。最重要的问题是确保来自机柜后部的热空气可以直接返回机房空调,而不会与冷空气混合。如果有增压天花板,需要考虑使用它来捕获热空气,并从机房空调的顶部回风管道安装接箍。一些管道工程可能对机房温度产生直接影响。实际上,回风越热,机房空调的效率和实际冷却能力就越高。
10、只有在可以将热量排到外部区域的情况下,才考虑添加临时的“卷入式”冷却装置。将排气管安装到机房空调上的天花板并不起太大作用,卷入式的排热管道必须排入受控空间之外的区域。
11、数据中心没有人员工作时需要关灯。这样可以节省1%至3%的电力和热负荷,这在边际冷却情况下可以将温度降低1℃~2℃。
12、检查是否还有空闲设备仍在运行。这是一个相当常见的情况,并且很容易解决,只需将其关闭即可。
为对机房IT设备进行更加高效的运维与管理, 客户提供模块化机房关键基础设施(UPS、蓄电池、精密配电、精密空调、网络服务器机柜、机房动力环境监控)整体解决方案供应商与服务商。15年专注和技术经验沉淀,提供售前咨询选型、售中解决方案设计安装、售后技术支持一站式服务。咨询热线:400-110-3938。