技术领域:
恒温恒湿机厂家提醒近年来,随着高热密度计算机房建设的发展,一方面大部分机房仍沿用原机房地址进行扩建;另一方面,一些机房采用原始设计,无法扩展主要设备。这就会出现使用原精密空调机组已跟不上机房建设发展的需求而产生机房冷却能力不足量的现象;或是精密空调机组的配置量超出了现有机房设备需求而产生机房冷却能力超量的现象,这都会导致机房总体能耗之居高不下。
据IDC预测,到2008年IT采购成本将与能源成本持平。另一方面,数据中心的能耗中,冷却又占了能耗的60%到70%。在接下来的几年里,世界上一半左右的数据꧑中心将受电力和空间的约束,能耗会占到一个IT部门1/3的预算。故在数据能源与冷却问题会议上,Gartner有限ജ公司的副总MichaelBell说:“在2008年全世界一半的数据中心将因为低效的动力供给和冷却能力不能达到高密度设备要求而过时。”并有机构预测,在2000年全球一波数据中心浪潮中建设的数据中心将有50%会在2008年开始重建。
技术背景应用范围:
机房精密空调机组应用于电子计算机机房是按照现行国家标准A级电子信息系统机房进行设计的,其运行工况为:23±2℃/50±10%Rh;对于计算机和数据处理机房用单元式空气调节机现行国家标准检验工况为23±1℃/55±4%Rh。
而现有机房空调生产厂家所提供的机型其室内机回风口工况参数点的设计多为24℃/50%Rh,在此工况下进行机房选型设计的直接膨胀式空调压缩机COP值和整机SHR(显热比)值均较大,故机房建设进行空调设计时多按照上述工况参数点进行选型。但是若对应到22℃/50%Rh的工况参数点的设计会出现:传统直膨式空调机的压缩机COP值同比下降约7~8%、而整机显冷量对比原总冷量亦会下降8~19.5%(根据公开的机房空调厂家数据表,直接膨胀式空调不同的下送风机型显冷量同比会下降到原总冷量的92%~80.5%);若是采用冷冻水式空调机组整机的显冷量对比原显冷量会下降13.2%~16.6%。然而机房空调的负荷绝大部分是计算机类高热密度负荷,其全部为显热负荷。那么对比回风参数24℃/50%Rh的工况所设计出来的空调机组,当运行于22℃/50%Rh工况下同比增加的能耗大约是15%~25%(即为了给显热负荷降温而使得直接膨胀式机房空调机组压缩机运行时间的同比延长量;或意味着冷冻水式机房空调机组之外部冷冻水主机供应冷冻水时间的延长量也即相应能耗的增长量)。如果继续降低空调工况参数设定点,相应的能耗将呈非线性增长;此外,工况参数设定过低会导致机房空气温度低于露点温度,不可逆湿度降低。当超过相对湿度设定的下限时,机房空调将自动执行加湿功能。由于电极加湿器喷射的水雾将抵消机房空调的大量制冷能力,机房空调的能耗将呈指数级增长。
现在计算机机房的建设模式,一般是沿用原数据机房局址进行简单的扩容而成。由于机房早期建设的时候已经对机柜和空调进行了布局,达到空调机组气流组织对当时的机柜负荷是合理的设计;那么现在越是高集成度(更高的热密度)的计算机服务器进场越会被安排在远离空调机组的位置上。
这将不可避免地导致新计算机服务器启动运行时这一区域温度超标的现象,故而必须将空调机组设定的回风温度24℃调低。一般情况是在刀片服务器进场后至少调低空调机组设定温度2℃。对此造成的能耗就已经超过空调出厂标准的20%以上了。然而随着刀片服务器的高度集成化,其散热量已经达到了每个机架30KW之巨;甚至有的正常运行机房在服务器机柜出风口测量到了47℃的高温。机房面临着计算机服务器等高热密度负荷的不断进场,只能一味的调低空调机的设定温度值,致使机房内温度低得像个冷库一样。
据研究机构UptimeInstitute在2006年对美国19个数据中心的研究中发现,数据中心的过度冷却(overcooling)差不多达到实际所需要的2倍。目前85%以上的数据中心机房存在过度制冷问题,对应的机房空调机组耗能也会比设计工况增ꩵ加能🐈耗50%以上,造成机房空调居高不下的高额运行费用。
另一方面,🌊设备的热值与设备的类型、型号、机房的布局有很大的关系。根据对一些机房的调查,发现有些设备的热值不大。例如某电信枢纽大楼在室外30℃、室内21℃干球温度时的实际冷负荷指标只有66W/m2,其中设备发热很小。机房冷负荷远远小于常规计算指标的165~222W/m2。而现实中有的机房占地面积达到了396平方米,而真正需要机房空调的服务器和配线架负荷区域却仅有60平方米。