搜档网
当前位置:搜档网 › 数据中心空调系统应用白皮书

数据中心空调系统应用白皮书

数据中心空调系统应用白皮书
数据中心空调系统应用白皮书

数据中心空调系统应用白皮书

目录

一引言 (5)

1.1目的和范围 (5)

1.2编制依据 (5)

1.3编制原则 (6)

二术语 (6)

三数据中心分级 (8)

3.1概述 (9)

3.2 数据中心的分类和分级 (9)

四:数据中心的环境要求 (10)

4.1 数据中心的功能分区 (10)

4.2 数据中心的温、湿度环境要求 (11)

4.2.1 数据中心环境特点 (11)

4.2.2 国标对数据中心环境的规定和要求 (12)

4.3 数据中心的其它相关要求 (16)

五: 数据中心的机柜和空调设备布局 (18)

5.1 机柜散热 (19)

5.1.1数据中心机柜 (19)

5.1.2 机柜的布局 (21)

5.2 机房空调及其布置 (23)

5.2.1 机房空调概述 (23)

5.2.2 机房空调送回风方式 (25)

5.2.3 机房空调布局 (25)

六:数据中心空调方案设计 (26)

6.1 数据中心的制冷量需求确定 (26)

6.2 数据中心的气流组织 (29)

6.2.1 下送上回气流组织 (29)

6.2.2 上送下(侧)回气流组织 (33)

6.2.3 局部区域送回风方式 (36)

6.3 空调系统的冷却方式选择 (37)

6.4 空调设备的选择 (46)

七: 数据中心中高热密度解决方案 (48)

7.1 区域高热密度解决方案 (48)

7.2 局部热点解决方式 (50)

7.3高热密度封闭机柜 (52)

7.4其它高热密度制冷方式 (54)

八: 数据中心制冷系统发展趋势 (54)

8.1数据中心发展趋势: (54)

8.2 数据中心制冷系统发展趋势 (57)

九机房环境评估和优化 (58)

附件一:数据中心要求控制环境参数的原因 (62)

附件二:机房专用空调机组 (70)

图表1电子信息机房分类 (9)

图表2 TIA942对机房的分类 (9)

图表5 不同机房等级的环境要求 (13)

图表6 ASHRAE对数据中心环境要求的变化 (14)

图表7 服务器主板气流方向 (19)

图表8 服务器机柜尺寸规格 (20)

图表9 常见的机柜进出风方式 (20)

图表10 在不同进出风温差时的风量需求 (21)

图表11 中高热密度机房的冷热通道布局示意图 (22)

图表12 空调设备制冷系统原理图 (24)

图表13 空调单侧布置示意图 (25)

图表14 空调双侧布置示意图 (26)

图表15 空调靠近热源布置示意图 (26)

图表16 下送上回气流组织 (30)

图表17 地板下送风和机柜冷热通道布局 (31)

图表18 地板下静压分布规律示意图 (32)

图表19上送风风道下回气流组织 (33)

图表20 风道整体布局示意图 (35)

图表21上送风风帽送风下回气流组织 (36)

图表22 局部区域送回风-吊顶式送回风 (36)

图表23 局部区域送回风-水平气流送回风 (37)

图表24 风冷式系统原理图 (38)

图表25 乙二醇式系统原理图 (39)

图表26 水冷式系统原理图 (40)

图表27冷冻水式系统原理图 (42)

图表28 风冷双冷源式系列原理图 (43)

图表29 各冷却方式对比表 (45)

图表30 高热密度区域封闭冷风通道空间应用 (49)

图表31 高热密度区域封闭冷风通道空间气流分布 (49)

图表32 高热密度区域通道气流对比 (50)

图表33 机房顶部加制冷终端形式 (51)

图表34 机柜间安装空调终端形式 (51)

图表35 冷通道封闭的示例 (52)

图表36 封闭式水冷机柜应用 (52)

图表37 封闭式水冷机柜工作原理示意图 (53)

图表38 CFD模拟示意图 (60)

图表39 CFD模拟示意图 (61)

图表39 数据中心各设备热密度发展趋势图 (62)

图表41 同等计算能力下消耗的机柜、服务器数量、占地和耗电对比 (62)

图表42 部分计算厂家、机构对环境的要求 (63)

图表43 部分交换机厂家对环境的要求 (63)

图表44 电池寿命与温度关系 (65)

图表45 低温下影响电池放电容量 (66)

图表46 Intel统计电脑故障原因分布 (67)

图表47 静电损伤的阈值电压 (67)

图表48 芯片被ESD击穿 (67)

图表49 不同情况下产生的静电电压 (67)

图表50 纽约地区通讯中心空气平均杂质浓度 (68)

图表51 机房专用空调制冷系统原理简图 (70)

图表52 舒适性空调在设计上与机房专用空调的差异 (73)

《数据中心空调系统应用白皮书》

一引言

1.1目的和范围

本白皮书介绍了数据中心环境要求、设备布局、空调系统设计、未来的发展趋势以及数据中心空调系统的评估和优化。本白皮书可以用于指导数据中心空调系统的规划和设计。

1.2编制依据

本白皮书依据国家相关法律、法规以及设计标准与行业规范为基础,结合数据中心建设、运行、维护中的实际情况,经过多位行业专家的共同努力编制。主要参考的相法规、规范、标准有:

GB-50174-2008 《电子信息系统机房设计规范》

GB-50462 《电子信息机房施工及检验规范》

GB/T 19413-2003 计算机和数据处理机房用单元式空气调节机

GB 50019-2003 《采暖通风与空气调节设计规范》

GB 50243-2002《通风与空调工程施工质量验收规范》

GB 10080-2001 《空调用通风机安全要求》

GB 50015-2003《建筑给水排水设计规范》

GB/T 14295 空气过滤器

GB50243-2003 通风与空调工程施工质量验收规范

JB/T 4330 制冷和空调设备噪声的测定

JB/T 8655 单元式空气调节机安全要求

GB/T18430 蒸汽压缩循环冷水(热泵)机组

Thermal Guidlines for Data Processing Environments 2008

TIA942标准(Telecommunications Infrastructure Standard for Data

Centers)

中国电信[2005]658号IDC产品规范和741号文件

中国移动公司对机房的环境控制指标要求

GB/T 15395—1994《电子设备机柜通用技术条件》

EIA-310-D Cabinets, Racks, Panels, and Associated Equipment 接线

柜、支架、仪器板和辅助设备

1.3编制原则

1.考虑内容的适应性、覆盖性、全面性。

适应性:适应当前和未来一段时期数据中心的技术发展状况以及未来新技术、新产品的发展,有关数据和资料与新设备、新材料、新技术、新工艺的发展水平相适应;符合现行的国家标准、行业标准或规定。

覆盖性:应覆盖国内各种数据中心的空调系统工程设计、施工和检验,纳入成熟的、经过验证的应用方案、方法及设备等。

全面性:内容、体系完整。

2.以数据中心空调系统方案设计为中心。侧重设计方案和原则、重要技术方案的确定、参数计算和确定、设备选型与布置等方面的内容。同时避免内容冗杂,通过分类提供相关标准、规范、参考资料的索引,提供深入学习和研究的途径。3.强化充实节能、安全、环保设计的相关内容。

二术语

2.1 数据中心dataCenter

数据中心通常是指在一个物理空间内实现信息的集中处理、存储、传输、交换、管理,而计算机设备、服务器设备、网络设备、存储设备等通常认为是网络核心机房的关键设备。

关键设备运行所需要的环境因素,如供电系统、制冷系统、机柜系统、消防系统、监控系统等通常被认为是关键物理基础设施。

2.2 主机房computer room

主要用于电子信息处理、存储、交换和传输设备的安装和运行的建筑空间。包括服务器机房、网络机房、存储机房等功能区域。

2.3 辅助区auxiliary room

用于电子信息设备和软件的安装、调试、维护、运行监控和管理的场所,包括进线间、测试机房、监控中心、备件库、打印室、维修室等区域。

2.4 支持区support area

支持并保障完成信息处理过程和必要的技术作业的场所,包括变配电室、柴

油发电机房、UPS 室、电池室、空调机房、动力站房、消防设施用房、消防和安防控制室等。

2.5 行政管理区administrative area

用于日常行政管理及客户对托管设备进行管理的场所,包括工作人员办公室、门厅、值班室、盥洗室、更衣间和用户工作室等。

2.6 相对湿度relative humidity

空气中实际含有的水蒸气量与同温同压下能容纳的水蒸气的最大量之比,用%表示。

2.7 焓enthalpy

热力学中表示物质系统能量的一个状态函数,表示工质所含的全部热能,等于该工质的内能加上其体积与绝对压力的乘积。常用符号H表示。

2.8 加湿量Humidification

指单位时间内加入密闭空间、房间或区域的空气中的水分,叫加湿量。单位:公斤/小时(kg/h)

2.9 能效比(EER) energy efficiency ratio

在额定工况和规定条件下,空调器进行制冷运行时,制冷量与制冷消耗功率之比。

2.10 性能系数(COP)coefficient of performance

在相关标准规定的名义工况下,机组以同一单位表示的制冷(热)量除以总输入电功率得出的比值。

2.11 全年能效比(AEER)annual energy efficiency ratio

机房空调进行全年制冷时从室内除去的热量总和与消耗的电量总和之比。

2.12 制冷量(制冷能力)total cooling capacity

空调器在额定工况和规定条件下进行制冷运行时,单位时间内从密闭空间、房间或区域内除去的热量总和,单位:kW。

2.13 显热制冷量sensible cooling capacity

在规定的制冷量实验条件下,空调机从机房或基站除去显热部分的热量,单位:kW。

2.14 制冷消耗功率refrigerating consumed power

在规定的制冷量试验条件下,机房空调所消耗的总功率,单位为瓦(W)。

2.15 显热比sensible heat ratio

显热制冷量与总制冷量的比值,用等于1或者小于1的小数表示。

2.16 送风量indoor discharge air-flow

空调器用于室内、室外空气进行交换的通风门和排风门(如果有)完全关闭,并在额定制冷运行条件下,单位时间内向密闭空间、房间或区域送入的风量,单位:m3/h。

2.17 冷风比(cooling-air ratio)

在规定的制冷量实验条件下,空调机的总制冷量与每小时送风量之比,单位为W/(m3·h-1)

2.18 机外静压

机组风机出口处与回风口处的静压差,单位为Pa。

2.19 机房专用空调机(air-conditioning unit dedicated used in

telecommunication equipment room)

机房专用空调是根据通信设备对机房温湿度要求设计的具有高可靠性,高显热比等特点、并具有能自动调节空调参数及进行参数检测、故障报警显示、停电自启动等智能控制功能的空气处理装置。一般送风量较大,空气处理焓差小,显热比大,适合通信机房使用。

2.20 能量使用效率PUE(power usage effectiveness)

2.21 热通道/冷通道(hot aisle/cold aisle)

热通道/冷通道数据中心的服务器机架和其他计算设备的布局设计。热通道冷通道构造旨在通过管理气流来节约能源和降低冷却成本。

2.22 乙二醇(或水)干式冷却器glycol(water)drycooler

由室外空气对管内带有排热量的乙二醇溶液(或水)进行冷却的冷却器。被冷却的乙二醇溶液(或水)可以用于制冷系统冷凝器的冷却介质,或者低温季节采用乙二醇自然循环冷却器用于冷却机房内的循环空气。简称干冷器。

2.23 双冷源式dual cool

在风冷式、水冷式或冷水式机房空调吸热侧的空气处理通道中,再附加一套冷水盘管,其冷水由其它冷源提供,可实现以不同冷源制冷运行的机房空调。三数据中心分级

3.1概述

随着信息化的深入,越来越多用户需要大量的数据处理和信息交换,相应的越来越多的企业开始建设数据中心建设,专门的数据中心服务企业也应运而生,为其他机构提供专业的数据服务。数据中心是业务系统与数据资源汇聚的场所,从应用层面看,包括业务系统、基于数据仓库的分析系统;从基础设施层面看,包括服务器、网络、存储、供电、环境和管理系统。

3.2 数据中心的分类和分级

按规模,数据中心可以分为超大型数据中心、大型数据中心、中型数据中心和小型数据中心,甚至还有迷你数据中心。从运营层面,数据中心可以分为企业自用数据中心、第三方托管数据中心。

我国在2008年制定的《电子信息机房设计规范》GB 50174-2008,从机房可用性角度将电子信息机房定义为A、B、C三类,其中A类要求最高(如表1所示)。数据中心一般按A类或B类标准执行。

图表1电子信息机房分类

美国TIA 942标准与Uptime Institute的定义,将数据中心的可用性等级分为四级(如表2所示):

图表 2 TIA942对机房的分类

从以上可以看出,两个标准对于机房的可用性定义基本一致。数据中心空调系统的要求和配置也与机房的可用性等级直接相关。

四数据中心的环境要求

4.1 数据中心的功能分区

通常数据中心作为一幢建筑单体(为少数,如:IDC或大型企业数据中心)或某一建筑中的一部份(为多数,占公共建筑物中的一个局部区域)的形式构建。一个数据中心通常主要包括:主机房、辅助机房、支持机房和行政管理区等。各机房面积的选取应可参考GB50174-2008《电子信息系统机房设计规范》的4.2中的规定。

主机房主要用于电子信息处理、存储、交换和传输设备的安装和运行的建筑空间。包括服务器机房、网络机房、存储机房等功能区域。

辅助区为用于电子信息设备和软件的安装、调试、维护、运行监控和管理的场所,包括进线间、测试机房、监控中心、备件库、打印室、维修室等区域。

支持区是支持并保障完成信息处理过程和必要的技术作业的场所,包括变配电室、柴油发电机房、UPS 室、电池室、空调机房、动力站房、消防设施用房、消防和安防控制室等。

行政管理区是用于日常行政管理及客户对托管设备进行管理的场所,包括

工作人员办公室、门厅、值班室、盥洗室、更衣间和用户工作室等。

在数据中心中,主机房一般安排在中间位置, 并且尽量使主机房设计为规正的四方型。应尽量避免采用圆型、L型以及过于狭长的长方型建筑,此类数据中心不利于机房内的设备布置以及气流组织分配。

捷联提供相关示意图。

4.2 数据中心的温、湿度环境要求

4.2.1 数据中心环境特点

数据中心中都安装有大量的计算机设备,计算机处理速度越来越快、存储量越来越大、体积越来越小是计算机发展的趋势,也就是说单位面积的散热量越来越大。而在机房场地建设时,为节省初期项目投资,满足一定时期内的业务发展和设备需要,在满足必须的设备运行、维护通道的前提下,一般用户都希望尽可能多地安装设备及设备机架,这就形成了与民用建筑和工业厂房空调负荷的显著区别。

A. 显热量大

数据中心内安装的服服务器、路由器、存储设备、交换机、光端机等计算机设备以及动力保障设备,如UPS电源,均会以传热、对流、辐射的方式向数据中心内散发热量,这些热量仅造成机房内温度的升高,属于显热。一个服务器机柜散热量在每小时几千瓦到十几千瓦,如果是安装刀片式服务器,散热量会高一些。数据中心设备散热量一般均在400W/m2以上,装机密度较高的数据中心可能会到1000 W/m2以上。机房内显热比可高达95%。

B. 潜热量小

不改变机房内的温度,而只改变机房内空气含湿量,这部分热量称为潜热。机房内没有散湿设备,潜热主要来自工作人员及室外空气,而大中型数据中心一般采用人机分离的管理模式,机房围护结构密封较好,新风一般也是经过温湿度预处理后进入机房,所以机房潜热量较小。

C. 风量大、焓差小

设备的热量是通过传导、辐射的方式传递到机房内,设备密集的区域发热量集中,为使机房内各区域温湿度均匀,而且控制在允许的基数及波动范围内,就需要有较大的风量将余热量带走。另外,机房内潜热量较少,一般不需要除湿,

空气经过空调机蒸发器时不需要降至露点温度以下,所以送风温差及焓差要求较小,为将机房内余热带走,就需要较大进风量。

D. 不间断运行、常年制冷

机房内设备散热属于稳态热源,全年不间断运行,这就需要有一套不间断的空调保障系统,在空调设备的电源供给方面也有较高的要求,不仅需要有双路市电互投,而且对于保障重要计算机设备的空调系统还应有发电机组做后备电源。长期稳态热源造成即使在冬季机房内也需要制冷,尤其是在南方地区,更为突出。在北方地区,如果冬季仍需制冷,在选择空调机组时,需要考虑机组的冷凝压力和其他相关问题,另外可增加室外冷空气进风比例,以达到节能的目的。

E. 多种送回风方式

空调房间的送风方式取决于房间内热量的发源及颁布特点,针对机房内设备密集式排列,线缆、桥架较多以及走线方式等特点,空调的送风方式分为下送上回、上送上回、上送侧回、侧送侧回、上送后回、前下送上回等。

F. 静压箱送风

机房内空调送回风通常不采用管道,而是利用高架地板下部或天花板上部的空间作为静压箱送回风,静压箱内形成的稳压层可使送风较均匀。

G. 温湿度要求高

由于服务器、存储设备、路由器等电子信息设备的制造精度越来越高,导则其对环境的要求也较高。对温湿度均有较高的要求。温度过高会造成服务器设备故障率升高、可靠性下降,甚至直接造成设备宕机。湿度会影响电子设备内部电路故障,湿度过低易使设备产生静电,造成电子部件击穿短路等故障,湿度过高会造成电器元件短路、腐蚀等。

H. 洁净度要求高

电子计算机机房有严格的空气洁净度要求。空气中的尘埃、腐蚀性气体等会严重损坏电子元器件的寿命,引起接触不良和短路等,因此要求机房专用空调能按相关标准对流通空气进行除尘、过滤。另外,要向机房内补充新风,保持机房内的正压。主机房与其他房间、走廊间压差不应小于5Pa,与室外静压差不应小于10Pa。

4.2.2数据中心环境要求

目前在国内对数据中心环境要求最权威的标准为GB50174-2008《电子信息系统机房设计规范》。标准规定了电子信息机房在不同区域的温湿度要求,主机房和辅助区采用标准规定的温湿度要求,基本的环境设计可按照标准附录A 中的环境要求,参见下表摘录部分。而数据中心的支持区(不含UPS室)和行政管理区的温、湿度控制值应按现行国际标准GB50019《采暖通风与空气调节设计规范》的相关规定。标准对不同等级的机房以及不同性质的机房的环境要求进行了划分,大部分数据中心属于A级或B级。

图表 3 不同机房等级的环境要求

标准《电子计算机机房设计规范》还对机房的洁净度有要求:主机房内的空气含尘浓度,在静态条件下测试,每升空气中大于或等于0.5μm的尘粒数,应小于18000粒。

A机房温度要求

在正常工作的服务器中,一般CPU的温度最高,当电子芯片的温度过高时,非常容易出现电子漂移现象,服务器就可能出现宕机甚至烧毁。

数据中心温度是确保服务器等IT设备正常稳定运行的先决条件,温度对设备的电子元器件、绝缘材料以及存储介质都有较大的影响。数据通信设备运行时

会产生极大的显热量,当数据通信设备较长时间处于高温或较大温度变化梯度的环境中时,可能因温度过高而出现宕机现象,温度太高,可使数据处理设备工作环境恶化,长此以往,将缩短电子信息设备的使用寿命,也使电子信息设备的可靠性降低。因此机房环境温度与设备运行的可靠性之间有必然联系。

《电子信息系统机房设计规范》(GB 50174—2008)中对相应机房的设计温度也做了规定,该规范将电子信息系统机房划分成3级。对于数据中心来讲,均应按A级与B级要求控制主机房温度,其主机房设计温度为23±l℃,C级机房的温度控制范围是18~28℃,机房不工作时,其温度应控制在5~35℃。辅助机房的无能的控制范围为18-28℃。另外对于不间断电源(UPS)和电池室要求温度控制在15-25℃。

美国的ASHRAE(美国暖通制冷空调工程师协会)发布的《ASHRAE Environmental Guidelines for Datacom Equipment 2008》也对数据中心的环境进行了详细的规定和解释。ASHRAE在2008版本中推荐的温度范围为18℃-27℃,相比2004版本的20-25℃要求放宽了很多。推荐的湿度范围为大于5.5℃的露点温度的相对湿度,小于60%的相对湿度。放宽的要求在保证机房设备正常运行的时候,可以减少机房制冷、加热、加湿、除湿的耗能,降低机房空调系统的能耗,提高PUE。

图表 4 ASHRAE对数据中心环境要求的变化

在实际的机房运行过程中, 机房环境的控制要求可以根据实际要求参考以上标准以及季节等因素进行区别设定, 以达到降低机房能耗的要求。在特殊情况需要根据数据设备供应商的要求而定。

B环境温度变化率要求

一些数据通信设备制造商制定了数据通信设备允许环境温度变化率的标准,以避免环境温度的突然变化对数据通信设备造成冲击。环境温度变化率标准可适应所有已安装的数据通信设备。国标推荐的温度变化率为小于5℃/h。ASHRAE推荐最大环境温度变化速率为5℃/h。磁带和存储设备对温度变化速率

要求更高,相关厂家一般要求其环境温度变化速率小于2℃/h,湿度变化速率小于5%/h。但一旦空凋冷却系统出现故障,设备周围环境温度的变化速率可能比很大,甚至超过20℃。

数据通信设备不工作时可以允许其环境温度在一个较大范围内变化,但需要向数据通信机房提供不间断供冷,以维持最低的运行工况,避免数据通信设备受到热冲击。

C相对湿度要求

较高的相对湿度会使数据中心内的设备的短路、磁带介质出错和元器件及电路产生腐蚀现象。在极端的情况下,相对湿度较高还会使设备的冷表面可能出现冷凝现象,这对设备的威胁更大。较低的相对湿度将产生影响设备运行的静电,造成元器件的击穿、短路等故障,甚至可能损坏设备。磁带和存储介质在低相对湿度下也会产生过度磨损,所以数据中心环境湿度应控制在合适的湿度范围内。

《电子信息系统机房设计规范》中推荐机房的湿度为:A级与B级机房要求控制主机房湿度40%-55%,其辅助机房的湿度的控制范围为35%-75%。

ASHRAE(美国暖通制冷空调工程师协会)发布的《ASHRAE Environmental Guidelines for Datacom Equipment 2008》中推荐的湿度范围为大于5.5℃的露点温度的相对湿度,小于60%的相对湿度。推荐湿度的下限改为了露点温度,放宽的要求在保证机房设备正常运行的时候,可以减少机房加湿、除湿、加热的耗能,降低机房空调系统的能耗,提高PUE。

D空气过滤要求

空气中的尘粒将影响数据通信设备运行,因此,数据中心的空调系统应采用高效的、合适的过滤装置。腐蚀性气体会快速破坏印刷电路板上的金属薄膜和导电体,导致末端连接处电阻值增大。尘粒在散热板上堆积也将增加热阻,降低换热效率。另外,灰尘在高湿环境中会加快设备的腐蚀,使设备寿命下降。

《电子信息系统机房设计规范》中要求A级和B级主机房的含尘浓度,在静态条件下测试,每升空气中大于或等于0.5μm 的尘粒数应少于18000粒。主机房内空调系统用循环机组宜设初或中效两级过滤器。新风系统应设初、中效空气过滤器,宜设亚高效过滤器。

E新风要求

为保持机房正压,数据中心空调系统必须提供适量的室外新风,数据通信机房保持正压可防止污染物渗入室内。虽然大多数数据中心内人员较少,但也需确保室内人员的新风需求和卫生要求,室内人员的新风需求量应满足全国或当地设计标准。

《电子信息系统机房设计规范》中空调系统的新风量应取下列二项中的最大值:维持室内正压所需风量;按工作人员计算,每人40m3/h。

4.3 数据中心的其它相关要求

数据中心中和环境控制有关的还有保温、密封、防潮、防尘、防水、防火等,需要给予高度重视,以确保计算机系统长期可靠运行工作。这就对机房设计和装修提出了要求,对新建机房的建筑物进行实地勘查,依据国家有关标准和规范,结合所建数据中心各系统运行特点进行总体设计。数据中心装饰装修的基本作用就是要满足数据中心机房防火、防水、防尘、防静电、隔热、保温、屏蔽等要求。下面重点介绍保温、密封、防尘、防水。

4.3.1保温和密封

数据中心机房的冬季保温、夏季隔热以及防凝露等技术问题是机房设计的重要考虑因素。尤其在夏季,室外温度较高,空气相对湿度大,机房内外存在较大的温差,这时如果机房的保温处理不当,会造成机房区域两个相邻界面产生凝露,更重要的是下层天花的凝露会给相邻部分设施造成损坏而影响工作,同时会使机房区域的机房专用空调的负荷加大,造成能源的浪费。在冬季,由于机房的温湿度是恒定值,此时机房相对湿度度高于室外,机房的内立面墙及天地平面产生凝露,使机房受潮,造成墙立面及天地平面建筑结构造成损坏,而影响机房的洁净度。

为了节约能源,减少日后的运行费用,根据以上分析,计算机机房相邻界面凝露应按其起因而采取相应的措施来控制平面、立面隔热及热量的散失,而且数据中心主机房一般建议采用无窗设计或需要对窗户做密封处理。顶板应考虑保温,楼层地板与幕墙之间需考虑保温隔断处理。

建筑围护结构特别是改建机房的建筑围护结构,其热工性能如不符合

GB50189一2005《公共建筑节能设计标准》的有关规定,那么在机房装饰设计时,需作墙体保温设计。

专用空调区域采用地板下送风的形式,出风口温度较低,有时会造成下一层

楼顶结露,所以需要考虑地面做保温层,既能减少制冷需求,降低运行费用,又不至于使下一层楼顶结冷凝水。宜采用下一层楼顶做保温方式。

此外,新风管道也需要做保温处理。

机房的另外一个重要方面就是密封问题,密封可保证机房正压,有利于机房内温湿度以及洁净度的控制。其中管道孔的密封问题是经常被忽略的,如果进出机房的管道孔没有做良好的密封,首先会增大机房空调的负荷,而且还会影响机房的洁净度。在雨季,雨水有时会顺着管线流入机房;在冬季,室内外温差会造成管线结露。在有些机房的建设中,装饰装修部分的施工和电气及空调管线的施工为不同单位,如果工程监理不到位或是工程界面划分不明确,就会使进出机房管道孔的密封成为施工的盲点,因此必须引起足够的重视。

机房外窗宜采用双层玻璃密闭窗,并设窗帘以避免阳光的直射。当采用单层密闭窗时,其玻璃应为中空玻璃。

吊顶空间较高时,不宜直接从吊顶内回风,可设计双层顶以减少空调负荷和灭火气体容量。

4.3.2 防水

对于数据中心机房,水患是不容忽视的安全防护内容之一,数据中心水的来源主要是空调系统产生或引入。由于水患,轻者造成机房设备受损,降低使用寿命;重者造成机房运行瘫痪,中断正常营运,带来不可估量的经济损失和政治影响。因此,数据中心水患的防护是机房建设及日常营运管理的重要内容之一。

在机房外围隔断、幕墙边缘、机房区活动地板下沿走廊处地板下设置适当高度的挡水墙,并应在挡水坝内设置地漏,以防发生水患并能及时排水,并对挡水坝内的地面及挡水坝做防水处理。空调给水和排水尽可能不经过主机房(主要通过走廊),不可避免时,水管应做好防结露保温,水管建议采用铝塑管,接缝处确保严密。为了使产生水情能及时处理,在可能产生水的地方(机房专用空调四周和靠走廊地板下)采用漏水报警系统。这样不仅从技术上,也从物理上充分杜绝了机房漏水的情况。与机房区无关的水管不得穿过主机房。不可避免时,应做好防结露保温,水管采用镀锌钢管螺纹连接,接缝处确保严密并经试压检验。

4.3.3 防尘

按GB 50174—2008规定:“A&B级机房内的尘埃标准要达到规范的要求,即粒度大于或等于0.5um的尘埃个数≤18000粒/升)”。专用空调区防静电活动地

板下的地表和四壁装饰可采用水泥砂浆抹灰。地表材料应防尘、平整、耐磨。对地板下所有区域需要防尘处理,天花、拦水坝等区域均作防尘处理。

要求严格控制机房内的洁净度,主要从以下几个方面:

采用专用空调、新风系统,对于进入室内的新鲜空气应进行过滤处理(中效、亚高效过滤)。

灯具及桥架(净高2.8m)以上四壁应抹灰,楼板底面应清理干净,并刷黑色防尘漆,管道饰面,亦应选用不起尘的材料,并刷黑色防尘漆。

为满足计算机对含尘量的较高要求,除主材选用不起尘的材料外,机房专用空调区域地板下、吊顶内需作防尘处理(拦水坝内侧区域也需做防尘处理),在机房入口处设置换鞋柜/鞋套机,以减少机房尘埃污染,使机房区域与其他部位有效地分隔为两个不同指标的空间环境。

4.3.4 空调系统的防火措施

空调系统与消防要进行联动,避免扩大火灾区域。如果有风管通过防护分区隔墙时应设置防火阀。

五: 数据中心的机柜和空调设备布局

机房内的设备布局需要考虑多种因素,如设备散热、机房管理、人员操作和安全、设备和物流运输、安装和维护等。本文主要针对设备散热进行详细介绍。

和设备散热最密切的两个机房设备是机房空调和机柜,机房空调提供散热所需的制冷量,机柜则是发热设备的载体,设备的散热都需要通过机柜进行。

服务器等设备是数据中心的核心设备,其设备散热也是数据中心制冷系统的中心目标。因而服务器的散热形式也就决定了数据中心的制冷方式。早期的服务器、交换机、存储等设备缺乏统一的标准和规范,各个厂家的产品有着各自的散热结构,设备内部气流方向是比较混乱的,有下进后出、前进后出、侧进侧出、前进侧出等多种方式。

随着数据中心应用的设备越来越多,功率密度越来越高,各种IT设备逐步采用相关国际标准,规范了气流设计。目前已经形成了设备进出风形式采用前进后出的共识。如Intel在关于服务器电源的相关标准中,对风扇及风道设计作了详细设计,在《Power Supply Design Guideline for 2008 Dual-socket Server and Workstations》版本1.0 中,定下了ERP1U服务器电源的要求, 空气前进后出,

水平流动。也有少量设备采用了其它的气流组织,数量日趋减少。

图表 5 服务器主板气流方向

服务器进风温度,由服务器内部电子器件工作条件决定,主流厂家和规范要求一般为18~25℃,大部分为22~24℃;进风风量由服务器发热量决定,如某型1U高机架式刀片式服务器,满载运行功率达400W,根据进出风温差设计不同,一般需冷却风量80-140m3/h左右。

5.1 机柜及其布置

5.1.1数据中心机柜

随着服务器等IT设备的更新,尤其是机架式、刀片式服务器的大量应用,机柜系统内供电、散热、布线管理的复杂程度大大提高。单机柜内设备数量、功率密度、发热密度都有巨大提高,为解决高密度机柜的承重、布线管理、供电、散热问题,数据中心对的服务器机柜系统有了更高的要求。为适应这些应用要求,出现了很多行业和企业规范和标准,规范服务器机架/机柜的应用,适应服务器的变化要求。

A 数据中心服务器机柜系统的标准化

根据国标《电子设备机柜通用技术条件》GB/T 15395—1994、ANSI/EIA-RS310-C和EIA/TIA568的要求,服务器等主设备标准尺寸为,宽度:19英寸、23英寸;高度以U为单位(1U=44.4mm)。而目前最常用的服务器宽度为19英寸。因而目前应用最多的是19英寸服务器机柜,内部安装高度一般为42U或46U。深度最常见的尺寸为900-1200mm。

图表 6 服务器机柜尺寸规格

B 机柜系统散热管理

服务器等IT 设备功率密度的持续提高带来了机柜散热的问题,有的采用传统的机柜内加风扇,加大对机柜内服务器等IT 设备的送风量。大部分机柜采用和服务器气流一致的前进风方式,出风方式以后出风为主,也有顶出风的方式。下图给出了几种常见的机柜进出风方式。

图表 7 常见的机柜进出风方式

由于采用了高热密度的设备,机柜内发热量大大提高,需要高通风量以利于机柜内设备的散热,所以机柜多采用高通孔率的网孔门,基本采用前后网孔门,网孔门的通孔率取决于设备的发热量和通风量的要求。

机柜内的交换机、服务器等IT 设备有大量的数据线缆和电力电缆,需要对这些线缆和电缆分别管理和配置。

在机柜内可加装气流隔离、导流附件装置,如盲板(假面板)、导流罩等附件,隔离冷热气流,减少气流阻碍,利于进出气流流动,利于机柜发热大的设备

宽度:19英寸/23英寸

深度:600~1200mm

高度:常见2000/2200/2600mm

高度以U 为单位标注

42U/46U/50U

数据中心机房空调系统气流组织研究与分析

IDC机房空调系统气流组织研究与分析 摘要:本文阐述了IDC机房气流组织的设计对机房制冷效率有重要影响,叙述现有空调系统气流组织的常见形式。同时重点对IDC机房常见的几种气流组织进行了研究与分析,对比了几种气流组织的优缺点,从理论与实践中探讨各种气流组织情况下冷却的效率。 关键词:IDC、气流组织、空调系统 一、概述 在IDC机房中,运行着大量的计算机、服务器等电子设备,这些设备发热量大,对环境温湿度有着严格的要求,为了能够给IDC机房等提供一个长期稳定、合理、温湿度分布均匀的运行环境,在配置机房精密空调时,通常要求冷风循环次数大于30次,机房空调送风压力75Pa,目的是在冷量一定的情况下,通过大风量的循环使机房内运行设备发出的热量能够迅速得到消除,通过高送风压力使冷风能够送到较远的距离和加大送风速度;同时通过以上方式能够使机房内部的加湿和除湿过程缩短,湿度分布均匀。 大风量小焓差也是机房专用空调区别于普通空调的一个非常重要的方面,在做机房内部机房精密空调配置时,通常在考虑空调系统的冷负荷的同时要考虑机房的冷风循环次数,但在冷量相同的条件下,空调系统的空调房间气流组织是否合理对机房环境的温湿度均匀性有直接的影响。 空调房间气流组织是否合理,不仅直接影响房间的空调冷却效果,而且也影响空调系统的能耗量,气流组织设计的目的就是合理地组织室内空气的流动使室内工作区空气的温度、湿度、速度和洁净度能更好地满足要求。 影响气流组织的因素很多,如送风口位置及型式,回风口位置,房间几何形状及室内的各种扰动等。 二、气流组织常见种类及分析: 按照送、回风口布置位置和形式的不同,可以有各种各样的气流组织形式,大致可以归纳以下五种:上送下回、侧送侧回、中送上下回、上送上回及下送上回。 1) 投入能量利用系数 气流组织设计的任务,就是以投入能量为代价将一定数量经过处理成某种参数的空气送进房间,以消除室内某种有害影响。因此,作为评价气流组织的经济指标,就应能够反映投入能量的利用程度。 恒温空调系统的“投入能量利用系数”βt,定义: (2-1) 式中: t0一一送风温度, tn一一工作区设计温度, tp一一排风温度。 通常,送风量是根据排风温度等于工作区设计温度进行计算的.实际上,房间内的温度并不处处均匀相等,因此,排风口设置在不问部位,就会有不同的排风温度,投入能量利用系数也不相同。 从式(2—1)可以看出: 当tp = tn 时,βt =1.0,表明送风经热交换吸收余热量后达到室内温度,并进而排出室外。 当tp > tn时,βt >1.0,表明送风吸收部分余热达到室内温度、且能控制工作区的温度,而排风温度可以高于室内温度,经济性好。 当tp < tn时,βt <1.0,表明投入的能量没有得到完全利用,住住是由于短路而未能发挥送入风量的排热作用,经济性差。 2) 上送下回 孔板送风和散流器送风是常见的上送下回形式。如图2-1和图2-2所示.

社会医疗保险数据中心管理平台技术白皮书(20090730)

社会医疗保险数据中心管理平台 技术白皮书 创智和宇

目录 1简介 (4) 1.1应用背景 (4) 1.2范围 (4) 1.3参考资料 (4) 2系统概述 (5) 2.1医疗保险数据中心管理平台概述 (5) 2.2总体结构图 (5) 2.2.1医疗保险数据中心管理平台的的总体结构 (6) 2.2.2医疗保险数据中心管理平台的逻辑结构 (6) 2.2.3医疗保险数据中心管理平台的的网络拓扑结构 (7) 2.3.1数据库内部组成 (7) 2.3.2生产库定义(地市级) (7) 2.3.3交换库定义(地市级) (7) 2.3.4决策分析库(地市级) (8) 2.3.5决策分析库(省级) (8) 2.4 医疗保险数据中心管理平台与其他系统关系 (8) 2.4.1与本公司开发的社保产品关系及实现接口 (8) 2.4.2与其它公司开发的社保产品关系及实现接口 (8) 2.4.3与全国联网软件关系 (9) 3业务逻辑的总体设计 (9) 3.1数据抽取建立交换数据库 (9) 3.2数据分析与决策 (9) 3.3数据交换服务 (10) 4系统采用的关键技术 (11) 4.1数据抽取 (11) 4.2增量更新 (11) 4.2.1增量更新实现步骤 (11) 4.2.3 历史数据变化情况记录 (12) 4.3数据展现 (12) 4.4数据传输 (12) 4.4.1数据传输涉及的三大元素及关系 (12) 4.4.2数据传输策略总体设计思路. (12) 4.4.3数据传输策略总体设计方案图 (12) 4.4.4数据传输策略实现概要. (14) 4.4.5打包数据的来源 (14) 4.4.6传输策略的维护 (14) 5系统开发平台和运行平台 (14) 5.1开发平台 (14) 5.2运行平台 (14) 6医疗保险数据中心管理平台功能介绍 (15) 6.1参保情况管理 (16)

绿色数据中心空调系统设计方案

绿色数据中心空调系统设计方案 北京中普瑞讯信息技术有限公司(以下简称中普瑞讯),是成立于北京中关村科技园区的一家高新技术企业,汇集了多名在硅谷工作过的专家,率先将机房制冷先进的氟泵热管空调系统引进到中国。 氟泵热管空调系统技术方案适用于各种IDC机房,通信机房核心网设备,核心机房PI路由器等大功率机架;中普瑞讯对原有的产品做了优化和改良,提高节能效率的同时大大降低成本。 中普瑞讯目前拥有实用专有技术4项、发明专有技术2项;北京市高新技术企业;合肥通用所、泰尔实验室检测报告;中国移动“绿色行动计划”节能创新合作伙伴,拥有国家高新企业资质。 中普瑞讯的氟泵热管空调系统技术融合了结构简单、安装维护便捷、高效安全、不受机房限制等诸多优点,目前已在多个电信机房得到实地应用,取得广大用户一致认可,并获得相关通信部门的多次嘉奖。 中普瑞讯的ZP-RAS氟泵热管背板空调系统专门用于解决IDC高热密度机房散热问题,降低机房PUE值,该系统为采用标准化设计的新型机房节能产品,由以下三部分组成。

第一部分,室内部分,ZP-RAS-BAG热管背板空调。 第二部分,室外部分,ZP-RAS-RDU制冷分配单元。 第三部分,数据机房环境与能效监控平台。 中普瑞讯的ZP-RAS氟泵热管背板空调体统工作原理:室外制冷分配单元(RDU)机组通过与系统冷凝器(风冷、水冷)完成热交换后,RDU通过氟泵将冷却后的液体冷媒送入机房热管背板空调(BGA)。 冷媒(氟利昂)在冷热温差作用下通过相变实现冷热交换,冷却服务器排风,将冷量送入机柜,同时冷媒受热汽化,把热量带到RDU,由室外制冷分配单元(RDU)与冷凝器换热冷却,完成制冷循环。 1.室外制冷分配单元(RDU)分为风冷型和水冷型两种。制冷分配单元可以灵活选择安装在室内或室外。室外RDU可以充分利用自然冷源自动切换工作模式,当室外温度低于一定温度时,可以利用氟泵制冷,这时压缩机不运行,充分利用自然免费冷源制冷,降低系统能耗,同时提高压缩机使用寿命。 北方地区以北京为例每年可利用自然冷源制冷的时间占全年一半以上左右。从而大大降低了机房整体PUE值,机房PUE值可控制在较低的数值。 2.热管背板空调(ZP-RAS-BGA)是一种新型空调末端系统,是利用分离式热管原理将空调室内机设计成机柜背板模

数据中心空调系统节能技术白皮书

数据中心空调系统节能技术白皮书 数据中心空调系统节能技术白皮书

目录 1.自然冷却节能应用 (3) 1.1概述 (3) 1.2直接自然冷却 (3) 1.2.1简易新风自然冷却系统 (3) 1.2.2新风直接自然冷却 (5) 1.2.3 中国一些城市可用于直接自然冷却的气候数据: (8) 1.3间接自然冷却 (8) 1.3.1间接自然冷却型机房精密空调解决方案 (8) 1.3.2风冷冷水机组间接自然冷却解决方案 (12) 1.3.3水冷冷水机组间接自然冷却解决方案 (15) 1.3.4 中国一些城市可用于间接自然冷却的气候数据: (16) 2.机房空调节能设计 (17) 2.1动态部件 (17) 2.1.1压缩机 (17) 2.1.2风机 (18) 2.1.3节流部件 (19) 2.1.4加湿器 (19) 2.2结构设计 (21) 2.2.1冷冻水下送风机组超大面积盘管设计 (21) 2.2.2DX型下送风机组高效后背板设计 (22) 2.3控制节能 (22) 2.3.1主备智能管理 (22) 2.3.2EC风机转速控制 (23) 2.3.3压差控制管理 (23) 2.3.4冷水机组节能控制管理 (26)

1.自然冷却节能应用 自然冷却节能应用 概述 1.1概述 随着数据中心规模的不断扩大,服务器热密度的不断增大,数据中心的能耗在能源消耗中所占的比例不断增加。制冷系统在数据中心的能耗高达40%,而制冷系统中压缩机能耗的比例高达50%。因此将自然冷却技术引入到数据中心应用,可大幅降低制冷能耗。 自然冷却技术根据应用冷源的方式有可以分为直接自然冷却和间接自然冷却。直接自然冷却又称为新风自然冷却,直接利用室外低温冷风,作为冷源,引入室内,为数据中心提供免费的冷量;间接自然冷却,利用水(乙二醇水溶液)为媒介,用水泵作为动力,利用水的循环,将数据中心的热量带出到室外侧。 自然冷却技术科根据数据中心规模、所在地理位置、气候条件、周围环境、建筑结构等选择自然冷却方式。 直接自然冷却 1.2直接自然冷却 直接自然冷却系统根据风箱的结构,一般可分为简易新风自然冷却新风系统和新风自然冷却系统。 简易新风自然冷却系统 1.2.1简易新风自然冷却系统 1.2.1.1简易新风自然冷却系统原理 简易新风自然冷却系统原理 简易新风直接自然冷却系统主要由普通下送风室内机组和新风自然冷却节能风帽模块组成。节能风帽配置有外部空气过滤器,过滤器上应装配有压差开关,并可以传递信号至控制器,当过滤器发生阻塞时,开关会提示过滤器报警。该节能风帽应具备新风阀及回风阀,可比例调节风阀开度,调节新风比例。

数据中心空调设计浅析

数据中心空调设计浅析 数据中心空调设计浅析 摘要随着网络时代的发展,服务器集成度的提高,数据中心机房的能耗急剧增加,这就要求数据中心的空调设计必须高效、节能、合理、经济,本文结合某工程实例浅谈下数据中心空调的特点和设计思路。 关键词:数据中心气流组织机房专用空调节能措施 数据中心是容纳计算机房及其支持区域的一幢建筑物或是建筑 物中的一部分。数据中心空调系统的主要任务是为数据处理设备提供合适的工作环境,保证数据通信设备运行的可靠性和有效性。本文结合工程实例浅析一下数据中心机房空调设计的特点和机房空调的节 能措施。 一、冷源及冷却方式 数据中心的空调冷源有以下几种基本形式:直接膨胀风冷式系统、直接膨胀水冷式系统、冷冻水式系统、自然冷却式系统等。 数据中心空调按冷却方式主要为三种形式:风冷式机组、水冷式机组以及双冷源机组。 二、空调设备选型 (1)空气温度要求 我国《电子信息系统机房设计规范》(GB50174―2008 )中规定:电子信息系统机房划分成 3级。对于A级与B级电子信息系统机房,其主机房设计温度为2 3±1°C,C级机房的温度控制范围是1 8―2 8°C 。 (2)空气湿度要求 我国《电子信息系统机房设计规范》(GB50174―2008 )中规定:电子信息系统机房划分成3级。对于A级与B级电子信息系统机房,其主机房设计湿度度为40―55%,C级机房的温度控制范围是 40―60%。 (3)空气过滤要求

在进入数据中心机房设备前,室外新风必须经过滤和预处理,去除尘粒和腐蚀性气体。空气中的尘粒将影响数据机房设备运行。 (4)新风要求 数据中心空调系统必须提供适量的室外新风。数据通信机房保持正压可防止污染物渗入室内。 三、气流组织合理布置 数据中心的气流组织形有下送上回、上送侧回、弥漫式送风方式。 1.下送上回 下送上回是大型数据中心机房常用的方式,空调机组送出的低温空气迅速冷却设备,利用热力环流能有效利用冷空气冷却率,如图1所示为地板下送风示意图: 图1地板下送风示意图 数据中心内计算机设备及机架采用“冷热通道”的安装方式。将机柜采用“背靠背,面对面”摆放。在热空气上方布置回风口到空调系统,进一步提高制冷效果。 2.上送侧回 上送侧回通常是采用全室空调送回风的方式,适用于中小型机房。空调机组送风出口处宜安装送风管道或送风帽。回风可通过室内直接回风。如图2所示为上送侧回示意图: 图2上送侧回示意图 四、节能措施 1、选择合理的空调冷源系统方式 在节能型数据中心空调冷源形式的选择过程中,除了要考虑冷源系统形式的节能性以外,还要综合考虑数据中心的规模、数据中心的功率密度、数据中心的投资规模、工作人员的维护能力、数据中心所在地的气候条件以及数据中心的基础条件等。 2、设计合理的室内空气温湿度 越低的送风温度意味着越低的空调系统能量利用效率。笔者认为冷通道设计温度为l5―22℃,热通道为25―32℃。 3、提高气流组织的效率 数据中心空调气流组织应尽量避免扩散和混合。在数据中心机房

数据中心集中冷源空调系统设计综述.

1引言 随着互联网与信息技术的发展,数据中心的数据 量和处理能力持续增长,这种增长导致数据中心的发热密度持续增加,从而使数据中心的散热成为一个日益突出的技术难点和重点,这也就意味着数据中心对于空调制冷系统的依赖程度和要求逐年增高;而由于集中冷源式空调系统总体制冷效率更高,且可以方便采用多种可靠的节能技术(自然冷却技术等,所以越来越多的数据中心采用了集中冷源式空调系统。 一个数据中心的设计使用寿命一般都会在10年以上,而空调系统是除IT 设备以外最大的耗能系统,无论是从社会责任还是企业内部的经济效益考虑,我们都要努力打造一套长寿命、低能耗、低故障、可扩展的数据中心空调系统。而一个好的、合理的设计方案会大量地节省初投资,能够采用更加成熟的产品和技术来满足数据中心寿命期内的需要,并且可以通过有效地降低PUE 、初投资(CAPAX ,来实现TCO 的节省。 2集中冷源式空调系统 集中冷源系 统主要由制冷设备和管路组成,由于传统的集中冷源式空调系统中可能存在单点故障,而发生单点故障必然会导致空调系统无法制冷;传统建筑可以容忍短暂的抢修时间,但对于发热量特别大的数据中心机房,空调系统即便仅停止工作几分钟,就会造成IT 设备的高温和宕机,所以冷冻水系统存在的单点故障隐患对数据中心威胁巨大,必须尽量消除。水管路、阀门、冷水机组、冷冻水型末端均需考虑冗余设计。由于系统扩容相对复杂,设计之初就要考虑好管路设计和接口预留。 集中冷源式空调系统架构还需要根据数据中心的用途和设计级别来进行相应调整,目前主要参考国内(GB50174和国际(TIA-942的相应标准进行,具体参见表1。 数据中心集中冷源空调系统设计综述

数据中心维护_精密空调CRAC

为什么需要精密空调? 现在,恒温恒湿环境控制要求已经远远超出了传统数据中心或计算机室的围,包括更大的一套应用,称为“技术室”。典型的技术室应用包括: ?医疗设备套件(MRI、CAT 扫描) ?洁净室 ?实验室 ?打印机/复印机/CAD 中心 ?服务器室 ?医疗设施(手术室、隔离室) ?电信(交换机室、发射区) 为什么需要精密空调? 在许多重要的工作息处理是不可或缺的一个环节。因此,贵公司的正常运转离不开恒温恒湿的技术室。 IT硬件产生不寻常的集中热负荷,同时,对温度或湿度的变化又非常敏感。温度和/或湿度的波动可能会产生一些问题,例如,处理时出现乱码,严重时甚至系统彻底停机。这会给公司带来大量的损失,具体数额取决于系统中断时间以及所损失数据和时间的价值。标准舒适型空调的设计并非为了处理技术室的热负荷集中和热负荷组成,也不是为了向这些应用提供所需的精确的温度和湿度设定点。精密空调系统的设计是为了进行精确的温度和湿度控制。精密空调系统具有高可靠性,保证系统终年连续运行,并且具有可维修性、组装灵活性和冗余性,可以保证技术室四季空调正常运行。 温度和湿度设计条件 保持温度和湿度设计条件对于技术室的平稳运行至关重要。设计条件应在72-75°F (22-24°C)以及 35-50% 的相对湿度 (R.H.)。与环境条件不合适可能造成损坏一样,温度的快速波动也可能会对硬件运行产生负面影响。这就是即使硬件未在处理数据也要使其保持运行状态的一个原因。相反,舒适型空调系统的设计只是为了在夏天 95°F

(35°C)的气温和48% R.H.的外界条件下,使室的温度和湿度分别保持80°F (27°C)和 50% R.H.的水平。相对而言,舒适型空调系统的设计只是为了在夏天95°F (35°C)的条件和48% R.H.的外界条件下,保持80°F (27°C)和50% R.H.。舒适空调没有专用的加湿及控制系统,简单的控制器无法保持温度所需的设定点的整定值(23±2°C),因此,可能会出现高温、高湿而导致环境温湿度场大围的波动。 环境不适合所造成的问题 如果技术室的环境运行不当,将对数据处理和存储工作产生负面影响。结果,可能使数据运行出错、宕机,甚至使系统故障频繁而彻底关机。 1、高温和低温 高温、低温或温度快速波动都有可能会破坏数据处理并关闭整个系统。温度波动可能会改变电子芯片和其他板卡元件的电子和物理特性,造成运行出错或故障。这些问题可能是暂时的,也可能会持续多天。即使是暂时的问题,也可能很难诊断和解决。 2、高湿度 高湿度可能会造成磁带物理变形、磁盘划伤、机架结露、纸粘连、MOS 电路击穿等故障发生。 3、低湿度 低湿度不仅产生静电,同时还加大了静电的释放。此类静电释放将会导致系统运行不稳定甚至数据出错。 欲了解更多APC相关容,请登录.apc./cn 技巧:精密空调系统工作原理及维护过程解析 精密空调的构成除了前面介绍的压缩机、冷凝器、膨胀阀和蒸发器外,还包括:风机、空气过滤器、加湿器、加热器、排水器等。因此我们在日常的机房管理工作中对空调的管理和维护,主要是针对以上部件去维护的。精密空调的构成除了前面介绍的压缩机、冷凝器、膨胀阀和蒸发器外,还包括:风机、空气过滤器、加湿器、加热器、排水器等。因此我们在日常的机房管理工作中对空调的管理和维护,主要是针对以上部件去维护的。 一、精密空调的结构及工作原理 精密空调主要由压缩机、冷凝器、膨胀阀和蒸发器组成。

IT数据中心运维服务白皮书

鹏博士电信传媒集团股份有限公司 IT服务白皮书 二零一三年十一月

目录 第一章运维服务概述 (4) 1、 (4) 2、 (4) 3、 (4) 第二章监控巡检服务 (4) 1、实时监控 (4) 2、日常监控 (4) 第三章服务器运维管理服务 (4) 1、服务器健康检查 (4) 2、服务器日常维护 (5) 3、服务器配置管理 (6) 4、服务器性能管理 (7) 第四章网络运维管理服务 (8) 1、网络拓扑规划和优化 (8) 2、网络设备安装、配置、调试 (8) 3、网络设备“高可用”配置和维护 (8) 4、网络设备性能管理 (8) 第五章存储运维管理服务 (8)

1、存储设备安装、配置、调试 (8) 2、存储容量空间管理 (8) 3、存储性能管理 (8) 第六章数据库管理服务 (8) 1、数据库安装、配置、调试 (8) 2、数据库性能管理 (8) 3、数据库容量空间管理 (8) 4、数据库备份和恢复管理 (8) 第七章安全管理 (8) 1、服务器安全管理 (9) 2、网络安全管理 (9) 第八章管理制度、流程 (9) 1、服务支持 (9) 2、服务交付 (9) 第九章应急管理 (9) 1、应急预案开发和维护 (9) 2、应急演练 (9)

第一章运维服务概述 1、 2、 3、 第二章监控巡检服务 1、实时监控 2、日常监控 第三章服务器运维管理服务 1、服务器健康检查 为了提高系统的可用性,将故障排除在发生之前至关重要。健康检查服务是鹏博士提供的一项针对设备的非常有效的事故预防服务,是主动式服务的一种。通过健康巡检服务可以尽早发现系统的问题或潜在问题,保证系统的安全、稳定运行。 健康巡检将帮助客户从技术角度对正在运行的服务范围内系统的技术特征、故障隐患有一个全面的了解,以便根据业务发展需求和目前系统资源状况,制定合理、可行的系统扩容、改造、维护计划,提高系统运行的安全性。 服务内容如下: 根据客户需求制定健康检查计划、方案、流程;

数据中心能耗分析报告

数据中心能耗实例分析 前言:本文着重分析了影响数据中心能耗的因素,从数据中心的空调、UPS、运维等方面对其能耗进行了综合分析。本文认为影响数据中心能耗的关键因素是空调系统,并以2个数据中心的空调系统为例,结合作者在数据中心建设和运维中的经验,提出了数据中心节能的建议。 一、数据中心节能的必要性 近年国内大型数据中心的建设呈现快速增长的趋势,金融、通信、石化、电力等大型国企、政府机构纷纷建设自己的数据中心及灾备中心。随着物联网、云计算及移动互联概念的推出,大批资金投资到商业IDC的建设中。数据中心对电力供应产生了巨大的影响,已经成为一个高耗能的产业。在北京数据中心较集中的几个地区,其电力供应都出现饱和的问题,已无法再支撑新的数据中心。目前某些数据中心移至西北等煤炭基地,利用当地电力供应充足、电价低的优势也不失为一个明智的选择。 随着数据中心的不断变大,绿色节能数据中心已经由概念走向实际。越来越多的数据中心在建设时将PUE值列为一个关键指标,追求更低的PUE值,建设绿色节能数据中心已经成为业内共识。例如,微软公司建在都柏林的数据中心其PUE值为1.25。据最新报道Google公司现在已经有部分数据中心的PUE降低到1.11。而我们国内的PUE平均值基本在1.8~2.0,中小规模机房的PUE值更高,大都在2.5以上。我们在数据中心绿色节能设计方面与国外还存在很大差距,其设计思想及理念非常值得我们借鉴。 根据对国内数据中心的调查统计,对于未采用显著节能措施的数据中心,面积为1000平方米的机房,其每年的用电量基本都在500多万kWH左右。因此对

于新建的大型数据中心,节能的必要性十分重要。 从各大数据中心对电力的需求来看,数据中心已经成为重要的高耗能产业而非“无烟工业”,建设绿色、节能的数据中心急需从概念走向实际。 二、影响数据中心能耗的因素 数据中心的能耗问题涉及到多个方面,主要因素当然是空调制冷系统,但UPS、机房装修、照明等因素同样影响着数据中心的能耗,甚至变压器、母线等选型也影响着能耗。例如,对UPS而言,根据IT设备的实际负荷选择合理的UPS 容量,避免因UPS效率过低而产生较大的自身损耗。同时,选择更加节能的高频UPS、优化UPS拓扑结构都可起到节能的效果。 1、UPS对数据中心能耗的影响 UPS主机的自身损耗是影响数据中心能耗的一项重要因素。提高UPS的工作效率,可以为数据中心节省一大笔电费。下图为某大型UPS主机的效率曲线。从该曲线中可以看出,当UPS负荷超过30%时UPS的效率才接近90%。很多数据中心在投运初期IT负荷较少,在相当长的时间内负荷不足20%。在此情况下UPS 的效率仅仅为80%左右,UPS的损耗非常大。因此,在UPS配置中尽量选择多机并联模式,避免大容量UPS单机运行模式。例如,可以用两台300kVA UPS并联运行的模式代替一台600kVA UPS单机运行模式。其优点在于IT负荷较少时只将一台300kVA UPS投入运行,另一台UPS不工作,待IT负荷增加后再投入运行。这种UPS配置方案及运行模式可以提高UPS效率,降低机房能耗。

数据中心空调系统应用白皮书

数据中心空调系统应用白皮书

目录 一引言 (5) 1.1目的和范围 (5) 1.2编制依据 (5) 1.3编制原则 (6) 二术语 (6) 三数据中心分级 (8) 3.1概述 (9) 3.2 数据中心的分类和分级 (9) 四:数据中心的环境要求 (10) 4.1 数据中心的功能分区 (10) 4.2 数据中心的温、湿度环境要求 (11) 4.2.1 数据中心环境特点 (11) 4.2.2 国标对数据中心环境的规定和要求 (12) 4.3 数据中心的其它相关要求 (16) 五: 数据中心的机柜和空调设备布局 (18) 5.1 机柜散热 (19) 5.1.1数据中心机柜 (19) 5.1.2 机柜的布局 (21) 5.2 机房空调及其布置 (23) 5.2.1 机房空调概述 (23) 5.2.2 机房空调送回风方式 (25) 5.2.3 机房空调布局 (25) 六:数据中心空调方案设计 (26) 6.1 数据中心的制冷量需求确定 (26) 6.2 数据中心的气流组织 (29) 6.2.1 下送上回气流组织 (29) 6.2.2 上送下(侧)回气流组织 (33) 6.2.3 局部区域送回风方式 (36) 6.3 空调系统的冷却方式选择 (37) 6.4 空调设备的选择 (46) 七: 数据中心中高热密度解决方案 (48) 7.1 区域高热密度解决方案 (48) 7.2 局部热点解决方式 (50) 7.3高热密度封闭机柜 (52) 7.4其它高热密度制冷方式 (54) 八: 数据中心制冷系统发展趋势 (54) 8.1数据中心发展趋势: (54) 8.2 数据中心制冷系统发展趋势 (57) 九机房环境评估和优化 (58) 附件一:数据中心要求控制环境参数的原因 (62) 附件二:机房专用空调机组 (70)

数据中心机房制冷空调系统运维技术考核题目答案参考

数据中心(机房)制冷空调系统运维技术考核题目答案参考 类数据机房温湿度范围?单点温湿度波动范围? A类机房温湿度要求:23±1℃,40--55% ;单点温度波动小于5℃/h,湿度波动小于5%/h 参考:GB50174《电子信息系统机房设计规范》 2.空调回风参数:温度25℃,相对湿度50%;求露点温度? ℃参考:标准大气压湿空气焓湿图;此题关注会查空气状态点对应的露点温度和湿球温度 3.自然冷却模式、预冷模式、普通制冷模式的切换依据,对应的环境湿球温度值是多少? 湿球温度<10℃适合自然冷却模式,10--15℃之间适合预冷模式,>15℃适合普通制冷模式 参考:水冷自控系统供冷模式转换控制逻辑 4.机房空调送风距离多少米为宜?6-10m为宜 5.数据机房采用地板送风,风速范围多少m/s为宜? ( m/s最佳)参考:GB50174《电子信息系统机房设计规范》 6.数据机房新风正压要求数值? 机房与走廊;机房与室外参考:GB50174《电子信息系统机房设计规范》 7.数据机房新风量:人均参考值?每平米参考值?按机房换气次数每小时几次为宜? 按工作人员每人40m3/h;每平米25--30 m3/h;机房换气次数次/h(人员进出的机房取4次/h) 8.计算:900个标准机柜(13A)需要多大面积的机房合适?如选用艾默生冷水型机房空调P3150G至少需要多少台?按4-5台以上备份1台的标准,最多需要多少台?需要多大冷量的冷水机组提供冷源?需要多大风量的新风空调提供机房正压? 每个机柜加上冷热通道,平均面积取;×900=2070㎡(可分成4个㎡模块间,每个模块225台机柜) 每平米可用制冷量不能小于+每平米维护结构热负荷=每平米冷量需求 总冷量需求:×2070=3312KW 查艾默生冷水型空调样本:P3150G标准冷量为;需留有20%的预留(使用系数取) 艾默生P3150G冷水型空调单机净冷量:×= ○标准需求台数:3312÷≈28台;冗余配置(4+1):28÷4=7台(需配备机7台);含备机需28+7=35台 ○IT设备功耗转换成热量系数(取计算);13A机柜功耗,转换为热量÷≈ 总热负荷:×900=3429KW,除以P3150G空调单机净冷量≈29台,按冗余配置(4+1),需配备机7台;含备机需29+7=36台 ○空调系统制冷量取IT负载的倍;IT总负载:×900=2574KW;空调系统总制冷量:2574×= 除以P3150G空调单机净冷量≈28台,按冗余配置(4+1),需配备机7台;含备机需28+7=35台 ●需要冷量为3429KW(约1000RT)的冷水机组(离心式)1台提供冷源 新风量每平米25--30 m3/h(取30 m3/h);总新风需求30×2070=62100 m3/h,建议规划4个模块间单独提供新风62100÷4=15525 m3/h,需要新风量15525 m3/h的组合空调4台 9.制冷设备能效比EER是如何计算的? EER即制冷设备的制冷性能系数,也称能效比,表示制冷设备的单位功率制冷量。EER值越高,表示制冷设备中蒸发吸收的热量较多,压缩机耗电较少。数学计算公式:EER=制冷量(KW)/制冷消耗功率(KW) 单位:W/W或KW/h/W 10.冷站(动力站)COP是如何计算的? 冷水机组实际制冷量和配套设备(压缩机-马达+冷冻水循环泵+冷却水循环泵+冷却塔风机-马达)实际输入功率之比 11.数据机房PUE是如何计算的?绿色节能机房PUE标准? PUE是评价数据中心能源效率的指标,是数据中心消耗的所有能源(电能)与IT负载使用的能源(电能)之比PUE=数据中心总设备能耗/IT设备能耗;基准是2,越接近1表明能效水平越好 绿色节能机房PUE标准:以下 12.接题目8,匹配适合该冷水机组的冷却塔参数(流量)?冷却塔设在楼顶距冷站(动力站)20米,匹配适合该冷水机组的冷却循环泵参数(扬程和流量)?匹配适合该冷水机组和机房空调的冷冻循环泵参数(扬程和流量)(注:水泵出口至管网最高点垂直高度15米)? 水量需求:冷凝器()/RT 蒸发器(3/h)/RT

数据中心机房冷热通道

数据中心机房冷热通道 论如何选择布置隔离冷通道还是热通道 随着IT设备越来越趋向于大密度集中管理时代,数据中心所面临的散热问题也就越来越严重,TIA942标准的出现,为这一问题提供有效的规避指导依据。本期冷通道连载系列正是为解决这些问题,而进行了原理、实施、特点等方面的阐述,希望对涉及到该行业的设计人员、实施人员、IT管理人员、信息主管等有一定的帮助作用。 一、论如何规划好数据中心气流组织 1、概述 数据中心机房在使用过程中,受各种因素制约限制,造成机房气流组织不合理、不通畅,由于IT设备是靠机房空调送入的低温风与其散热充分交换,带走热量,降低机架内温度,气流组织起到热交换媒介纽带作用,当热交换的纽带不顺畅、不合理时,现状只能是机房空调设备容量配置远远大于实际需求量,以满足机房需要。造成空调设备投资增大、运行费用增高,机房PUE值增大。 因此如何规划好数据中心机房气流组织,有着非常重要的意义,它是对机房内现有的不合理的气流组织,进行归纳分类、根据不同类型,进行合理改造。将冷热空气有效的隔离,让冷空气顺利的送入通信设备内部,进行热交换,将交换产生的热空气送回至空调机组,避免不必要的冷热交换,提高空调系统效率。减少机房运行费用。 2、数据中心机房中的几种气流组织形式 我们根据多年的规划气流组织经验,将数据中心气流组织分为以下四种形式即:机房气流组织形式、静压仓气流组织形式、机架气流组织形式、IT设备气流组织形式。下面分别介绍这几种气流组织形式: 1) 机房气流组织形式 在机房的气流组织中精密空调的送风方式起着决定性的作用。精密空调的送、回风方式不同,其整个机房的气流组织形式是截然不同的。下面是这两种送风方式的气流组织示意图:上送风下回风时;下送风上回风时,均采用艾默生PEX系列机组即可满足需要。

华为数据中心网络安全技术白皮书

HUAWEI 数据中心网络安全技术白皮书

目录 1数据中心网络安全概述 (6) 1.1“三大平面”安全能力与风险防御目标 (7) 2网络安全威胁分析 (9) 2.1拒绝服务 (9) 2.2信息泄漏 (9) 2.3破坏信息完整性 (9) 2.4非授权访问 (10) 2.5身份欺骗 (10) 2.6重放攻击 (10) 2.7计算机病毒 (10) 2.8人员不慎 (11) 2.9物理入侵 (11) 3管理平面安全 (12) 3.1接入控制 (12) 3.1.1认证和授权 (12) 3.1.2服务启停控制 (12) 3.1.3服务端口变更 (12) 3.1.4接入源指定 (13) 3.1.5防暴力破解 (13) 3.2安全管理 (13) 3.2.1SSH (13) 3.2.2SNMPv3 (14) 3.3软件完整性保护 (14) 3.4敏感信息保护 (14) 3.5日志安全 (14) 4控制平面安全 (16) 4.1TCP/IP安全 (16) 4.1.1畸形报文攻击防范 (16) 4.1.2分片报文攻击防范 (17) 4.1.3洪泛报文攻击防范 (17) 4.2路由业务安全 (18)

4.2.1邻居认证 (18) 4.2.2GTSM (19) 4.2.3路由过滤 (19) 4.3交换业务安全 (20) 4.3.1生成树协议安全 (20) 4.3.2ARP攻击防御 (22) 4.3.3DHCP Snooping (25) 4.3.4MFF (27) 5数据平面安全 (28) 5.1应用层联动 (28) 5.2URPF (28) 5.3IP Source Gard (29) 5.4CP-CAR (29) 5.5流量抑制及风暴控制 (30)

5G+智慧能源典型应用场景白皮书

5G+智慧能源典型应用场景白皮书

目录 智慧电力 (1) 5G智能场站 (1) 电力设施立体巡检 (2) 远程运维指导 (4) 应用案例:天津5G陆空一体化电力设施立体巡检 (4) 石油石化 (5) 5G智慧油田 (5) 5G巡检机器人 (7) 天然气 (8) 煤炭产业 (9)

引言 近年来,能源行业持续推进“互联网+”战略,旨在全方位提升行业信息化、智能化水平,这就需要加强现代信息通信技术、控制技术的利用率,来实现前端设备监控和数据收集,衍生出新型产能方式和用能模式。随着各类能源业务的快速增长,能源行业对新型通信网络的需求日益迫切,急需安全可靠、实时稳定的通信技术及系统支撑。 5 G技术应运而生,背负着“使能垂直行业”的使命,旨在改变垂直行业核心业务的作业模式和运营方式,使得传统行业管理实现智能化、决策更加智慧化。 在此背景下,中国联通发布全新5 G n品牌以及品牌口号“让未来生长”,充分诠释了联通5 G致力科技创新、赋能行业、给用户带来无限精彩体验的品牌精神和品牌态度。联通5G将以其“大带宽、低时延、泛连接”的特性,助力能源行业实现高质量发展、提升服务水平、拓展新业务新模式,全面提升能源物联网全息感知、泛在连接、开放共享、融合创新能力,推动能源行业安全可靠、绿色智能发展。

智慧电力 今年年初,国家电网提出“三型两网、打造世界一流智能电网”的战略目标,南方电网印发《数字化转型和数字南网建设行动方案(2019版)》,全面驱动传统电力行业转型升级。智能电网是全球各国电力、能源产业发展变革的体现,特别我国智能电网发展战略的提出,将在发输变配用电和调度的各个环节都实现智能化、数字化。已有的电网调度通信系统将进一步升级换代,在实现数据自动远程传输的同时,能够灵活维护和调控,形成实时立体监控、安全可靠的电力信息网络。 5 G以一种全新的网络架构提供10倍于4 G的用户体验速率,峰值速率高达20 Gbps(毫米波),低至1 ms的空口时延,5个9的超高可靠性,100万每平方公里的连接密度。针对行业应用定义了 mMTC海量物联和 uRLLC低时延高可靠两类全新场景,使得 VR、大数据等运用到电力行业成为现实,更加有效服务现场监控和事故预判、诊断,实现电力行业从数字化到智慧化的演进。5G 独有的网络切片技术的安全级别和隔离性完全满足能源行业对安全的需求,而相比企业自建的光纤专网,则大幅度的降低了成本。5 G边缘计算技术通过网关分布式下沉部署,进行本地流量处理和逻辑运算,节省带宽的同时降低了延时,充分满足电网相关业务的超低时延需求,构建高效环保、绿色智能电网。 5G智能场站 随着分布式新能源的迅猛发展,新能源发电设备日益增加,变电站、风电场、光伏电站等大多呈分散式分布,有些处于偏远地,光纤覆盖难,施工难度大,运

数据中心机房空调系统气流组织研究与分析

数据中心机房空调系统 气流组织研究与分析 Company number:【WTUT-WT88Y-W8BBGB-BWYTT-19998】

IDC机房空调系统气流组织研究与分析 摘要:本文阐述了IDC机房气流组织的设计对机房制冷效率有重要影响,叙述现有空调系统气流组织的常见形式。同时重点对IDC机房常见的几种气流组织进行了研究与分析,对比了几种气流组织的优缺点,从理论与实践中探讨各种气流组织情况下冷却的效率。 关键词:IDC、气流组织、空调系统 一、概述 在IDC机房中,运行着大量的计算机、服务器等电子设备,这些设备发热量大,对环境温湿度有着严格的要求,为了能够给IDC机房等提供一个长期稳定、合理、温湿度分布均匀的运行环境,在配置机房精密空调时,通常要求冷风循环次数大于30次,机房空调送风压力75Pa,目的是在冷量一定的情况下,通过大风量的循环使机房内运行设备发出的热量能够迅速得到消除,通过高送风压力使冷风能够送到较远的距离和加大送风速度;同时通过以上方式能够使机房内部的加湿和除湿过程缩短,湿度分布均匀。 大风量小焓差也是机房专用空调区别于普通空调的一个非常重要的方面,在做机房内部机房精密空调配置时,通常在考虑空调系统的冷负荷的同时要考虑机房的冷风循环次数,但在冷量相同的条件下,空调系统的空调房间气流组织是否合理对机房环境的温湿度均匀性有直接的影响。 空调房间气流组织是否合理,不仅直接影响房间的空调冷却效果,而且也影响空调系统的能耗量,气流组织设计的目的就是合理地组织室内空气的流动使室内工作区空气的温度、湿度、速度和洁净度能更好地满足要求。 影响气流组织的因素很多,如送风口位置及型式,回风口位置,房间几何形状及室内的各种扰动等。二、气流组织常见种类及分析: 按照送、回风口布置位置和形式的不同,可以有各种各样的气流组织形式,大致可以归纳以下五种:上送下回、侧送侧回、中送上下回、上送上回及下送上回。 1)投入能量利用系数 气流组织设计的任务,就是以投入能量为代价将一定数量经过处理成某种参数的空气送进房间,以消除室内某种有害影响。因此,作为评价气流组织的经济指标,就应能够反映投入能量的利用程度。 恒温空调系统的“投入能量利用系数”βt,定义:? (2-1) 式中:t0一一送风温度, tn一一工作区设计温度, tp一一排风温度。 通常,送风量是根据排风温度等于工作区设计温度进行计算的.实际上,房间内的温度并不处处均匀相等,因此,排风口设置在不问部位,就会有不同的排风温度,投入能量利用系数也不相同。 从式(2—1)可以看出:

数据中心供配电应用白皮书

数据中心供配电系统应用白皮书 核心提示:任何现代化的IT设备都离不开电源系统,数据中心供配电系统是为机房内所有需要动力电源的设备提供稳定、可靠的动力电源支持的系统。供配电系统于整个数据中心系统来说有如人体的心脏-血液系统。 一引言 任何现代化的IT设备都离不开电源系统,数据中心供配电系统是为机房内所有需要动力电源的设备提供稳定、可靠的动力电源支持的系统。供配电系统于整个数据中心系统来说有如人体的心脏-血液系统。1.1编制范围 考虑到数据中心供配电系统内容的复杂性和多样性以及叙述的方便,本白皮书所阐述的"数据中心供配电系统"是从电源线路进用户起经过高/低压供配电设备到负载止的整个电路系统,将主要包括:高压变配电系统、柴油发电机系统、自动转换开关系统(ATSE,Automatic Transfer Switching Equipment)、输入低压配电系统、不间断电源系统(UPS,Uninterruptible Power System)系统、UPS列头配电系统和机架配电系统、电气照明、防雷及接地系统。如下图: 高压变配电系统:主要是将市电(6kV/10kV/35kV,3相)市电通过该变压器转换成(380V/400V,3相),供后级低压设备用电。 柴油发电机系统:主要是作为后备电源,一旦市电失电,迅速启动为后级低压设备提供备用电源。 自动转换开关系统:主要是自动完成市电与市电或者市电与柴油发电机之间的备用切换。 输入低压配电系统:主要作用是电能分配,将前级的电能按照要求、标准与规范分配给各种类型的用电设备,如UPS、空调、照明设备等。 UPS系统:主要作用是电能净化、电能后备,为IT负载提供纯净、可靠的用电保护。 UPS输出列头配电系统:主要作用是UPS输出电能分配,将电能按照要求与标准分配给各种类型的IT设备。 机架配电系统:主要作用是机架内的电能分配。 此外,数据中心的供配电系统负责为空调系统、照明系统及其他系统提供电能的分配与输入,从而保证数据中心正常运营。 电气照明:包括一般要求,照明方案、光源及灯具选择。 防雷及接地系统:包括数据中心防雷与接地的一般要求与具体措施。 1.2编制依据 《电子信息系统机房设计规范》GB 50174-2008《电子信息机房施工及检验规范》GB50462-2008 1.3编制原则 1.具有适应性、覆盖性、全面性的特征。 适应性——适应当前和未来一段时期数据中心的技术发展状况以及未来新技术、新产品的发展,有关数据和资料与新设备、新材料、新技术、新工艺的发展水平相适应;符合现行的国家标准、行业标准或规定。覆盖性——应覆盖国内各种数据中心的供配电工程设计、施工和检验,纳入成熟的、经过验证的应用方案、方法及设备等。 全面性——内容、体系完整。 2.定位于工程设计,具有实施的工程化特征。侧重工程设计方法和原则、系统构成、重要技术方案的确定、参数计算和确定、设备选型与布置、投资控制及维护机构等方面的内容。同时避免内容冗杂,通过分类提

数据中心空调系统设计论文

某数据中心空调系统设计 【摘要】本文介绍数据中心空调系统设计,主要包括空调冷源、空调水系统、空调风系统、控制系统等。阐述数据中心空调系统安全运行的必要条件及减少能耗的主要节能措施。 0.项目概况 本项目位于浙江省某科技园区,数据中心建筑面积为29991m2,机房按A级[1]标准设计。 1.机房需求及系统简介 1.1数据中对空调系统安全要求 数据中心空调负荷较大,一旦制冷系统出现故障,IT设备散热量无法及时消除,机房温度很快超过IT设备厂商对机房环境温度的要求,可能会导致宕机或者IT设备损坏。因此设计须避免空调制冷系统的单点故障,保证系统7*24h不间断供冷,并且能在线维护。空调采用温湿度独立控制空调系统。制冷机按N+1设置备用,同时蓄冷罐作为应急备用冷源,保证系统断电时不间断供冷。其次管路方面:冷源侧及末端均采用环路设计,保证系统不间断运行。 1.2数据中心节能要求 近年来新建数据中心在逐步降低PUE值。为了评价数据中心的能源效率,行业中采用PUE值进行考核,规定PUE= 数据中心总设备能耗/IT设备能耗;显然PUE越接近1,表明能效水平越好。本工程空调系统,节能设计体现在以下四个方面:首先冷源方面:提高冷冻水出水温度及采用变速驱动的离心机有效提高其满负荷及部分负荷

的性能系数;其次;冬季采用免费供冷(Free Cooling)技术;第三数据机房采用温湿度独立处理的空调系统;第四数据机房服务器采用封闭冷通道的冷却方式、避免冷风和热风的混合,从而提高末端冷却的效率。 2.空调负荷及室内参数 2.1、机房内空调负荷:主要有围护结构、人员、灯光、新风、IT设备负荷等。湿负荷主要为:工作人员进入机房及新风机故障导致新风未经处理而引入机房的偶然性湿负荷。负荷特点:新风量小、显热负荷大、湿负荷很小、空调送风量大、空调系统全年制冷运行,IT设备负荷占比重最大。本项目数据中心IT设备散热量为14400kW,UPS间散热量为1536 kW,空调冷负荷为17506 kW。 2.2、数据中心室内设计参数 数据中心的设计温、湿度详见表1。洁净度要求:室内悬浮颗粒物0.15mg/m3以下或在静态条件下每升空气中大于等于0.5μm的尘粒数应少于18000粒,并保持必要的正压。 3、空调系统 3.1、空调冷源 冷源选用6台离心式冷水机组(5用1备)单台机组制冷量3825kW,冷却水进出制冷机温度32/37℃,冷冻水供回水温度为12/18℃;单台机组的制冷量调节范围15%~100%。主要用来消除机房内的显热负荷。新风机组冷源采用3台制冷量为693kW风冷热泵机组(2用1备)。热泵机组夏季冷冻水供回水温度为7/12℃。主要作

相关主题