数据中心的定义.docx

上传人:小飞机 文档编号:5306122 上传时间:2023-06-24 格式:DOCX 页数:27 大小:294.28KB
返回 下载 相关 举报
数据中心的定义.docx_第1页
第1页 / 共27页
数据中心的定义.docx_第2页
第2页 / 共27页
数据中心的定义.docx_第3页
第3页 / 共27页
数据中心的定义.docx_第4页
第4页 / 共27页
数据中心的定义.docx_第5页
第5页 / 共27页
亲,该文档总共27页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

《数据中心的定义.docx》由会员分享,可在线阅读,更多相关《数据中心的定义.docx(27页珍藏版)》请在三一办公上搜索。

1、数据中心的定义一说到数据中心,人们经常会想到一个高科技IT环境,大小和足球场差不多,其 中装满了来自许多厂商的设备,并拥有充足的空调系统,即使伦敦动物园的企鹅也能 一直保持好心情。事实上,数据中心一词适用于为机柜或机架专门分配的任何空间,其中装有网络设 备,这些设备要么为其他网络设备提供服务一般通过通用布线传送,要么从外部电信 网络中获得服务(如程控交换机、光纤或来自?的ADSL连接),要么为外部网络提供 服务典型代表是虚拟主机设施。我们一般还会认为数据中心是一种多客户端环境,由第三方提供环境维护服务。但 是,数据中心同样适用于最终用户内部网络中的主通信间。换句话说,数据中心可以是 服务器室,

2、可以是设备间,也可以是并放设施。对数据中心的关注程度不断提高现代企业高度依赖这些IT设施,必需特别注意这些设施,保证创建安放设备的环 境,支持连续无故障操作。近几年来,托管数据中心正在不断增长。尽管这可能是为节 约资金而进行的外包活动,但我们认为,这更可能是网络所有者日益认识到自己的业务 与IT的相关性,但又缺乏预算或跨领域的专业知识,因而不能内部满足这些需求。这 要求协调各种技术服务,包括电力、HVAC、网络、火灾检测及抑制和广域电信服务供 货商。本文中考察的技术和概念同样适用于单一客户环境和多个客户环境我们可以很容 易看到,为什么多个客户环境给资源有限、而又非常忙的网络管理员提供了极具吸引

3、力 的解决方案。适用的标准电信行业协议已经出版了一项新的标准:数据中心电信设施标准TIA-942这一标准的目的是为数据中心或机房的设计和安装提供要求和指导准则其面向的 用户是需要全面了解数据中心设计的设计人员,包括设施规划、布线系统和网络设计。 通过提供跨越不同设计领域的信息,并促进设计时间与建设阶段的协作,TIA-942使得 设计人员能够在大楼开发流程的早期考虑数据中心,从而有利于确定建筑结构。尽管EN 50173 Part正在致力填补这一空白,但目前在ISO/IEC或 CENELEC领域 中还没有专门编写的监管布线实现的标准EN 50173 Part使用人们熟悉的光纤和平衡 铜缆介质,并采

4、用层级方法,与BS(EN)50173 Part办公环境通用布线标准”类似。在数据中心内部,我们将看到主配线架可能容纳一台核心交换机,支持区域配线 架可能是工作组交换机或支持机架过道的交连,连接到设备埠上预计将位于设备机架 内部)。把主配线架连接到水平布线区或区域布线区的电缆被视为主干电缆的一部分主干 最可能使用的传输介质是光纤电缆。尽管可以敷设传统室内光纤电缆,但新的概念已经 演变,简化了布线过程。其中一个实例是Molex提供的ModLink系列光纤产品,通过这 些产品,对主干进行重新配置和重新选路变得象“即插即用” 一样简便。ModLink - Mcdex、即插即用系统数据中心内部安装的很大

5、一部分布线仍将是项?或FTP电缆。这将作为水平电缆 使用。从数据中心运营要求的高带宽角度看,应该安装高性能六类系统,如ttolex PowerCat6系 列产品。另外还将增加一个外部网络接口及相关布线,用来连接外部环境和服务供货商网 络。这些对合格的安装组织都不应该成问题,在文档出版后必然会成为许多文章进一步 探讨的主题。网络运营商面临的主要问题不管数据中心的大小如何,所有者、运营商和租用者都首先要注意三点,即灵活性、 访问能力和可靠性。灵活性灵活的基础设施可以容纳各种类型的设备,并适应TIA-942提供的数据中心层级布 线方法。在客户拥有和运营的数据中心中,对部署的设备的控制能力通常会更强;

6、其本身非 常灵活,以适应未来技术发展或IT战略变化。而在并放或虚拟主机设施中,灵活性则 是日常运营的前提条件。客户设备会在通知之后不久就到达现场,要求立即连接和投入 运行,以使中断时间达到最小,保证满足服务水平协议。在数据中心内部部署各种设备的要求可能会影响大楼的物理单元可能需要考虑地 板的承重极限,如地板是结构化地板,还是相连的任何活地板系统。普通服务器机架不 可能带来任何问题,但可能需要专门考虑大型不间断电源和存储局域网络竖井很明显, 最好在大楼设计时间、而不是在准备入住阶段完成这些工作。访问能力访问能力无疑具有重要意义。设备不能自己进行安装和配置,而需要相应人员接触 设备,安排完成这些工

7、作。这对确定数据中心的规模具有重大影响,因为技术人员工作 和操纵设备需要空间。丁葫庇葫-569入和BS(EN)5017睹K提供了某些帮助,建议在机柜周 围有1.2米的间隙。在理想条件下,确定数据中心的规模只需确定有多少个机架,然后 在整体外观尺寸上加上要求的间隙即可。接触设备还需要考虑门的大小、是否靠近电梯、能否进入装货舱。许多安装人员会 遇到这样的问题,即800mm机柜过不去26”的门。简单地指定两扇门,有助于解决 这类问题,这在数据中心设计时间要容易得多、便宜得多,而不是在设备安装时再指定!在已经确定数据中心内的设备对业务具有关键意义后,还需要考虑设备故障导致的 非预计的中断时间。很明显在

8、发生故障时,要求调度技术人员,因此通常要遵守严格的 安全政策,安排进入现场。很明显,还要求接触设备和相关布线,这可能需要打开机柜 和活地板格。必需知道,尽管这可以完成维修工作,但它也把其他设备暴露给技术人员 直接暴露或通过共享布线设施暴露,因此不能忽视人为错误的威胁。必须有相应的程 序,以使这一危险达到最小。可靠性网络可用性对数据中心的运营至关重要。这进一步增强了数据中心存在的必要性。 但是要认识到,访问能力和灵活性需求可能会给可靠性带来负面效应。最大的访问能力 可能会导致缺乏对现场人员的控制,使得数据中心很容易发生人为错误。最大的灵活性 可能要求电路中有多条连接,以便能够进行重新配置。有更多

9、的连接会带来更多的故障 点。似乎必需掌握好一个平衡尺度,必需找到一种方法,根据各组成部分量化数据中心 中可能的可靠性。美国运行时间协会描述的四个层就是这样一个体系,值得我们进一步进行考察。他 们认识到实现99.999% (个9)的可靠性是不切实际的,要求的成本极高,因此他们提出 了四个更加容易实现的等级,具体如下:0第一级-一条电源和冷却分配路径,没有冗余器件,99.671%的可用性。0第二级-一条电源和冷却分配路径,有冗余器件,99.741%的可用性。0第三级-多条电源和冷却分配路径,但只有一条路径可用,有冗余器件,可以 并发维护,99.982%勺可用性。0第四级-多条电源和冷却分配路径,有

10、冗余器件,容错,99.995%的可用性。可以很容易看到,第四级方法提供的弹性要高于第一级,预计其非预计中断时间每 年不到27分钟,而第一级则接近29个小时,当然第四级的成本要高得多。另外值得一 提的是,在N+1配置中,在第四级数据中心发生故障时,可以实现第二级的可靠性。设 计成N+2或N+N可以解决这个问题,但其成本一般不允许这样做。加速修复比较合适, 这也正是智慧基础设施管理(IIM系统具有重要意义的原因所在。监测数据流程量的网络 管理工具在市场上已经出现了许多年,而布线则一直是一个盲区。现在,我们不仅能够 检测到未经授权断开连接,还可以把它与数据中心内的物理地点关联起来,并通知相应 的服务

11、热线发生故障,从而可以安排补救措施。相关的楼宇服务在考察数据中心内部要求的其他服务前,需要指出的是数据中心不应该提供哪些服 务。除数据中心中使用的服务外,不应有任何其他服务穿越数据中心,从而降低发生水 灾或污染设备环境的危险。尽管数据中心也要求门禁、闭路电视和照明等服务,但关键服务是空调、电力、火 灾检测及抑制。空调控制数据中心温度的目标是冷却安装在机柜中的设备,使其保持在工作温度范围 内,而不是冷却机柜外面的空气。密闭机柜会阻碍冷空气自由流动,积聚成热区,因此 要求某些明智的设计来克服这个问题。通常采用热过道和冷过道的概念。机柜的相邻舱 配置设备,其面向位于之间过道的冷空气出口。然后设备风扇

12、把冷空气吹出机架。这作 为热空气吹到背面,然后在整个流程中形成对流,从而形成冷热过道交替其效果取决 于影响空气流动的特定设备。开放机架可以帮助空气流动,因为风扇托盘可以强制空气 流通。在理想情况下,任何HVAC系统还应创造略微正向的压力,帮助减少尘土和其 他杂质进入房间。电力任何数据中心都要求充足的市电分配。确切的电力要求取决于大量的因素,而不只 是安装的网络设备的耗电量。必需考虑照明oHVAC设施可能会带来明显的负荷。即使 处于备用状态下,UPS仍会产生负荷。数据中心内部的弹性水平也有影响。简单地说,作为备份提供的设备越多不管是网络设备还是备用HVAC和照明),要求的电力会越多, 运行成本也

13、就越高。在设计配电系统时,为每个机柜提供两条馈电并不少见。这可能会来自不同的配电 板,甚至来自能源公司不同的配电设施。还应提供多个通用的电源插座,以满足偶尔使用的电动工具或真空吸尘器。这些插 座应清楚地贴上标签,不能用来为机架安装的设备供电。不注意而断开连接的风险非常 高,是不能接受的。火灾检测及抑制尽管消防机构很少要求,但在安放贵重设备的地方最好使用没有腐蚀性的气体抑制 系统。在使用比较传统的喷淋系统时,最好使用干管系统,其中POC燃烧产物)检测器 必需准备好填装管道,另外在热量积聚到一定程度时单独的喷淋头要突然喷水。这可以 很好地防止系统意外泄漏,进而导致发生水灾。如果安装湿管系统,至少应

14、该考虑喷头 周围的线箱。总结在设计数据中心时,明确要求进行认真设计。尽管可能会实现几乎整体网络可用性, 但其所要支付的价格会非常高。为达到可以接受的可用性,从一开始就管理客户的预期 至关重要。而最终要问的问题是:“您的数据到底有多宝贵?”数据中心设施的设计策略摘要Cisco企业数据中心网络体系结构是Cisco Systems公司为满足IT环境的业务需求提供灵活支持 而设计的一种集成化和具有适用性的网络体系结构,它在很大程度上依靠基础物理设施来提供保证IT 环境完美、可靠运行的电源设备、冷却设备、物理机架、布线、物理安全和防火措施。本白皮书讲述了支 持新兴的虚拟运算环境的各项设施的设计策略。简介

15、数据中心的管理员们如今更趋向于考虑如何让IT更好地为商业策略服务、提高运营效率和为持续发展提 供技术平台这些问题。Cisco企业数据中心网络体系结构是一种 集成化和具有适用性 的网络体系结构, 它在支持新兴的面向服务的架构、基础设施虚拟化以及按需计算的同时,也支持IT组织对(数据)整 合、业务持续性和安全的直接需求。这种体系结构让IT管理者可以配备对其目前商业目标提供最佳支持 的技术,并且可以高效地引入未来的服务和应用。Cisco企业数据中心网络体系结构的关键部分之一是让IT环境得以运转的物理设施一一电源设备、冷却 设备、物理支架、布线、物理安全和防火措施。业界的一些企业,包括APC,用术语“

16、网络关键物理基础 设施”(NCPI)来概括这套设施:-电源设备 供电基础设施包括楼宇电力供应入口、主配电设备、发电机(组)、不间断电源(UPS) 供应系统和电池、过电压保护、变压器、配电盘,以及断路器。-冷却设备数据中心的散热系统,包括机房专用空调机组(CRAC)及其相关子系统(制冷装置、 冷却塔、冷凝器、风道(ductwork)、泵组、管道系统(piping)以及机架级或行级制冷设备或空气分 配设备。-布线数据线缆用不同的材料和连接器来优化系统性能和灵活性,而系统管理则为长距离通信保持这 种优化。关于电源线,在本白皮书中也有说明。-机架和物理结构一一这些要素中最重要的是放置IT设备的机架结构

17、、房间的物理要素(如:吊顶和 活动地板),以及布线通道。-管理系统要让系统可靠地运行,对所有物理组件进行监控是很重要的。管理系统包括各种系统,如: 楼宇管理系统、网络管理系统、网元管理器以及其他监控软件和硬件。-接地这包括普通接地网络和保护数据中心设备不被静电放电损坏的接地设备。-物理安全和防火措施这里所说的子系统是指室内和机架级的物理安全设备以及火灾隐患检测用E除 系统。如果按照传统方法将以上要素单独落实,得到的将是一个复杂而且无法估量的系统,其组件并不能协同 工作。对这些组件的管理工作也变得冗杂,因为必须将各种不同的管理系统拼凑到一起来,即使这样可能 都无法为可靠关键业务操作提供必需的完全

18、监控。然而,如果这些要素被整合到一个由全局系统管理系统支持的完善的端对端系统中,该系统将会提供支持 Cisco企业数据中心网络体系结构所需的必要基础设施。数据中心的供电问题和不间断电源(UPS)问题如今的IT系统出现了一些在三十年前研发现代数据中心供电原理时无法预见到的新供电问题。专家提出 了五个解决目前供电系统问题的基本要求,供电系统应该:1. 是一个模块化的、能方便发展并适应不断变化的供电需求的供电系统。系统需求很难预测,而且大多 数系统都过于庞大。研究表明,现在的标准数据中心利用率还不到其基础设施实际能力的50%。产业前 景预测也显示了不断攀升且不可预计的功率密度需求,而新的数据中心必须

19、符合至少未来10年内的需求。2. 采用能减少或简化规划和定制设计的一种预先设计组件的标准供电解决方案,以加快工作进度。传统 供电系统的规划和独立设计需要6至12个月,与大多数企业的规划期比起来过于漫长。设计耗费时间、 价格昂贵且是后续质量问题的根源之一,这让后期安装的扩展和修改变得非常困难。3. 是一个具有防错功能且能减少单点故障以增加系统可用性的供电系统。根据Uptime Institute提供的 信息,40%的宕机时间都是人为故障造成的。另外,传统 不间断电源供应 系统使IT设备负载过高, 以至于需要使用更多断路器来模拟单点故障。4. 是一个提供机架级和电源级供电监控的管理系统。服务器间的

20、动态功率变化以及机架级的持续变化、 调整的负载,会引起意外的超负荷和机架过热情况。随着每个机架的功率密度不断提高,这些问题只会越 来越严重。5. 是一个使用标准化、可热交换和用户耐用的模块以减少平均修复时间(MTTR)的供电系统。在传 统系统中,没有随时可用的备用部件,诊断和修复都需要进入系统操作。这些系统太复杂了,所以技术服 务人员和维护人员往往会在操作和维护系统时犯错或中断放弃。为满足以上要求,必须对现在的设计思路进行一些改进。供电设备的技术和设计,以及如何测定数据中心 的供电情况,都需要改进。对供电系统组件的集成工作应从目前惯用的独立系统设计的设计思路转变为采 用预先设计甚至预先生产的解

21、决方案。UPS系统设计配置从楼宇的市电电源配电给数据中心的临界载荷是UPS系统设计的五种配置之一。为特定应用选择哪一种 配置,取决于可用性需求、风险承受能力、数据中心负载类型、预算以及现有供电基础设施。很多因素都 会影响系统的可用性,包括人为故障、组件可靠性、维护安排和修复时间。在很大程度上来说,因素对整 个系统可用性的影响,取决于该系统选择哪种配置。表1列出了五种配置以及其相应的可用性排名、“等 级”和成本。表1. UPS配置可用性与成本UPS配置描述可用性排名等级*每套机架所需费用(US$)容量(N)单一 UPS模块或一组并联UPS模块1 =最低等级I13,500 至 18,000 美元串

22、联冗余正常情况下由一个主要的UPS模块为负载供电;一个辅 助的(“独立”)UPS为主UPS模块的静态旁路供电2等级II18,000 至 24,000美元并联冗余(N+1)多个并联的容量相同的UPS模块共享一条输出总线3分布式冗余三个或多个具有独立输入和4 输出电路的UPS模块等级III24,000 至 30,000美元双总线系统两条完全独立的供电线路,每5 =最高等级IV36,000 至 42,000美元(2N, 2N+1)条都可以独立支持负载* “等级”根据由Uptime Institute ( )定义的特定目标来划分系统可用性。计算数据中心的功率需求除了选择UPS配置方案,计算数据中心的电

23、力需求也是必要的。这就需要了解制冷系统、UPS系统和IT 负载所需的电量。虽然这些元素的功率需求可能实际上相差很多,但是如果已经确定了已规划IT负载的 功率需求,就可以准确估计出这些元素的功率需求。除了估计电力线路的容量,这种计算还可以用于估计 备用发电机系统的功率输出容量。表2是一张数据中心功率需求的合理估算的数据表。一旦确定了电力线路的容量大小,就可以在有资质的 设备系统提供商(如果是大型数据中心,则是咨询工程师)的帮助下,开始规划工作。表2.数据中心功率需求数据表项目所需数据计算合计(kW)功率需求电力临界载荷一来自 APC网站的估算 计算器值对于估算计算器中没有列出的设 备,临界载荷一

24、铭 牌未来的负载由于临界载荷变每个IT设备的额定功率合计VA值(包括消防、安全和监控系统)每个预期IT设备的铭牌VA值稳定状态临界载荷的总(计算器总VA值x 0.67)/1000(合计 VA 值 x 0.67)/1000(未来设备的累计VA额定值)x0.67/1000#1 #2 #3 _kW_kW_kW化导致的峰值功率下降UPS功率损耗和功率下降值(#1 + #2 + #3 ) x 1.05#4kW电池充电照明设施实际负载+未来负载与数据中心有关的地板总面积(#1 + #2 + #3 ) x 0.320.002 乂地板面积(平方英尺)或0.0215 乂地板面积(平方米)#5#6 kW_kW用于

25、满足电源需求的总功率上述总和#4 、 #5 和 #6 的#4 + #5 + #6#7kW功率需求一制冷用于满足制冷需求的总功率上面#7中的总和对于制冷机系统#7 x 0.7对于DX系统#7 x 1.0#8kW总功率需求用于满足电源和制冷需求的总功上面#7和#8中的总#7 + #8#9kW估算电力线路容量上面#9中的总和#9 x 1.25#10kW交流电压#11kW#10中的总和以及#11中的交流电压(#10 x 1000 ) / (#11 x 1.73)安培满足NEC和其他规范组织的需线路入口处提供的三相交流电压需要从供电公司获取的电力容量(以安培计)估算备用发电机容量(如果可用)的临界载荷的

26、制冷负载上面#7中的总和#7 x 1.3*上面#8中的总和#8 x 1.5上面#12和#13中的总和#12 + #13需要备用发电机需要备用发电机所需发电机的容#11#11kWkWkW* 1.3变量适用于使用功率因子完全修正后的UPS。如果使用带有输入谐波滤波器的传统双转换UPS, 则必须乘以3.0。数据中心的冷却自1965年以来,数据中心的冷却设施设计只有过很少的改动。这使得与冷却有关的问题日渐突显,尤其 是在高密度计算出现以后。目前的冷却系统都必须符合表3中列出的五种关键要求。表3.冷却系统的五种关键要求要求描述可扩展性和适应性标准化简单化智能化管理冷却系统的需求很难预测,并且,为了满足未

27、来的需要,冷却系统体积普遍较大, 因为很难在现有运行空间中加强冷却能力。设备负载常常在不知道冷却系统是否 受到影响的情况下悄然改变。客户定制设计是一项费时、高成本的工作,并且是后续质量问题的主要根源之一, 因为典型的安装工作会涉及到一大批供货商。系统的规划和特别设计需要6至 12个月时间,跟大多数企业的规划期相比,这个时间过于漫长。而从特别设 计的系统中获得的经验又很难应用到其他系统,因为特别的解决方案会出现特别 的问题。复杂的冷却系统因为人为故障而发生宕机的可能性要高得多,尤其是在修复工作 复杂而且费时的情况下。此外,在处理定制的冷却解决方案时要规划和校验冗余 也比较困难。机架的上下温差可能

28、高达18F (10C)这会给单个IT设备带来意外的压力, 致使设备过早损坏。传统冷却管理系统报告的数据通常与实际的故障征兆关系甚微,很少会提供对错 误诊断有帮助的信息。其冷却性能数据通常不是统计于单个的CRAC单元,因 此无法深入了解系统的整体性能。同供电系统一样,要解决冷却系统的问题,需要对现在的设计思路进行一些改进。这包括冷却设备技术上 和设计上的改进,以及如何测定数据中心的冷却要求。冷却系统组件特别是空气分配和返回系统一一 的标准化和集成化将极大地提升数据中心的可用性。适度冷却与精确冷却当今的技术室需要精密、稳定的环境,以便高敏感度的电子设备达到最佳运行状态。IT设备会产生不寻 常的的集

29、中热负荷,同时,其又对温度和湿度的变化非常敏感。标准空气调节系统并不适合数据中心使用, 会造成系统关闭和组件故障。设计条件应该在72 75F (22 24C)之间,相对湿度35 50%。不利的环境条件极具破坏性,温度 的快速波动也会对IT设备造成不良影响。之所以硬设备不处理数据也要一直通电,这是原因之一。精确 空气调节系统用于长期将温度变化保持在1F (0.56C)之内,湿度变化保持在3 5%之内。而普通的“适 度冷却”系统,则用于在夏季95F (35C)和湿度48%的外界条件下,使室内保持80F (27C)的温度 和50%的湿度。数据中心环境若维护不善,会对数据的处理和存储操作造成负面影响:

30、-高温或低温高温、低温或快速变化的温度可能使数据处理崩溃并造成整个系统关闭。温度变化可能 改变电子芯片和其他板卡组件的电子、物理特性,造成误操作或故障。这些问题可能只是暂时出现,也可 能持续数日。不过即使是暂时出现的问题,也可能难于检测和修复。-高湿度一一高湿度可能会造成磁带和表面变质、磁头损坏、机架结露、腐蚀、纸张处理问题、造成组 件和板卡故障的金银 脱离 等问题。-低湿度低湿度在很大程度上增加了静电放电的可能性,这会破坏数据并损坏硬件。精确空调系统的设计是为了进行精确的温度和湿度控制。精确空调系统具有方便的服务、系统灵活性和冗 余性,可保证数据中心常年24小时正常运行。计算数据中心的冷却需

31、求估算精确冷却系统的冷却容量需要了解IT设备和数据中心里其他热源的发热量。发热率的常用度量单位 包括BTU (英国热量单位)/小时、吨/天和瓦特。不同度量单位的混用给用户和规则制定者造成了很 多不必要的混淆。令人欣慰的是,全球范围内的标准化组织都倾向于使用统一的标准单位:瓦特(W)。BTU 和吨(指冰的冷却能力)这两个古老的术语将逐渐退出历史舞台。IT设备通过数据线传输的能量可以忽略不计。因此,交流电源干线所消耗的能量基本上都会转换为热量。(PoE设备与远程终端的数据传送可能会消耗多达30%的能量,但是本白皮书为简化问题,假设所有 能量都消耗在本地设备上。)这样一来,IT设备的发热量就可以简单

32、地等同于该设备的电力消耗量(均 以瓦特为单位)。更简单地说,系统总发热量(即冷却需求总量)即为各组件发热量的总和,包括IT设 备和其他项目,如UPS、配电系统、空调设备、照明设施以及人员。不过,这些项目的发热率可以通过 简单的标准化规则轻松测算出来。UPS和配电系统的发热量由两部分组成:固定的损耗值和与运行功率成正比的损耗值。对于不同品牌和型 号的设备,它们的这两部分热量损耗是十分一致的,因此可以比较准确地估计它们的发热量。照明设施和 人员所产生的热量也可以用标准值很快估算出来。需要用户指定的变量,只有少数极易获取的数值,如地 板面积和电力系统的额定功率等。虽然空调设备的风扇和压缩机会产生巨大

33、的热量,但是这些热量都被排放到室外,不会增加数据中心内部 的热负荷。然而,这些不可避免的能量损失会降低空调系统的效率,如果空调系统比较庞大,则这部分损 失在计算时也应加以考虑。可以根据数据中心中各项设备的发热量来进行详细的热量分析,不过利用简单规则而进行快速估算的结果 也是在复杂分析结果的允许误差范围之内。这种快速估算法的优势还在于,不具备专业知识或未经过专业 培训的任何人都可胜任这一工作。根据表4中的数据,可以迅速可靠地确定数据中心的总的热负荷。如果 数据中心的墙壁或屋顶受到强烈的日照,或者还有其他的环境热量释放源,则应由HVAC咨询师来评估 这些热源如何影响整个热量需求。表4,数据中心散热

34、量计算数据表项目所需数据散热量计算散热量分类汇总IT设备IT设备总负载(所有IT设备电源输入功率之和)等于IT设备总负载功率(瓦特)W带电池的UPS供电系统额定功率(UPS系统的额定功率,不包括冗余模块)(0.04弗源系统额定值)+(0.06 x I设备总负载功率)(0.02 Xfe源系统额定值)+配电系统供电系统额定功率(0.02 x I设备总负载功率)照明设施地板面积(单位:平方英尺或平方米,换算为瓦特)2.0 x地板面积(平方英尺),或21.53泄板面积(平方米)人员数据中心最大人员数,换算为瓦特100 x最大人员数合计WWWWW大型节点环境的制冷随着高密度服务器(Blade serve

35、r)技术的采用,空气分配和冷却能力方面又出现了新问题。因为高密度服 务器将电源和冷却需求集中在一个小型因子中,数据中心设施面临着服务器集群提出的新问题。表5提 出了对这类环境进行制冷的五种建议方法。表5.大型节点环境制冷方法方法描述分散负载设备室的供电和冷却能力达到最大设备数以下的平均值,并且通过拆分多个机柜中设备 的方法来分散机柜上那些负载超过设计平均值的设备。运用规则借用闲置设备室的供电和冷却能力达到最大设备数以下的平均值,并且运用规则使高密度机柜能冷却能力够借用周围机柜的闲置冷却能力。补充制冷设备室的供电和冷却能力达到最大设备数以下的平均值,并且根据需要使用补充的冷却 设备去冷却密度超过

36、设计平均值的机柜。特定高密度区域设备室的供电和冷却能力达到最大设备数以下的平均值,在具有高冷却能力的房间内划 出一块特殊限制区域,只把高密度机柜安放在那里。全局制冷设备室中的每个机柜都具有满足最大机柜密度的供电和冷却能力。空气分配系统配置 在设计数据中心的冷却系统时,其目标是创建一个从冷空气源头到服务器通风口之间的洁净通道。根据性 能、成本和实施难度不同,有九种基本方法可以提供IT设备的进出空气流。而空气的供应和返回都有三 种基本方法来完成CRAC装置和负载之间的空气输送:(1)洪灌方式,(2)局部管道方式,(3) 全管道方式。表6图解了九种可能的组合方式。APC第55号白皮书,“关键设备的空

37、调结构选择方案” 描述了这九种空气配送方法及其各自的优点。表6.冷却系统类型局部管道方式回风全管道方式回风洪灌方式回风小型局域网机房(功耗低于一般用途:适合解决高热机架问题:洪灌40kW ):可冷却功耗最高为3kW的机架呵冷却功耗最高为8kW的机架方式送风可冷却功耗最高为3kW的机架不需要活动地板不需要活动地板安装简单成本低/安装简单呵提高CRAC装置的效率成本低局部活动地板环境活动地板环境活动地板环境管道方式硬地板环境硬地板环境硬地板环境送一般用途:一般用途:适合解决高热机架问题:风可冷却功耗最高为3kW的机架可冷却功耗最高为5kW的机架呵冷却功耗最高为8kW的机架高性能/高效率呵改型(视厂

38、商而定)全管活动地板环境道方式硬地板环境送一般用途:一般用途、大型机:适合解决高热机架问题:风有垂直气流的机柜/大型机有垂直气流的机柜/大型机呵冷却功耗高达15kW的机架适合活动地板静压室环境适合活动地板静压室环境需要专门安装使用高密度服务器所致冷却问题的十种最佳解决办法一旦冷却系统设计安装完成,为保证系统的高性能,进行后续检查工作是很重要的。更重要的是,要维护 从服务器排出的热空气到CRAC装置的回流空气管道之间的洁净通道。很多因素都会降低现有冷却系统 的运作效率和功率密度能力。表7列出了十种最佳解决方法,按执行方式由简到难、成本由低到高的顺序 排列。表7,高密度服务器部署所致冷却问题的十种

39、最佳解决办法方法描述进行“健康检查”检查总的冷却能力,确保数据中心的IT设备对冷却的需要没有超过总的冷却能力。检查所有风扇和报警装置是否运行正常。确保过滤器的清洁状态。检查冷却器和/或外部冷凝器、泵送系统和初级冷却回路的状况。检查数据中心信道中重要位置的温度。记录每套机架底部、中部和顶部的空气入口处的温度,并与IT设备生产商的推荐值进行比较。检查可能影响冷却性能的机架间隙(没装挡板的闲置机架空间、没装挡板的空刀片插槽、未封闭的电缆开口)或多余的缆线。启动冷却系统维护制度应该实行定期维护制度,以达到冷却设备生产商推荐的指导方针。在机架中安装挡板,实行电缆管理制机架内未被利用的纵向空间让设备底部流

40、出的热空气可以通过快捷方式回到空气入口处,致使设备不必要地升温。清除地下障碍物并封闭地板间隙地下障碍物,如网络和电缆,会阻碍空气流动并削弱对机架的冷气供应。将高密度机架分开如果高密度机架紧密聚集在一起,则大多数冷却系统的冷却能力都不够用。采用热信道/冷信道布置如果机架空气入口都朝向一个方向,则上一排机架排出的热空气在通道中将和供应空气或室内空气相混合,然后进入到下一排机架的前面。将CRAC设备与热通道对齐当CRAC设备与热通道对齐时,可达到最佳冷却效率。在这种情况下,热空气可以直接流入回风管道,而很少有机会与冷空气流混合。管理地板通风孔机架气流和机架布局是影响冷却性能的关键因素。送风和回风通风

41、孔的位置如果不当,会使得热信道/冷信道设计的种种优点丧失殆尽。安装气流辅助装置在有足够平均冷却能力,但却存在高密度机架造成的热点的场合,可以通过采用有风扇辅助的设备来改善机架内的气流,并可使每一机架的冷却能力提高到3kW安装自给高密度设备在功率密度接近或超过每机架8kW的场合,需要将冷空气直接供应到机架的每一层(而不是从顶部或底部),以便使从上到下的温度保持一致。以上方法可以使得数据中心能够在其峰值效率运行,以保证其可以胜任对商务过程的支持,并预防未来可 能发生的问题。前八种方法可帮助典型数据中心在其原始设计的界限内正常运行。最后两条是对如何扩 充典型数据中心冷却密度设计界限的建议(无需进行较

42、大的重新设计和建造),方法是通过安装“自给”冷 却方案,以便满足高密度服务器应用场合的需要。囹 I.鞭十垫中仰跋扣打冶俨J数据中心的布线问题布线拓扑结构数据中心拥有大量的设备,网络结构复杂,所以必须要有布线 拓扑结构。由于有在1991年首次发布的ANSI/TIA/EIA-568 标准,网络设计师对结构化布线很熟悉。TIA (电信行业协 会)不久前又通过了一项名为TIA-942 “数据中心的电信基础 设施标准”的标准。该标准用图1所示的拓扑结构来描述数据 中心。下面列出这种拓扑结构中用到的基本要素。水平布线和主干布线如图1所示,有两种布线类型:主干布线和水平布线。主干 布线连接总配线区(MDA)

43、和水平布线区(HDA) 包括电信室和引入室(ER)。主干布线由主干电缆、主交叉连接、水平交叉连接、机械终端、接插线或 用于主干对主干交叉连接的跳线组成。水平布线将设备连接到MDA或HAD中的连接。水平布线由水平 电缆、机械终端和接插线/跳线组成,还可以包括一个区域插座。ER或MDA中的交叉连接接入电缆和数据中心电缆以某种形式在交叉连接处汇合。理想状态下,它们都接入同一个实际上成为“分界 线”的交叉连接数组(lineup)。将连接到所有接入提供商的这些“分界线”集中摆放,通常称为“ meet-me room”。不过,部分接入提供商更愿意将电缆接入自己的机架。分界交叉连接通常摆放在引入室,如果数

44、据中心没有引入室,则摆放在总配线区。总配线区(MDA)中的主交叉连接根据TIA-942标准,每个数据中心都必须有一个总配线区,总配线区应配备核心以太网交换机与路由器、 可能的核心存储局域网络(SAN)交换设备、PBX设备、网络管理设备以及接入设备。总配线区 还包括主交叉连接(MC),用于在主干布线和核心交换机与路由器之间建立连接。因为主干布线通常采 用光纤,所以主交叉连接必须设计为可处理光缆、接插线和配线架。根据安全、外观和电缆管理的不 同需要,交叉连接 配线架和网络设备被安放在机柜内或机架上。电信室、HDA或MDA中的水平交叉连接水平交叉连接(HC)是一个大型的接插区域,水平电缆从这里被分配

45、到各个设备。一般来说,水平交叉 连接的主要任务是提供一个将水平电缆连接到接入交换机端口的装置。TIA-942标准还给出了一种光缆的 集中布线方法的指导,在这种方法中,水平电缆被直接连接到多光纤主干电缆,而不是交换机。区域分配区(ZDA)中的区域插座或整合点 通常,将一组水平电缆外接到公用终接点比较有利。采用新设备后,水平电缆也可以通过区域插座连接到 网络上。与固定到设备机柜的设备插座相比,区域 布线 提供更大的灵活性。区域分配区用于未来使用的 “ precable ”区域,或简化频繁的重配置。区域分配区中的插座很多数据中心的设备分配区的大部分都被服务器机柜中的服务器占据。水平电缆通常外接到机柜

46、,连接到 配线架上,配线架即被称为“插座”或“互连”,如图1所示。TIA-942标准认可图1中拓扑结构的某些变化形式。例如,小型企业数据中心可以将接入室、水平布线、 总配线区和电信室合并为计算机室内的一个区域。另外,大型互联网数据中心可以拥有两个接入室(保持 冗余度)或者兼容多种接入服务商,也可以将总配线区和水平布线区分别划入不同的房间或笼内以增加安 全度。具体的拓扑结构依数据中心规模、可扩展性、可靠性等因素而定。电缆介质对于现在的数据中心LAN和SAN环境,“交换机到服务器”连接要求布线具有高性能和灵活性,并 且具有适应未来高带宽应用的剩余空间(见表8)。千兆位以太网连接具有广泛的支持基础:交换机埠、 网卡、超五类非屏蔽双绞线(Category

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 生活休闲 > 在线阅读


备案号:宁ICP备20000045号-2

经营许可证:宁B2-20210002

宁公网安备 64010402000987号