《系统整合及本地存储方案.doc》由会员分享,可在线阅读,更多相关《系统整合及本地存储方案.doc(50页珍藏版)》请在三一办公上搜索。
1、系统整合及本地存储方案成都中铁信计算机工程有限公司二一年一月目 录第一章 概述- 4 -第二章 需求分析- 5 -第三章 整体方案设计- 6 -3.1 整体思路- 6 -3.2 数据整合方案设计- 7 -3.2.1 PowerVM虚拟技术简介- 7 -3.2.1虚拟技术原理- 10 -3.2.2服务器虚拟化的优势- 11 -3.2.3虚拟化服务的必要性- 12 -3.2.4虚拟化微分区设计- 12 -3.2.5数据整合总体设计- 16 -3.3 应用整合方案设计- 17 -3.3.1应用整合设计原则- 17 -3.3.2刀片式服务器的优势- 19 -3.3.3应用整合总体设计- 22 -3.4
2、 本地存储方案设计- 23 -3.4.1数据备份系统需求分析- 23 -3.4.2产品选型- 24 -3.4.3系统部署- 25 -3.4.4备份策略- 25 -3.5 小型机扩容设计- 26 -3.6 整体拓扑结构设计- 27 -第四章 方案建议配置- 28 -4.1中端配置方案- 28 -4.2高端配置方案- 29 -第五章 主要产品简介- 32 -5.1 POWER595产品简介- 32 -5.1.1产品优势一览表- 32 -5.1.2产品特性- 33 -5.2 POWER570产品简介- 34 -5.2.1产品优势- 34 -5.2.2产品特性- 35 -5.3 DS5100产品介绍-
3、 37 -5.3.1硬件概要- 38 -5.3.2 DS5100特性与优势- 39 -5.3.3 DS5100技术规格- 40 -5.4 备份软件产品介绍- 41 -5.4.1 VERITAS Storage Foundation DR软件- 41 -5.4.2 VERITAS Netbackup备份软件- 47 -第一章 概述在要求日趋严格、竞争不断加剧的市场经济环境中,有效的数据管理对企业的发展和成功起着至关重要的作用。如果能随时随地及时地向您的员工、合作伙伴和客户提供他们所需要的最新信息,将会大大提高企业的整体运营效率,获得更多的洞察和商机,从而在激烈的市场竞争中立于不败之地。随着大量收
4、集和使用信息的有效方法及工具的产生,促使数据量迅猛增长,企业的存储需求相应不断增加。现在很多企业都会拥有多种类型的服务器,分别安装了Linux、AIX和Windows等多种操作系统,从而导致因服务器对存储需求差异较大,不得不维护多套不同接口类型的存储系统:如NAS、iSCSI、SAN等,增加了设备购置及相应的管理成本投入。以下是企业所面临的数据存储挑战:l IT技术日新月异,现有的单一存储系统无法满足未来多样化数据存储的要求,缺乏灵活性;l 要想实现数据在Linux、UNIX和Windows 之间的共享,必须进行文件格式的转换,造成资源耗费;l 无法对非结构化数据(如图片、文件等)进行方便的检
5、索,快速查询到所需数据;l 需要一个能够规避灾害的IT环境,实施灾难备份解决方案,但又不得不面对耗资太高、实施复杂、网络带宽无法满足要求、切换到灾备中心以及回切困难的挑战;l 存在必须满足法规遵从、数据加密、安全备份、知识产权保护及安全信息共享等要求的压力。企业需要的是:l 智能的数据和存储管理功能,以便通过有限的管理资源来应对企业的业务增长;l 为跨多个服务器和存储平台的多种应用程序整合存储系统,并提高资源利用率;l 部署存储和数据管理系统以满足业务需求时,又必须同时降低采购和管理成本。第二章 需求分析根据提供的信息,目前用户的需求主要为:l 现有主要业务应用有7-8个;l 其中1个主要应用
6、建立了硬件级别的HA,部署了1套磁盘阵列用于数据存储;l 现有应用涉及的数据库主要有:Sybase、Oracle、SQL等,后期数据大集中以后,将主要应用Sybase、Oracle这两种数据库;l 系统后期会考虑到其他应用的接入;l 现有1台P550小型机,需按照本次项目建设进行扩容后,作为备份管理服务器;l 现有数据量预估为30T,后期扩大应用后,数据总量可能会达到5060T。用户的预期达到目标:l 数据集中整合到1个硬件平台上;l 应用系统整合到1套硬件平台上;l 建立本地的统一数据存储系统,将各应用的数据进行集中存储管理;l 建立高可用的本地备份系统,保障在灾害情况下,数据能及时恢复。第
7、三章 整体方案设计3.1 整体思路对于本次项目建设需求,从技术层面来看,一个成功的信息系统整合及本地存储备份系统的实施,其成功与否,是看其能否完成系统的建设目标-业务连续性,这一点有需要来自管理层面的指导,其中很重要的技术指标是根据我们的备份策略所得到的RTO、和RPO,我们的技术解决方案就是要达到这样的指标。从本次用户需求可以得出,本次项目的系统整合,需要从根本入手,分阶段的进行部署,首先应进行基于数据迁移的数据整合,其次应进行基于应用级别的整合,最后建立完善的本地存储备份体系,从而达到系统整合的目标。在整个方案设计中我们主要遵循了以下几个思路:l 先进性与成熟技术的集合:在设备选型设计中,
8、我们要考虑采用当今业界的流行技术,同时要选用了在众多关键领域中已经得到充分验证的产品,以保证系统的更高的可靠性和可用性;l 高效管理的管理性,容灾实施以后,对系统的管理越来越重要,IBM所推荐的容灾方案整体的设计思想是利于以后的管理;l 性能价格比:保证充分满足用户的性能的同时,考虑最优的性价比;坚持容灾系统建设投资经济合理性的原则;l 高可用性:在充分考虑到系统的灵活性的同时,要避免任何的单点故障,以保证系统的可靠和数据的安全;l 可扩充性,保证购买的主机和存储在以后有足够的扩充性,起到投资保护的作用,具有可扩展性;l 开放性与标准化:采用标准的技术以保证与其他厂家的产品相兼容;l 考虑现有
9、设备的使用情况,提高产品的利用率;l 既保证性能又保证数据不丢失,同时兼顾应用迁移的解决方案。数据整合思路:基于现有的应用系统数据,考虑移植到统一的硬件平台中,对硬件平台的要求相对较高,解决思路是采用PowerVM虚拟化技术实现数据整合的目标,硬件平台采用2台小型机作为数据库服务器。应用整合思路:从用户的现状分析,结合用户的需求,我们得出,目前整个应用共计8类,其中最重要的应用系统已经采用了HA的硬件冗余设计,并且部署了1套磁盘阵列。后期会考虑扩展一些非主要应用,结合这种情况,我们建议,采用刀片式服务器(Blade Center)进行应用系统的整合。本地存储备份思路:使用SAN架构,部署一套中
10、端的本地存储备份系统,采用备份软件+磁盘阵列+存储的组合,满足本地存储备份的需求。小型机扩容思路:原有小型机为P550,两路CPU1.5Ghz主频、4GB内存、146GB硬盘、单网卡、单电源等,本次需对该台小型机进行扩容升级,因CPU为power5+,故本次扩容主要考虑对内存及硬盘容量进行扩容。3.2 数据整合方案设计3.2.1 PowerVM虚拟技术简介最新的 PowerVM 是在基于 IBM POWER 处理器的硬件平台上提供的具有行业领先水平的虚拟化技术家族。它是 IBM Power System 虚拟化技术全新和统一的品牌(逻辑分区,微分区,Hypervisor,虚拟 I/O 服务器,
11、APV,PowerVM Lx86,Live Partition Mobility)。大家对 2004 年即出现的 APV 应该记忆犹新,随着 Power6 的推出和 i 和 p 系列的合并,APV 也发展成为 PowerVM。 PowerVM 有三个版本,分别是 PowerVM Express Edition,PowerVM Standard Edition,PowerVM Enterprise Edition。对于 Power6,PowerVM 新支持 Multiple Shared Processor Pools 功能和 Live Partition Mobility 功能。下面就其主要部
12、分介绍一下,以方便后面设计部分的阅读。微分区(Micro-Partitioning)微分区改变了 POWER 系列服务器的整个规划结构。实施 APV 后,可以在资源分配方面提供更大的灵活性和细分能力。添加处理器的部分处理能力而不是整个处理器,还能够帮助客户更好地利用服务器。使用工作负载管理器(WLM)和 PLM 有助于更好地优化这些资源。现在,分区要么是专用的处理器分区(按整个处理器的增量来分配处理能力),要么是共享的处理器分区(使用微分区);不会出现两者的组合。使用微分区时,可以将一组处理器分配到共享处理器池(SPP),然后使 LPAR 可以(根据在池中获得的容量和优先级)使用这些处理器。此
13、时,服务器上仅有一个 SPP 可用,但多个 LPAR 可以共享这些资源。虚拟 I/O 服务器 APV 功能部件的关键组件之一是虚拟 I/O 服务器。该设施可以提供 I/O 虚拟化和网络资源虚拟化。虚拟 I/O 服务器是一个分区,用于提供 I/O 资源共享,还用于为一个或多个客户机 LPAR 托管虚拟盘、光存储和 SEA。虚拟 LAN虚拟 LAN 不是 APV 的一部分,它只需要 POWER5 系统上有 AIX 5L V5.3 或支持的 Linux 版本。HMC 用于定义虚拟 LAN 设备,从而使 LPAR 通过内存而非以太网卡连接。一个 LPAR 可支持多达 256 个虚拟 LAN,每个虚拟
14、LAN 的传输速度都在 1 到 3 Gbps 之间。在这里,性能是值得关注的一点。如果在分区之间使用物理 LAN 连接,则适配器以 LAN 的传输速度运行,而不是以通常快许多的内存传输速度运行。由于适配器能够自行处理其任务,所以需要的处理器开销非常少。如果使用 VLAN,数据传输交换速度会更快,因为两个分区之间基本上是内存传送。但是,这种传输需要处理器的参与。这两种传输方式的速度可能各有不同,视具体情况而定。但总的来说,VLAN 比物理互连要快。共享以太网适配器 SEA 是一种与 APV 一起提供的 POWER5 中的新服务,它支持多个分区共享虚拟 I/O 服务器上的物理适配器。它实际上起着第
15、 2 层网桥的作用,在客户机中的虚拟以太网适配器和主机服务器中的实际适配器之间路由数据。网络适配器共享是通过虚拟 I/O 服务器上配置的 SEA 实现的。通过虚拟 I/O 服务器,数据或者在实际网络中流动,或者经由 Hypervisor 流向实际分区。虚拟 SCSI在 I/O 方面,使用虚拟 SCSI 服务器共享磁盘和适配器。虚拟 SCSI 服务器运行在虚拟 I/O 服务器上,它能够支持您在一个物理磁盘上分配多个逻辑卷(LV)。然后,您可以将每个 LV 导出到不同的客户机 LPAR。客户机 LPAR 会将这些 LV 视为常规 SCSI 磁盘,而它们实际上可能是通过光纤连接到服务器。例如,您可以
16、使用一个 146GB 磁盘驱动器,将它划分为 3 个 45 Gb LV 并将它们用作 3 个不同 LPAR 的引导磁盘。总的来说,这些概念相互独立。为便于后面阅读和实践,我们主要弄清 2 个大的概念:微分区和 VIO server 即可,以下是我个人的白话理解:微分区 可以理解成可以小于 1 个 CPU 并和其他分区充分共享 CPU 的 LPAR,内存的使用和 LPAR 没有什么不同。它可以使用 VIO server 共享出来的网卡和存储,也可以不用。VIO server 是一个特殊的分区,负责共享 I/O( 网卡和存储 ) 供其他分区使用。不仅仅是微分区,实际也可以供一般 LPAR 使用,只
17、是考虑到性能的原因,一般不这么做。其中网卡通过实际网卡通过 SEA 勾连转换为共享虚拟网卡,通过 虚拟 LAN 和各个分区连通,同时使得各个分区可以通过共享虚拟网卡的桥接与外界联系。共享存储是通过设置虚拟 SCSI 卡 vhost,可以把 VIO server 的 lv 或磁盘,(新 powerVM 还可以包括文件)映射给 vhost,实际 vhost 对应到其他分区就是一块 SCSI卡,可以供其他分区使用。数据整合是一个非常困难的问题,但是有一种相对新颖的信息管理方法可以帮助人们解决这个问题,即数据虚拟化。数据虚拟化,也被称为“将信息作为服务”(Information-as-a-Servic
18、e)和“将数据作为服务”(Data-as-a-Service),能够通过把数据从应用程序中分离出来并存储到中间件层来减少数据整合上的障碍。 “Data-as-a-Service的重要性越来越大,因为如果你有10000个数据库,这10000个数据库中唯一正确的数据又在哪里?应用程序知道吗?答案大概是否定的。如果应用程序与虚拟化层互相作用,这就表明你的数据一致你有高质量的数据可供程序使用。” 不过说到要让应用程序在中间件层与虚拟化数据完全连续地相互作用并不容易,这要求企业在数据质量和程序性能上多费心思。 典型的企业里运作多种DBMSs,信息常常因为复制和extract transform and
19、load(ETL)等操作而产生重复。因此,要把正确的数据放入中间件层中,则需要在中间件层中建立确保数据质量的功能性。 “数据质量是一个很大的因素,因为你需要有一致的数值,”他说,“从传统意义上来讲,数据质量更加是一项离线的工作,或直接创建进应用程序里。但是现在我们要把它创建到中间件层中。中间件层将会进行数据质量分析的工作。 3.2.1虚拟技术原理所有的IT设备,不管是PC、服务器还是存储,都有一个共同点:它们被设计用来完成一组特定的指令。这些指令组成一个指令集。对于虚拟技术而言,“虚拟”实际上就是指的虚拟这些指令集。虚拟机有许多不同的类型,但是它们有一个共同的主题就是模拟一个指令集的概念。每个
20、虚拟机都有一个用户可以访问的指令集。虚拟机把这些虚拟指令“映射”到计算机的实际指令集。硬分区、软分区、逻辑分区、Solaris Container、VMware、Xen、微软Virtual Server2005这些虚拟技术都是运用的这个原理,只是虚拟指令集所处的层次位置不同。实际应用上,除了金融业、制造业、政府部门和科研领域的用户,许多用户对服务器整合、虚拟技术并不十分清晰。在当前国内服务器市场,虚拟化的技术趋势与实际应用还存在较大差距。以下是对虚拟化技术应用较好的行业的简要分析。1、银行类用户在虚拟化技术应用上最为积极。银行是国内最早使用大型主机和小型机的行业,在应用上得到的技术支持最多,对
21、于虚拟技术较为熟悉,期待程度和应用评价也最高。特点在于对成本敏感度低,对虚拟技术的安全性和使用效率关注度高。2、政府部门类用户对虚拟技术的应用虽然不如银行用户那样熟悉,但通过技术人员的努力,仍能以最低的TCO(Total Cost of Ownership, 总体拥有成本 )获得最多的计算性能。他们的特点是对预算较敏感,对系统效率提高感兴趣。3、科研单位随着数据计算量的加大,需要使用虚拟技术来提高系统使用效率。这类用户对预算敏感度高,对虚拟技术本身倒并不是特别了解。4、计算中心如国家气象中心,大多采用高性能计算机集群,对计算性能和系统稳定性要求很高,对系统管理控制方面要求较多,对预算敏感度低。
22、总体而言,与北美和欧洲相对广泛的虚拟技术应用状况相比,国内在虚拟技术应用水平上还存在较大差距。3.2.2服务器虚拟化的优势1、维护运行在早期操作系统上的业务应用对于某些早期操作系统,发行厂商已经停止了系统的维护,不再支持新的硬件平台,而重写运行在这些系统上的业务应用又不现实。为此,可以将这些系统迁移到新硬件平台上运行的虚拟系统上,实现业务的延续。2、提高服务器的利用率虚拟服务器环境一书指出:“多数用户承认,系统平均利用率只有25%30%之间” 。这对服务器硬件资源是一种浪费。将多种低消耗的业务利用整合到一台服务器上,可以充分发挥服务器的性能,从而提高整个系统的整体利用效率。3、动态资源调配,提
23、升业务应用整体的运行质量可在一台计算机内部的虚拟机之间或是集群系统的各个业务之间进行动态的的资源调配,进而提升业务应用的整体运行质量。在实际应用上,这一优势更偏重于集群系统。4、提供相互隔离的,安全的应用执行环境虚拟系统下的各个子系统相互独立,即使一个子系统遭受攻击而崩溃也不会对其他系统造成影响。而且在使用备份机制后,子系统可被快速的恢复。5、提供软件调试环境,进行软件测试,保证软件质量采用虚拟技术后,用户可以在一台计算机上模拟多个系统,多种不同操作系统,使调试环境搭建简单易行,大大提高工作效率,降低测试成本。3.2.3虚拟化服务的必要性实际上从上世纪以来,人们一直在追求系统的兼容、整合和、集
24、成能力,但屡屡由于计算机、操作系统、通信协议和接口不一致,即使投入大量的人力物力也不能做好或做得很好。虚拟化技术在很大程度上解决了这一问题或有助于这一(异构化)问题的解决。在一台主机或服务器上同时可以安装几台虚拟机,而每机可以安装不同的操作系统,因此就可以很容易集成大的系统,同时提高了系统的集成度。采用虚拟化技术可以将不同服务器上的应用移动到同一台服务器上,进行服务合并;也可以将整个服务/操作系统组合安装在一台虚拟机上,与其它服务/操作系统组合一起运行,进行服务器合并。可以把多台低效的服务器集中到数量比较少的服务器上(通常压缩比约为1/3.1/10)。又可以适应紧急需要而快速设置一个虚拟机。并
25、且可以大大增强灾难恢复,高可用性。根据需要,甚至在可以把几台虚拟机合并一台虚拟SMP机。即使在工作站台或PC机上采用虚拟机也可以大有可为,比如在一台物理机上可以安装一个以上的操作系统,如一个虚拟机上是Windows,另一个是Linux;一个做个人用,一个做公用;一个进Intemet网,个接内网以满足不同需求。为处理繁重的负载,一些企业往往采用服务器负载均衡的技术,把工作负载分配在许多相同的服务器上。服务被分配个虚拟的IP地址,客户机使用虚拟IP地址访问服务。实际服务器位于负载均衡器后端,在负载比较轻时,会关闭个服务器,反之,在负载增加时也可以开启个(些)额外服务器来满足需求,从而明显地降低IT
26、运行成本。虚拟化服务可以将正在运行的虚拟机磁盘文件从一个存储位置实时迁移到另一个存储位置,而无需停机。可为虚拟机中运行的应用程序提供易于使用、经济有效的高可用性。当物理服务器发生故障时,受影响的虚拟机将在具有预备用容量的其他生产服务器上自动重启动。如在虚拟机中发生与操作系统相关的故障,会检测到,并在同一台物理服务器上重启动受影响的虚拟机。3.2.4虚拟化微分区设计在做具体设计之前,或者说一个准备实施微分区的服务器来说,至少需要调查了解各个分区系统的以下相关情况,这些都可能影响到微分区的配置和划分,在本章节中,我们已常见的虚拟化设计为例展开描述。l 各个微分区负载应用特点 如 CPU、内存、网络
27、等特别是 I/O 的负载的侧重。l 各个微分区网络需求 包括网段的划分、路由、网络设备的冗余等等在系统上线前的状况和可提供条件,以及运行过程中可能出现的变更。l 各个微分区存储需求 包括存储的大小,性能的要求,以后扩展的需要。微分区的设计 本文由于是初步,具体分区需求不明确而,所以网卡和 HBA 卡设备都由 VIO server 共享出来。实际使用时,对于性能要求较高的微分区,网卡和 HBA 卡可以单独划分给某个分区。1. 分区规划 考虑到本次项目的实际情况,所有应用不超过10个,所以本次只划分了 10 个微分区,但实际可以更多,也可以事后再追加。分区名 名称 ss55aa01 vio ser
28、ver ss55aa11 微分区 1 ss55aa12 微分区 2 ss55aa13 微分区 3 ss55aa14 微分区 4 ss55aa15 微分区 5 ss55aa16 微分区 6 ss55aa17 微分区 7 ss55aa18 微分区 8 ss55aa19 微分区 9 ss55aa20 微分区 10 2. CPU 的设计 这些微分区为分别对应不通的应用系统,所以不太可能所有的分区都同时繁忙,所以做了如下设计:分区名 min desire max v_min v_desire v_max share_mode 权重 ss55aa01 0.30.51124uncapped128ss55aa
29、11 0.10.34124uncapped64ss55aa12 0.10.34124uncapped64ss55aa13 0.10.34124uncapped64ss55aa14 0.10.34124uncapped64ss55aa15 0.10.34124uncapped64ss55aa16 0.10.34124uncapped64ss55aa17 0.10.34124uncapped64ss55aa18 0.10.34124uncapped64ss55aa19 0.10.34124uncapped2ss55aa20 0.10.34124uncapped2权重越高,是当 CPU 不够分配的时
30、候,按此比例来分配,即 2 个学习分区的权重最低,分配的 CPU 会最少。注意,此处 VIO server 的 CPU 也为共享,优先级最高,基于以下原因:l 这是由于该机器为中端/高端小型机,性能较高,对 VIO server 的压力不大;l 此 powerVM 实际为 power5 的 APV,不能实现 power6 的 Multiple Shared Processor Pools 功能 , 设为专有 CPU 后,将不能自动调整实际 CPU 的使用;l 实际使用过程中,如果 CPU 宽裕,对性能有较高要求的时候,建议采用专有的CPU 模式。3. 内存的设计 考虑到实际情况,前 8 个分区
31、为已有应用环境,后 2 个为扩展应用环境,具体调整需了解到实际应用后再修正。分区名mindesiremaxss55aa01512M7681Gss55aa111G3G6Gss55aa121G3G6Gss55aa131G3G6Gss55aa141G3G6Gss55aa151G3G6Gss55aa161G3G6Gss55aa171G3G6Gss55aa181G3G6Gss55aa19128M512M1Gss55aa20128M512M1G4. 存储的设计 这里可以看到,每个微分区的 SCSI 存储卡实际是可以对应 VIO server 上的 profile 里一个虚拟 SCSI 卡,即 VIO Se
32、rver 操作系统里的 vhost。分区名微分区 SCSI ID:2微分区 SCSI ID:3ss55aa11111112ss55aa12121122ss55aa13131132ss55aa14141142ss55aa15151152ss55aa16161162ss55aa17171172ss55aa18181182ss55aa19191192ss55aa20201202考虑到部分分区需要安装数据库,数据库目前包含有Sybase、Oracle等。在此按照前6个分区会安装数据库为例设计:需要安装数据库的前6个分区,临时性的文件较多,故设置 100G 的 tempvg,可以根据今后实际情况加以调整
33、。分区名rootvg1rootvg2datavgtempvgss55aa01139G139Gss55aa1120G20G50G100Gss55aa1220G20G50G100Gss55aa1320G20G50G100Gss55aa1420G20G50G100Gss55aa1520G20G50G100Gss55aa1620G20G50G100Gss55aa1720G20G50Gss55aa1820G20G50Gss55aa1920G20G50Gss55aa2020G20G50G3.2.5数据整合总体设计3.2.5.1硬件平台设计采用两台中端/高端小型机作为数据库服务器,两台数据库之间使用心跳线进
34、行双机冗余设计。在这两台数据库服务器上,利用PowerVM虚拟化技术进行微分区划分,分别对应不通的业务应用,从而达到数据整合的目标。根据业务应用系统的需求,初步考虑刀片服务器为全高式,其主要配置设计为:l CPU:32 路 4.2 GHz POWER6 处理器内核;l 内存:至少64 GB 的 533 MHz DDR2 内存,或者128GB 的 400 MHz DDR2 内存;l 硬盘:支持SAS 硬盘驱动器;l 硬盘容量:300GB*2;l 网络接口:四个双端口千兆以太网;3.2.5.2 PowerVM虚拟化技术设计PowerVM 虚拟化技术POWER Hypervisor动态 LPAR;虚
35、拟 LAN(内存到内存分区间通讯)1PowerVM 标准版(可选)微分区,每个处理器最多 10 个微分区;多个共享处理器池;虚拟 I/O 服务器;共享专用容量;PowerVM Lx86PowerVM 企业版(可选)PowerVM 标准版加上实时分区迁移功能和 Active Memory Sharing随需扩容功能(可选)处理器和/或内存 CUoD开启/关闭处理器和/或内存 CoD试用处理器和/或内存 CoD实用程序 CoD 操作系统AIX V5.3 或更高版本IBM i 5.4 或更高版本SUSE Linux Enterprise Server 10 for POWER (SLES10 SP1
36、) 或更高版本Red Hat Enterprise Linux 4.5 for POWER (RHEL4.5) 或更高版本RHEL5.1 或更高版本 高可用性IBM PowerHA 系列电源要求200 v 到 240 v AC系统规格570 构建模块:6.85英寸(高)(4U) x 19.0 英寸(宽)x 32.4 英寸(深)(174 毫米 x 483 毫米 x 824 毫米);重量:140.0 磅(63.6 千克)3.3 应用整合方案设计3.3.1应用整合设计原则根据项目实际需求,在系统设计原则及选型配置时应以满足当前的应用需求为基础,并具有良好的扩充能力,从实际应用和目前服务器技术发展趋势
37、来看,服务器的选购应参考以下原则:u 低能耗随着服务器性能越来越高,计算环境越来越高密度化,服务器的电源功率也越来越重要。在传统数据中心的设计中,一般都是用2kW3kW的功率为机架进行供电和冷却,然而对于今天的高性能服务器来说,每个机架所消耗的电源功率却是相当惊人的。例如,一台1U机架设计的基于AMD Opteron或Intel Xeon处理器的服务器,大约消耗500W700W的功率;由这样的42台机器安装而成的一个机架功耗将能达到21kW29.4kW。高功耗不仅意味着会耗费更多的电能,同时也会带来数据中心在电源布线、机房通风、空调散热等各方面的巨大压力,大大增加数据中心的运营成本。在一个42
38、U机柜中部署64台刀片式服务器,假设服务器采用了低功耗的技术,每服务器可以节省100W的功耗,一年下来,每台刀片式服务器可以节约876千瓦时的用电量;一个机柜就能节省56000千瓦时,每年仅节省的电费就高达数万元。目前许多企业已经具有企业计算节能意识,节能型服务器产品将成为企业信息化建设的又一趋势。u 高可用服务器涉及用户的关键应用和数据,因此高可用性的概念十分重要。单台服务器的可用性通常需要考虑到关键部件的冗余。采用冗余电源、冗余风扇、ECC内存、磁盘RAID、多网卡等配置可以显著提高服务器的可用性。除此之外,还要考虑服务器整机能够快速部署、快速替换。 除了设备本身的可用性以外,要想进一步提
39、高整个系统的可用性,还要考虑方案是否采用双机热备或集群模式,服务响应是否及时(是否具有7244的服务)等因素。u 高可管理性作为一个关键指标,可管理性直接影响到企业用户使用服务器的方便程度,以及用户的管理成本高低。良好的可管理性主要包括硬盘、内存、电源、处理器等主要部件便于拆装、维护和升级;具有方便的远程管理和监控功能,采用人性化、可视化的管理界面;具有较强的安全保护措施等。服务器的故障主要来自硬盘、电源、风扇等功率部件,若这些部件出现故障而造成停机或是数据丢失,那么这样的服务器的可管理性可以说是非常差的。在正常的情况下,系统必须支持这几类部件有可能出现故障时的隐患提示信号,如硬盘故障隐患提示
40、、电源故障隐患提示等。可以通过管理系统全面监控到这些信息,及时提醒用户,并且可以远程对服务器设备进行操作。 u 可扩展选择服务器时,用户还应考虑系统的可扩展能力,即系统应该留有足够的扩展空间,以便于随业务应用增加对系统进行扩充和升级。很多用户在开始组建网络时,不仅系统业务的发展量很难确定,而且项目投资往往是决策机构首先考虑的问题,又由于用户操作的熟练程度和设备运行的环境不尽人意,很容易过早地将服务器推入疲劳期,使得系统在运行一年半载后,就感到吞吐量与承载能力吃紧,高扩展性意义在于用户可以根据需要随时增加有关部件,在满足系统运行要求的同时,又保护投资。可扩展性主要包括处理器和内存的扩展能力(比如
41、有没有多余的CPU接入槽口,有几个内存条插槽)、存储设备的扩展能力(比如SCSI或IDE卡可支持多少硬盘,这些硬盘接口数量是否满足需求等)以及外部设备的可扩展能力和应用软件的升级能力,等等。3.3.2刀片式服务器的优势刀片式服务器是一种高密度服务器,专为实现数据中心的便利性而打造。在标准高度的机架式机箱内可插装多个卡式的服务器单元,实现高可用和高密度。每一块“刀片”实际上就是一块系统主板,它们可以通过“板载”硬盘启动自己的操作系统,如Windows、Linux等,类似于一个个独立的服务器,在这种模式下,每一块母板运行自己的系统,服务于指定的不同用户群,相互之间没有关联,不过,管理员可以使用系统
42、软件将这些母板集合成一个服务器集群。在集群模式下,所有的母板可以连接起来提供高速的网络环境,并同时共享资源,为相同的用户群服务。在集群中插入新的“刀片”,就可以提高整体性能。而由于每块“刀片”都是热插拔的,所以,系统可以轻松地进行替换,并且将维护时间减少到最小。刀片式服务器具有低功耗、空间小、单机售价低等特点,同时它还继承发扬了传统服务器的一些技术指标,比如把热插拔和冗余技术运用到刀片式服务器之中,这些设计满足了密集计算环境对服务器性能的需求;还可以通过负载均衡技术,有效地提高服务器的稳定性和核心网络性能。而从外表看,与传统的机架/塔式服务器相比,刀片式服务器能够最大限度地节约服务器的使用空间
43、和费用,并为用户提供灵活、便捷的扩展升级手段。换言之,所谓“刀片式服务器”就是将机架优化服务器中的计算功能提炼出来并加以优化,以独特的、充分考虑成本有效的方式集成电源、网络和管理子系统,为机架式计算环境重新设计的、可灵活部署和管理的即插即用型傻瓜服务器。刀片式服务器和传统服务器相比,除了外形尺寸的差别外还拥有更多特殊的优势:l 与传统服务器相比,刀片式服务器提供几乎相同的购置成本或者更低的价格l 就以太网和电源而言,线缆大规模地减少 l 供电的集中和伸缩,使每个系统的耗电量可以降低多达30% l 增强的服务器管理功能,如:提供了额外的控制和易用性 l 模块化,实现了物理“即插即用”和“即购即换
44、”处理的高效性刀片式服务器的特点总结如下:u 最佳的服务器集群众所周知,作为一种负载均衡技术,服务器集群已经在有效提高系统的稳定性和核心网络服务的性能方面被广泛采用,在集群系统中,若要提供更高端的运算和服务性能,只需增加更多的单元就可以获得更高的性能。更为重要的是,服务器集群还可以为任何一台单独的服务器提供冗余和容错功能。目前IT行业正在大力发展适应宽带网络、功能强大可靠的计算机。在过去的几年里,宽带技术极大地丰富了信息高速公路的传输内容。服务器集群和RAID技术的诞生为计算机和数据池的互联网应用提供了一个新的解决方案,而其成本却远远低于传统的高端专用服务器和大型机。但是,服务器集群的集成能力
45、低,管理这样的集群使很多管理员非常头疼。尤其是集群扩展的需求越来越大,维护这些服务器的工作量简直不可想像,包括服务器之间的内部连接和摆放空间的要求。这些物理因素都限制了集群的扩展。刀片式服务器的出现适时地解决了这些问题。在集群模式下,刀片式服务器所有的主板可以连接起来提供高速的网络环境,共享资源。同时每个刀片都可内置监视器和管理工具软件, 配置一台高密度服务器就可以解决一台到一百台服务器的管理问题,如果需要增加或者删除集群中的服务器,只要插入或拔出一块板即可,将维护时间减少到最小。就这个意义上来说,Blade Center从根本上克服了服务器集群的缺点。u 实现机柜优化刀片式服务器将机柜式服务
46、器所占用的空间密度再一次提高了50%,实现了机柜优化的自然飞跃。在机柜系统配置好的前提下,将1U机架优化服务器系统移植到刀片式服务器上,所占用的空间只是原来的1/41/2。而在一个标准的机柜式环境里,刀片式服务器的处理密度要提高四到五倍。比如在处理1024节点的高密度计算服务器环境里,采用1U服务器需要配置24个机柜,其中还不包括以太网交换集线器所占用的机柜空间,而采用高密度的刀片式服务器只需要4个机柜,却包括了以太网交换机的空间。在相同的面积内,数据中心可以通过部署刀片式服务器获得更多的服务器租赁收益。另外,刀片式服务器采用集中管理的方式,可以简化服务器的管理工作。在IT人员日益匮乏的今天,采用刀片式服务器的企业可以减少雇佣工资高昂的服务器管理和维护人员,从而降低维护费用。还有,刀片式服务器的低功耗设计也会显著减少能耗,节约能源的同时减少了费用。