超融合基础架构设备选型项目技术方案.docx

上传人:李司机 文档编号:6392936 上传时间:2023-10-26 格式:DOCX 页数:60 大小:657.34KB
返回 下载 相关 举报
超融合基础架构设备选型项目技术方案.docx_第1页
第1页 / 共60页
超融合基础架构设备选型项目技术方案.docx_第2页
第2页 / 共60页
超融合基础架构设备选型项目技术方案.docx_第3页
第3页 / 共60页
超融合基础架构设备选型项目技术方案.docx_第4页
第4页 / 共60页
超融合基础架构设备选型项目技术方案.docx_第5页
第5页 / 共60页
点击查看更多>>
资源描述

《超融合基础架构设备选型项目技术方案.docx》由会员分享,可在线阅读,更多相关《超融合基础架构设备选型项目技术方案.docx(60页珍藏版)》请在三一办公上搜索。

1、超融合基础架构设备选型入围项目技术方案第1章技术方案1.1 项目总体设计根据(业主方)的具体需求,总体拓扑设计如下:北京总行数据中心(业主方)将在每个二级*使用超融合系统搭建资源池,承载*内应用,同时需要使用OPenStaCk进行集中管理OHX超融合系统提供OVM的方式支持标准的OPenStaCk组件,从而实现(业主方)*对*资源池的管控。同时HX超融合系统还提供集成的PriSmCentral管理平台可以将所有*的超融合系统管理界面集中管理,不仅可以节省管理员在多个集群之间切换的繁琐动作,更能够将多个集群的状态数据进行汇总,可以方便管理员快速定位当前整个二级*资源池中是否存在热点主机或者热点虚

2、拟机,特别有利于简化大规模IT架构和多*场景下的日常管理任务。同时,通过HX提供的多对一异步复制技术,可以将所有*的重要业务集中灾备到*数据中心的HX超融合系统中,可以在某个*IT系统发生灾难时,直接启用*数据中心灾备系统进行承接,最大程度保障*业务应用的恢复和业务的继续开展OHX超融合系统ASynCDR异步复制总体拓扑图如下:北京总行数据中心jco sag上海分行数据中心0广州分行数据中心*数据中心与其它*数据中心之间是相对独立的关系,如果*数据中心在将数据发送到*数据中心时,发现中间的线路或*数据中心超融合系统有任何故障时,整个数据复制过程将停止,此时*数据中心的超融合系统将继续提供服务,

3、并实时记录下*数据中心数据的更新情况,生产主机上运行的业务系统不会停止,用户能够继续访问到业务系统。当数据复制线路或*数据中心的超融合系统故障排除后,*数据中心能够将所有更新的数据复制到*数据中心。并且,HX超融合系统中的分布式存储(DSF)可以仅通过更新元数据指针实现重复数据删除。同样的视线方式也可被用于异步复制中。通过网络发送数据之前,DFS将检查远程站点中是否已经存在相关数据的记录。如果有,则不发送数据,仅更新元数据。如果远程站点中没有此数据记录,数据将被压缩并发送至目标站点中。此时,该数据被用于两个站点中的重复数据删除。1.2 *架构设计本项目中每个*配置不少于4个节点的超融合架构私有

4、云一体机,使用4个万兆网口配置内外网隔离,同时还可以使用HX超融合系统所带的4个千兆网口配置需要的物理隔离。*逻辑拓扑图如下:MXMO MlttBM (XA. -2*E-2WV3CPU2MQranM-rT8HD02*4oaa SaD-coal。-4f a什 IMMW 口MM1 (M. *UMVWM2 (手. )*数据中心内部通过HX的PriSm界面实现所有基础架构的管理操作,包括健康检查、物理机管理、虚拟机管理、存储管理、数据保护、告警监控、报表分析等内容。用户不再需要通过不同界面进行各种管理任务,所有任务都在同一个界面中完成,极大减少的管理复杂程度。并且可以通过设置不同权限的用户,支持AD整

5、合,将域用户和角色对应到HX的用户和组,从而实现分级的运维管理。*数据中心内部的本地数据保护的重要性也不可忽视,做好本地数据保护,就能够及时的恢复业务系统,减少数据中心之间切换带来的风险。在本方案中,北京*数据中心和各地*数据中心都将使用HX超融合系统,HX超融合系统本身能提供ASynCDR异步复制保护机制,可以保证数据安全性,但是这是在物理层面上,如果业务系统上出现逻辑错误造成数据丢失,则ASynCDR的异步复制保护机制就没有办法恢复这些数据。因此在所有数据中心的HX超融合系统中都配置TinleStreanl保护机制,使用该机制实现本地数据的数据保护,尤其是产生逻辑错误时,可以保护数据的完整

6、性。TimeStream架构如下图所示:RemoteReplicationforDR1.3 灾备架构设计H*SMNM*数据中心HX超融合系统通过*网络骨干连接运营商网络,通过运营商专线连接到*HX超融合系统。HX超融合系统根据*实际情况使用直连方式或者SSH通道方式传输数据到*数据中心。根据实际情况,使用HX超融合系统自带的流量管理进行复制流量策略管理。例如,在周一至周五早6点到晚8点;,限制复制流量为30MBs,周六至周日早6点到晚8点,限制复制流量为15MBs,其它时间段复制流量为IooMB/S。Rmot S等多个发行版的主流版本。还包括UbUntu、FreeBSD、WindoWS7、8、

7、10等操作系统,可以提供给用户更多的选择。OStypeswithSCSI(recommended)endIDEbustypes Windows7.8.8.1.TO WindowsServer2008R2.2012.2012R2 RHEL6.4,6.5.6.6.7.0.7.1.7.2 CenloS6465667.071Z2 Ubuntu14.04.x FreeBSO93,100.10.1 SUSE11HX超融合系统虚拟化平台支持虚拟机生命周期管理,支持查询、创建、删除、启动、关闭、重启、休眠、唤醒、克隆虚拟机。当HyPerViSor主机发生故障时,HX超融合系统虚拟机平台会自动将该主机上的虚拟机

8、HA到其它可用主机上,减少宕机时间。HX超融合系统虚拟化平台支持虚拟机热迁移(migrate)功能,可以在不停机的状态下,手工或自动地实现VM在集群之内的不同物理机之间迁移,保障业务连续性。当需要进行HyPerviSor主机维护时,首先将该主机设置为maintenance模式,当主机进入该模式,会即刻把该主机上的虚拟机自动迁移到其它可用主机,便于管理人员进行主机的正常维护操作,对业务系统无任何影响。HX超融合系统虚拟化平台支持虚拟机资源调整,根据实际需要修改虚拟机的属性,包括VCPU个数、内存大小、硬盘数量和网卡个数。Update VMUpdate VMD*c AcKfWWdiyctolne

9、Gcoufw AddvoiumegroupNefwoctAdapvm(NiC) AddfWwMCtn68a5485 加 310.13271250C82.分布式存储软件功能要求HX超融合系统分布式存储软件提供的NDFS分布式文件系统,NDFS可以将一组集群内的节点组成一个统一的分布式存储资源池。NDFS对于x86虚拟化平台软件而言就是一个集中的共享式存储,与任何其他集中式存储阵列一样工作,且提供更为简单便捷的存储管理,无需像传统集中存储那样再配置LUN、卷、或者Raid组。Tierl工作负载(运行在所有节点上)Nxdaoix Controller VM(运行在每一个节点上)VrnWdto NUT

10、AM CMkrouAcropolis App Mobility FabricHyptr-V本地+远程(SSD + HDD)vmware NLTTANi S *cro*vmware NU7ANIC R MkrowftESXiHyXLVAHVHyper-V-X86Node 2Sharing Storage PoolESXlX86分布式存储架构智能分层,以虚拟机为中心化的管理机制/去亚/自我砥,快照,本地读写HX超融合系统分布式存储软件不仅提供传统存储的能力,还提供更多的数据管理能力:针对于虚拟化方面提供快照、影子克隆等机制,同时,HX超融合系统分布式存储软件还提供分层、去重、压缩、纠删码、容灾等高

11、级功能供用户选择,可以很大程度上提升存储使用效率。HX超融合系统分布式存储软件数据层实现借助两份和/或两份以上冗余数据提供存储的可靠性,当节点宕机或磁盘损坏后通过自动重建数据,恢复冗余性,提供数据自恢复能力。HX超融合系统分布式存储软件被设计成为非常动态的平台,可以适用于不同工作负载的应用,并且允许混合节点类型:例如将计算密集型节点和存储密集型节点混合在一个集群中。对于集群内部磁盘容量大小不同的,确保数据一致的分布非常重要。同时HX超融合系统分布式存储软件自带称为磁盘平衡的技术,用来确保数据一致的分布在集群内部各节点上。磁盘平衡功能与各节点的本地磁盘利用率和内置的ILU(数据生命周期管理)一同

12、工作。它的目标是使得所有节点的磁盘利用率大致相等。另外,HX超融合系统节点通过ILM实现SSD和HDD的数据热分层。简单而言,磁盘的冷热分层是实现在集群内所有节点的SSD和HDD上,并且由ILM负责触发数据在冷热分层之间的迁移。本地节点的SSD在热分层中是最高优先级的,负责所有本地虚拟机IO的读写操作。并且还可以使用集群内所有其他节点的SSD,因为SSD层总是能提供最好的读写性能,并且在混合存储环境中尤为重要。HX超融合系统通过PriSm管理界面实现所有基础架构的管理操作,包括健康检查、物理机管理、虚拟机管理、存储管理、数据保护、告警监控、报表分析等内容。用户不再需要通过不同界面进行各种管理任

13、务,所有任务都在同一个界面中完成,极大减少的管理复杂程度。并且可以通过设置不同权限的用户,支持AD整合,将域用户和角色对应到HX超融合系统的用户和组,从而实现分级的运维管理,并且系统支持增加、修改和查询用户的管理,实现灵活的用户权限管理。HX超融合系统提供一键式升级功能,可以通过统一的升级工具,实现分布式存储软件、虚拟化平台软件、服务器BIOS/BMC和硬盘firmware的升级和补丁功能。HX超融合系统给虚拟化环境带来的重要差异化因素之一就是,基础设施在进行扩展时其性能仍然保持不变。在HX超融合系统架构中,在每个物理节点本地都运行一个虚拟存储控制虚机(CVM)。CVM负责本地所有其他虚拟机的

14、IO操作。当集群扩展时,新增加节点的同时也新增了CvM,保证了整个集群性能的横向扩展。与传统集中存储不同,传统架构下集中存储只有两个存储控制器,在集群扩展时,存储控制器无法进行有效的扩展,从而必然成为整个架构的瓶颈。为了展示这种能力,NUtaniX曾实施过一个巨型的VDl项目,模拟桌面启动风暴,并且当基础设施从300台桌面扩展到3000台时,其性能从最终用户体验的角度来看保持了一致。在大多数传统的存储环境中,最佳性能仅出现在第一天,因为应用程序或工作负载越来越多,导致性能随着时间的推移不断下降,直至需要进行叉车式升级,采用全新的存储阵列。卜图说明了从300台桌面扩展到3000台时,应用响应时间

15、保持不变:Relative Application PerformanceWord Doc/PowerPoint Openutlook Open oExcel Open *Adobe PDF Openspuouas2.3.6 HX超融合产品运维管理HX超融合系统提供PriSm统一管理工具,可以统一监控/管理虚拟机、虚拟化平台、分布式存储、超融合服务器及网络等组件,同时,Prism提供集群健康监控、统一分析工具,一键式分析,报表分析等从根本上满足快速故障定位、全自动维护等需求。同样的,通过HX超融合系统提供的PriSnl可以统一管理数据保护,在一个界面中配置、管理及监控数据保护功能和状态。管理程

16、序环境存储性能统一管理界面PriSm所有物理和虚拟管理对象均提供详细的性能采集数据,包括CPU、内存、磁盘容量、IOPS,吞吐、读写延迟等指标,不再依赖于专用的监控工具和复杂的监控脚本。统一监控能力自定义的报表工具可以灵活的将将不同监控项进行组合和展示,减少日常维护的工作量。TrifAHKFkr,I三:制性V*瞰澜:SZ*-,ujtJj於二自定义监控指标另外,HX超融合系统还提供PriSmCentraL可以将多个PriSm管理界面集中管理,不仅可以节省管理员在多个集群之间切换的繁琐动作,更能够将多个集群的状态数据进行汇总,可以方便管理员快速定位当前整个IT架构中是否存在热点主机或者热点虚拟机,

17、特别有利于简化大规模IT架构、或者多站点场景下的日常管理任务。HX超融合系统支持开箱即用的部署方式,免去传统集中存储环境下存储的规划、连接、配置等复杂的管理操作,无需再配置Raid组、LUN、卷等。新设备安装上架后只需要约几十分钟即可完成初始化配置,用户可以马上开始部署应用虚拟机。初始化安装配置时间应大大低于传统集成架构。HX超融合系统的扩容应支持自动发现新安装节点,并且支持通过向导完成集群扩容,新增资源自动纳入资源池统一调度管理。HX超融合系统不仅在扩容和减容时支持不停机情况下的数据自动在资源池内迁移和均衡,同时,HX超融合系统的分布式存储NDFS被设计成为非常动态的平台,可以适用于不同工作

18、负载的应用,并且允许混合节点类型:例如将计算密集型节点和存储密集型节点混合在一个集群中。对于集群内部磁盘容量大小不同的,确保数据一致的分布非常重要。NDFS有自带的称为磁盘平衡的技术,用来确保数据一致的分布在集群内部各节点上。磁盘平衡功能与各节点的本地磁盘利用率和内置的NDFSlLM(数据生命周期管理)一同工作。它的目标是使得所有节点的磁盘利用率大致相等。HX超融合系统支持在图形界面上一键式完成存储、计算、网络的扩容、减容,对于扩容节点自动完成虚拟化平台软件安装与配置。1.HostSelection2.MostConhQwrattonHypefYtaor:AHV一bott-bur6.uax2l

19、50616.UrzHypervUorISOWrtNt一键式扩容一键式减容HX超融合系统提供多种操作接口模式,例如GUI、nCLIsRESTAPI,通过这些接口的使用,提供开放全面功能的对外编程支持,提供产品对外的集成能力,能够满足外部管理软件或系统与之交互信息、提供控制调度的功能需求。2.3.7 HX超融合产品高可靠性HX超融合系统使用先进的SyStCmX服务器作为硬件载体,具有电源和风扇部件的冗余配置,同时通过网络设计,及分布式系统功能,实现网络、计算及存储资源的冗余,保证系统可用性。HX超融合系统使用复制因子(RF-ReplicationFactor)和校验和(checksum)来保证当节

20、点或者磁盘失效时,数据的冗余度和可用性。当数据写入SSD时,会被“同步”更制到另1个或者2个HX超融合系统的CVM的SSD之中(依赖RF设置为2或者3),当这个操作完成之后,此次写操作才被确认(ACk)。这样能确保数据至少存在于2个或者3个独立的节点上,保证数据的冗余度。所有节点都参与数据的复制操作,这样能消除“热点节点”,并保证线性的性能扩展。当数据被写入时,同时计算该数据块的校验和,并且作为数据块元数据中的一部分进行存储。随后数据块在保证满足RF的前提下,被“异步”推送到HDD中。当发生节点或者磁盘失效,数据块会重新在所有节点间进行复制以满足复制因子的设置。任何时候,读取数据块并同时计算其

21、校验和以确保数据块有效。当数据块检查结果不匹配校验和时,副本数据将会覆盖该无效数据块。在HX超融合系统分布式文件系统中(NDFS),我们使用了一些关键技术来确保:数据在100%时间内都是可用的(即“强一致性”),并且保证NDFS扩展到超大规模数据量时依然可靠。这就是文件系统元数据强一致性的PaXOS算法。NDFS使用一种“环状”的KeyTalUe结构的分布式数据库来保存重要的元数据。为了确保元数据的可用性和冗余度,也同样引入了更制因子(RF)a-KDfl在合同签订后,和设备到货前,本项目的重点就是项目实施方案和计划的确定。在项目实施方案我公司将提供方案的概要设计和详细设计内容,概要设计将会对整

22、个系统的网络结构、每个设备的用途,要实现的目标、采用的各项技术加以描述;详细设计将会就整个系统的配置规划、每个设备的配置参数、命令执行步骤、需要其他设备配合的技术要点的描述等内容。项目实施计划需要确定整个项目实施的工期,和整个项目阶段和里程碑的划分,落实每个技术环节的负责人,落实每个阶段的负责人,考虑各个环节存在的可能存在的风险和规避风险的建议,确保实施计划的顺利进行。本次项目为云平台搭建,在实施前必须完成具体的实施方案。实施方案要细化到每个实施步骤,并对每个步骤考虑可行的异常情况回退方案。主要内容包括:项目总体目标的描述;项目总计架构的网络拓扑和描述;数据备份方案设计;完成项目具体的实施步骤

23、;商讨具体的项目实施日程安排;具体项目实施阶段人员安排;系统功能和性能测试方案项目的风险评估和规避建议以上这些工作均以我公司项目技术人员为主,用户项目人员配合完成。同时实施方案和计划要经过客户和我公司的共同评审通过后,形成可执行文档,在随后的项目实施中,必须严格按照该文档的要求执行,如果确有需要变更的问题,则需要执行变更流程。项目详细计划表如下所示:jVBS6tTaskName开i时间完成时间11项目准备阶段5days2016年8月1日2016年8月5日21.1项目看求讨论会1day201网8月1日201阵8月1日31.2项目再求调研和收案4days201炜8月2日201弹8月5日242实BS

24、准结阶段11days2016年8月8日2016年8月22日I52.1合同签订却硬件设备到货准备1day201688520168月8日362.2项目侬设计划详研S计8days20168月9日201阵8月18日572.3项目环境准备1day201阵8月19日201阵8月19日682.4项目启前会.确罡项目成员.定双方的aCt工作负表人1day201阵8月22日201阵8月22日793,原目实施阶段25days201舞8月23日20169260103.1,文档提交及培训2days2016年8月23日2016年8月24日113.1.1项目相关文根S交1day201阵8月23日201毋8月23日123.

25、1.2项目培训组织1day201阵8月24日201阵8月24日11133.2云平台实施12days20168月25日2016年9月9日143.2.1会瑜、和组化2days20168月25日20168263153.2.2网络或拟夜定3days20168290201诲8月31日14163.2.3存储会拟化灰病3days2016913201阵9月5日15173.2.4X86m施3days201落9月6日201阵9月8日16183.2.5管理软件Ssa1day201舞9月9日201湃9月9日17193.3/应用虎拟化迁移9days201碎9月9日2016#9月21日203.3.1技术港管1day201

26、呼9月9日201阵9月9日213.3.2迁移POC测试3days201阵9月12日201阵9月14日20223.3.3迁移磁3days201阵9月15日201阵9月19日21233.3.41day201阵9月20日201阵9月20日22243.3.5ISJ三1day201眸9月21日201阵9月21日23253.6,系统联周4days2016#9月21日20169260263.4.1系统联调2days201评9月21日201落9月22日273.4.22days201阵9月23日201阵9月26日26284,项目结束65days20169265201碎12月23日294.1项目初险1day201

27、69273201阵9月27日27304.2项目试运行67days201碎9月27日201阵12月28日314.3项目终验1day201阵12月29日201落12月29日30324.4维护服务初蛉65days201阵12月29日2017年3月29日334.5维护服务燃蛉68days2017年3月29日2017年6月30日2.4 项目实施前提在实施方案和实施计划完成后,在设备安装前10天前我公司将项目实施准备要求、场地准备确认书提交给客户以及项目相关配合实施成员。并由客户公司的相关人员确认列表要求是否能够满足。项目实施准备要求、场地准备确认书将充分考虑本项目所涉及的所有主机、网络、软件和配件对机房

28、环境、原有设备耍求、相关设备的要求、实施环境的要求、软件版本的要求等内容。同时我公司的工程师也将在用户现场进行一些准备性的工作,比如原有配置的备份工作等。对于客户相关人员确认的不符合要求项,我公司将及时向双方负责人通报这些不符合项对项目的影响,双方协商后,需要确定解决办法和时间,原则是不影响工程实施的正常进度。以上这些工作我公司工作人员为主,用户配合完成。2.5 项目关键里程碑项目阶段项目任务预计日程实施准备系统设计入场实施前实施方案设计,网络及软件环境规划入场实施前项目实施文档准备入场实施前机房准备入场实施前工程协调,网络环境准备入场实施前云平台实施入场实施开始T方案确认和细化T+5网络虚拟化T+5存储虚拟化T+5X86服务器虚拟化T+5管理软件实施及测试T+8文档及培训T+2

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 生活休闲 > 在线阅读


备案号:宁ICP备20000045号-2

经营许可证:宁B2-20210002

宁公网安备 64010402000987号