《NUTANI超融合数据中心方案建议书.docx》由会员分享,可在线阅读,更多相关《NUTANI超融合数据中心方案建议书.docx(31页珍藏版)》请在三一办公上搜索。
1、最文件仅供参考已改成WOrd文本便利更改赠人玫瑰,手留余香。NUTA.NIX.超融合数据中心方案建议书I名目1.11.21.32.12.22.2.12.2.22.2.32.2.42.32.3.12.3.22.3.32.3.42.3.52.3.61需求分析1.1 现状和需求为供给高性能,高牢靠性,高扩展性的云平台架构,打算承受一代的超融合架构建设云平台,供给计算和存储的资源。1.2 数据中心进展趋势回忆数据中心的进展,可以分为3个阶段。1990年月,称为客户端效劳器时代,特点是数据中心以小型机支撑业务系统为主,各系统独立建设,不同系统之间相互隔离,后来消灭了SAN存储,实现了不同系统之间的数据共
2、享。2000千年开头,X86效劳器开头渐渐普及,效劳器虚拟化的兴起,使得SAN/NAS存储称为数据中心虚拟化的标准配置。虚拟化时代数据中心效劳器资源可以横向扩展,但是SAN存储不能横向扩展,只能纵向升级,不能适应虚拟化对性能的要求。2010年后进入了云时代,企业需要建立云数据中心,效劳资源和存储资源都需要资源池化,传统的SAN存储架构已经不能适应云时代的数据中心要求,需要承受软件定义的方式来构建存储资源池,需要支持多种Hypervisor,企业私有云需要能够和公有云对接。客户端-服务器时代I饺1990年代云时代2000年代2010年之后图Ll数据中心进展趋势据WikiBon的争论推测,传统SA
3、N/NAS存储的销售额呈现明显下滑的趋势,市场份额渐渐被近期兴起的超融合架构/ServerSAN取代,将来五年,超融合架构的市场份额会超过传统SAN/NAS存储,十年后,SAN/NAS的市场占有份额会降到10%以下。未来5到10年新一代数据中心基础架构朝着软件定义和超融合方向发展,全球最大存储厂商EMC将自己卖掉也印证了传统SAN/NAS存储下滑的态势。TraditionalEnterpriseStorage,HyperscaleServerSAN&EnterpriseServerSANRevenueProjections20122027$70,000SGO4OOO传统存储市场趋势S0.000
4、$40.000$)0.000$20,000Enterprne Serwr SANStor*YrMMionjI fntefprMor*c (SAN. NAS DAS)$10.000SOarC M6on StrVW SM WiMrcA 20f4超融合市场趋箝OverallGrowthofEnterprise(ServrSAN&Traditional)&HyperscaleStorageisassumedto8(CAGR)4.2%图L2存储进展趋势1. 3超融合与传统架构选择超融合根底架构Hyper-ConVergedInfrastructure,或简称HQ是指在同一套单元设备中不仅仅具备计算、网络
5、、存储和效劳器虚拟化等资源和技术,而且还包括备份软件、快照技术、重复数据删除、在线数据压缩等元素,而多套单元设备可以通过网络聚合起来,实现模块化的无筵横向扩展scale-out),形成统一的资源池。HCI是实现软件定义数据中心的终极技术途径。HCI类似Google.Facebook等互联网数据中心的大规模根底架构模式,可以为数据中心带来最优的效率、敏捷性、规模、本捌口数据保护。使用计算存储超融合的一体化平台,替代了传统的效劳器加集中存储的架构,使得整个架构更清楚简洁。数据中心4.0臼臼臼臼臼臼臼臼El臼臼臼i;1,INDFS集群图1.3超融合架构示意图下表列举了使用超融合架构计算+存储和传统数
6、据中心三层架构效劳器+光纤交换机+存储的比照:性能尽可目它供给不地吞吐Y开l三用SSD保证应用IO需求。不存在性能瓶颈UT以简迂的在隼雄中搜1加书占以扩随看访IRJ集中存幡任厂效分器越来越多,性能瓶颈将日益凸显横向扩展lt=JM展集群规模和性能Tm八吊;升一司*VI-Ti-大R三QK由于架构限制,无法实现横向扩展高可用性RJ以圆12田U本的万式自2取步两个节点同时故障,并且硬件故障时数据重建速度快,性能几乎不受影响而忙J才0声贷=三7J卜通过raid技术实现高可用性,但面对硬件故障时,性能下降严峻。南f“11雄傅uPU/iEj*TUlEjIRJ/Ativ7N11KaJC内置容灾功能,支持同步和
7、异步容h11iJAl/ui皮JLl内置容灾灾需要额外配置和购置,实施本钱l超融合架构传统数据中心根底架构安装酉遭开箱即用的部署方式,只需30分钟即可完成安装配置需要预备大量安装实施前的信息收集和整理工作,并且由专人进展安装部署,最少需要2天时间治理维护统一WEB界面治理,维护便利无需配置LUN、卷、Raid组需要特地存储治理软件,配置简单。需要厂商支持。空间占用型HJ侬榔口乐啊2UI也百区乂力M曾和存储4节点。使用修统架构.母口2路效力,器至少占用IU,另加存储空间。2超融合方案设计一代数据中心建设包含众多信息化应用的实施,与此相对应,机房效劳器和存储设备也必将大量使用,并且随着后期应用扩大和
8、效劳扩容,效劳器和存储设备的投入必定越来越浩大。一方面,治理硬件根底设施的压力和本钱会不断增大;另一方面,由于应用的多样性,效劳器和存储难于有效整合,效劳器的资源使用都远低于其实际的处理力量,计算力量和存储容量难以充分利用。实施虚拟化/云计算数据中心,可以有效整合效劳器及存储资源,形成计算资源池,依据一代数据中心各项应用的实际需要动态安排计算资源,最大效率的利用现有效劳器及存储设备,并对数据中心硬件设备进展有效治理和监控。超融合数据中心方案建议书I2.1设计原则在方案设计中我们将遵循以下总体原则:以业务需求为导向技术架构最终是为业务效劳的,因此技术架构的设计肯定要以业务的需求为导向,充分考虑三
9、助能需求,例如系统的重要程度、安全要求、业务连续性等。遵循互联网标准业务系统都是面对互联网和物联网业务,因此架构体系要遵循互联网数据中心设用口建设标准,吸取互联网架构的优势。提高资源利用率现已经部署了大量的效劳器,资源使用率低是较突出的一个问题,因此在工程中,提高资源利用率成为一个重要的任务。动态扩展性在IT进展趋势中,动态根底架构已经成为IT根底架构的进展方向。使IT根底架构成为一个动态、敏捷、具有弹性的IT根底架构,同时在IT实时地运营过程可进展敏捷的资源动态调整。资源扩展要表达在计算资源和存储资源的同时扩展。分布式一切应用系统的高可用性是保障效劳等级的重要因素,在架构设计中应当以软件定义
10、为主,借助软件的分布式架构满足高可用性要求,实现系统架构和平台架构的无单点故障、无单点瓶颈问题,保障T弋的业务系统强健性。安全性在系统设计中,安全性是一个格外重要的问题。在架构中需要考虑到虚拟化架构内外部的安全,包括数据安全等问题,以保证整个系统长期安全稳定的运行。2. 2方案设计3. 2.1计算资源基于Nutanix架构的模块化数据中心由NutanixBlock(区块)和NutanixNode(节点)组成。以下图2.2为标准的TBlock(区块)设备,仅占用2个机架单元(2U高)。而每台标准的NutanixBlock(区块)设备均含有四个独立的NUtaniX节点,每个Node(节点)都是一立
11、的x86效劳器。却能够供给4台标准2路InteICPU的86效劳器和最大48TB存储容量。图2J:NutanixBlock(Et)和Node布点)Nutanix的计算资源池是通过x86效劳器虚拟化来实现的,可以支持VMwarevSpheresMicrosoftHyper-V及NutanixAcropolis平台供给的KVM等Hypervisor,如图2.3。在虚拟化Hypervisor层形成计算资源池,为业务系统的虚拟机供给不同的效劳质量和力量,包括了高可用(HighAvailability).容错(FaUltTolerant),在线迁移(LiveMigration/vMotion)x资源动态
12、负载均衡(DistributedResourceSChedUlerj等虚拟化的特性。同时,Nutanix可以支持业务虚拟机在不同的Hypervisor之前进展迁移,也就是V2V的力量,例如从vSphere迁移到KVM等。-.w VmWdrC NLnANlMkw*vmware NLAM C F MrmonBK M HkJ wr-V 皿 *Si fv一“-i.二=SharingStoragePool分布式存储架构1.智标分层,以虚拟机为中心化的管理机制,快赚,克冷,压缗/去击/本地读耳/分居春灾/自再恢宜图2.3Nutanix分布式存储架构和功能Nutanix分布式存储架构不仅同样供给传统存储的力
13、量外,还供给更多的力量。针对于虚拟化方面供给快照、克隆等机制,数据层实现本地优先访问、存储分层等性能机制,对数据进展压缩和去重提高存储可用容量,借助两份以上冗余数据供给存储的牢靠性,增加或削减节点数据分布会自动平台,当节点宕机或磁盘损坏后具备数据自恢复力量等。Nutanix每个节点供给两种磁盘,标准配置为1-2块SSD,容量从480GB到1.6TB;4块SATA的HDD,容量为ITB和2TB(局部型号节点供给4TB和6TB的HDD)o图2.4分布式存储系统规律架构NDFS被设计成为格外动态的平台,可以适用于不同工作负载的应用,并且允许混合节点类型:例如将计算密集型节点和存储密集型节点混合在一个
14、集群中。对于集群内部磁盘容量大小不同的,确保数据全都的分布格外重要。NDFS有自带的称为磁盘平衡的技术,用来确保数据全都的分布在集群内部各节点上。磁盘平衡功能与各节点的本地磁盘利用率和内置的NDFSILM数据生命周期治理一同工作。它的目标是使得全部节点的磁盘利用率大致相等。另外,Nutanix节点通过ILM实现SSD和HDD的数据热分层。简洁而言,磁盘的热分层时实现在集群内全部节点的SSD和HDD上,并且由ILM负责触发数据在热分层之间的迁移。本地节点的SSD在热分层中是最高优先级的,负责全部本地虚拟机IO的读写操作。并且还可以使用集群内全部其他节点的SSD,由于SSD层总是能供给最好的读写性
15、能,并且在混合存储环境中尤为重要。在超融合的虚拟化环境中,全部IO操作都将由本地节点上的NutanixControIerVM(CVM)接收,以供给极高的性能。据以往阅历及用户习惯分析,一般运行效劳器虚拟化的虚拟机对IO性能要求在200-300IOPS左右,而单个Nutanix节点可供给25000上的IOPS,4节点集群可供给将近100,000的IOPSo完全可以满足需求。2.2.3网络拓扑在每个单节点上,默认供给如下网络端口:2*1GbE,1*1GbEIPMI端口四口WGbE以下图为Nutanix推举的网络拓扑图:图2.5网络拓扑在计算虚拟化资源池中的每台虚拟化Hypervisor节点上会运行
16、多台虚拟机,多台虚拟机之间共享网络,为了便利治理建议承受虚拟交换机来配置和治理网络,虚拟交换机可在数据中心级别供给集中和聚合的虚拟网络,从而简化并增加虚拟机网络。在虚拟交换机的网络划分上,仍旧可以承受VLAN的方式划分不同的子网,实现不同子网段的安全和隔离。在每个Nutanix物理节点上有多种网络需求,包括管内部通讯网络、治理网络、生产网络等,因此每个Nutanix节点需配置多块网卡,网络设计建议如下:类型设计备注IMitani物!千里占:IOGb以太网每个节点通过两条万兆链路分别连接两台万兆交摭U胆间的内部通讯网络双链路冗余机,保证网络设备和链路的冗余度。NUtaniX建议用户使用万兆网络互
17、联物理节点,当发生密集的写1。时,万兆网络能保证供给足够带宽满足节点之间的IO同步流量。客户端与效劳器虚拟机之间的通讯网络,虚拟化效劳器对外效劳网络IOGb以太网,双链路冗余每个节点通过两条干/万兆链路分别连接两台干/万兆交换机,保证网络设备和链路的冗余度。用户访问虚拟效劳器对夕M共给效劳时,通过千/万兆链路可以实现与后端存储流量隔离。硬件治理网络(IPMI)IGb以太网每个节点都看独立的十兆链路,用十连接特地的管理网络,实现治理网络与业务网络、存储网络分离。可以最大限度保证治理的敏捷性和安全性。2.2.4容灾方案Nutanix平台自带的存储层面及基于虚拟机粒度的备份恢复功能TimeStrea
18、mo用户可以针对每个虚拟机设置不同的备份策略,包括备份打算和备份保存周期,TimeStream会自动通过存储快照方式对虚拟机进展备份。全部TimeStream的快照均是基于存储层面的,与虚拟化层面的快照不同,存储层面的快照不会影响虚拟机的性能,对于虚拟化软件是完全透亮的。传统的备份方式通过网络传输备份数据,需要特定的备份窗口以免影响业务正常运行。TimeStream备份可以与传统的备份策略互补,既能保证对于重要的虚拟机进展高频度备份又不会占用额外的网络带宽。例如:对于一般虚拟机可以使用传统的备份方式每周进展全备,将备份数据保存在外部存储例如磁带库中;同时使用TimeStream备份进展每天甚至
19、每12小时的备份,数据直接保存在存储上以便快速恢复。超融合数据中心方案建议书I对于比较重要的虚拟机可以使用传统备份每周全备、每天增量的方式,将备份数据保存在外部存储例如磁带库中;同时使用TimeStream备份进展每2小时甚至每小时的备份,数据直接保存在存储上以便快速恢复。Nutanix容灾功能,分为两个级别:MetroAvailability和RemoteReplicationo都是基于虚拟机快照的方式将更数据异步复制到远程的Nutnaix集群中。MetroAvailability可以实现同城双数据中心之间的RPO接近于零需要裸光纤支持,即便是标准RemoteReplication也能实现R
20、PO为1小时基于网络带宽和更数据量,满足绝大多数异地容灾的业务需求。NUtaniX容灾支持双向、一对多、多对一各种不同的复制模式。并且可以通过Nutanix自带的治理界面激活容灾中心的虚拟机进展容灾演练。不再需要额外繁琐的灾难恢复打算,基于鼠标点击即可完成容灾切换。路坦力的复制方案供给如下几个特色功能: 彳Si户域(PD/ProtectionDomain)主要角色:同时保护的多个虚拟机/文件的规律组描述:一组多个虚拟机或文件基于某个一样的保护策进展复制保护。一个PD可以保护一整个容器(Container)或你所选中的多个虚拟机或文件。 全都性组(CG/ConsistencyGroup主要角色:
21、PD中多个相关联的VM或文件构成的一个子集,以实现故障时全都性。描述:PD中多台相关联的VM或文件需要在同一时刻发起快照。从而确保在虚拟机或文件回滚时的数据全都性。一个PD中可包含多个CGo 复制时间策略(ReplicationSchedule)主要角色:快照、复制的时间策略描述:为PD或CG中的VM供给定制的快照、复制的时间策略 保存策略(RetentionPolicy)主要角色:本地或远程站点中保存的快照数量描述:保存策略定义了本地或远程站点中保存的快照数量。留意:在远程保存/复制 .3方案优势使用Nutanix虚拟化根底架构,在保证用户数据的高速访问和高牢靠性同时,不再需要传统的集中式存
22、储架构,避开在今后运行过程中消灭设计初期无视的性能问题。依据效劳器和存储使用现状,建议使用Nutanix来支撑现有应用。在今后随着业务进展,可以便利的依据节点进展扩容,避开建设初期一次性投资过大,后期却觉察性能问题,需要追加投资的问题消灭。NUtaniX是部署广泛、值得信任的虚拟化根底架构平台。NUtaniX适用于最重要的国防、医疗、教育等领域,可为数据中心虚拟化带来横向扩展架构、高可用性和牢靠性等优势。争论显示,并非全部的企业数据中心工程真正做到了全面部署,很大一局部工程通常由于根底设施的本钱不断攀升而束之高阁。传统效劳器和存储阵列扩展成为企业数据中心工程本钱昂扬、过程简单并且难于实施的主要
23、因素。从诸多数据中心工程实施来看,在企业环境中,性能、牢靠性、可扩展性是关键,由于最终用户体验直接来自于根底设施的高性能和高牢靠性。Nutanix将融合根底设施、横向扩展架构和软件定义存储的各种优势结合在一起,可供给极佳的数据中心虚拟化体验,而其本钱仅为传统效劳器和存储器的一小局部。Nutanix完整集群是一种能够横向扩展的计算和存储根底设施,它使各组织机构无需存储网络SAN或NAS)即可实现数据中心虚拟化。Nutanix特地为虚拟化而设计,能够供给全面的计算和存储力量,以及企业级的性能、可扩展性、可用性和数据治理功能。它承受英特尔芯片、固态硬盘等符合行业标准的硬件组件,以及市场领先的高级治理
24、程序,以便供给开箱即用的解决方案,让数据中心虚拟化变得极其简洁有效。1)互联网架构的分布式计算Nutanix架构与Google的架构相类似,是一种可以横向扩展的计算存储融合的根底架构,消退了对于集中式存储对于网络的依靠。并且在基于Google的架构之上,供给了适合企业环境的解决方案。GFS是一种特定的解决方案为Google内部的应用所使用例如GmailJ,而NUtaniX供给的是一种通用的虚拟化环境解决方案。另外,Nutanix有更好的横向扩展力量,供给更好的企业级数据治理特性,通常这些特性需要额外的网络或者存储硬件才能实现,例如,高可用性、备份、快照、灾难恢复等。2)专为虚拟化设计Nutan
25、ix是针对虚拟化环境而设计的,因此可以很好的支持虚拟化环境中基于传统存储架构所实现的功能,包括虚拟机的热迁移和高可用性等。Nutanix架构是虚拟机感知型的,它抑制可传统架构下解决方案的一些弊端,例如,当一个存储设备LUN共享全部虚拟机使用时,很难使用在存储上使用基于虚拟机的备份、复制和快照功能,并且当架构越来越简单时,很难诊断性能瓶颈。而Nutanix架构抑制了这些限制。3)存储分层优势Nutanix架构充分发挥了存储分层的SSD固态硬盘的优势,由于传统存储都是针对机械硬盘而设计的,而传统的机械硬盘与SSD硬盘的数据访问方式完全不同,机械硬盘需要旋转和寻道,而SSD硬盘则完全没有这些限制,因
26、此不能希望针对机械硬盘设计的存储软件能充分发挥SSD硬盘的性能优势。Nutanix架构使用SSD来保存大量常常访问的数据,从虚拟机的元数据到业务数据都保存在分布式Cache中已供给极高的IO性能,并且保存在长久化的存储中以便于存取。Nutanix架构极高的IO吞吐性能是得益于使用SSD磁盘,包括: 保存SSD用于IO敏感的操作; 包含空间节约的技术,允许大量的规律数据被存储在一个小的物理空间中; 自动迁移冷”数据或者不常访问的数据到大容量SATA硬盘中,并且允许治理员指定低优先级的虚拟机不使用SSD磁盘。Nutanix给虚拟化环境带来的重要差异化因素之一就是,根底设施在进展扩展时其性能仍旧保持
27、不变。在Nutanix架构中,在每个物理节点本地都运行一个虚拟存储掌握虚机CVM。CVM负责本地全部其他虚拟机的IO操作。当集群扩展时,增加节点的同时也增了CVM,保证了整个集群性能的横向扩展。与传统集中存储不同,传统架构下集中存储只有两个存储掌握器,在集群扩展时,存储掌握器无法进展有效的扩展,从而必定成为整个架构的瓶颈。为了展现这种力量,Nutanix曾实施过一个巨型的VDI工程,模拟桌面启动风暴,并且当根底设施从300台桌面扩展到3000台时,其性能从最终用户体验的角度来看保持了全都。在大多数传统的存储环境中,最正确性能仅消灭在第一天,由于应用程序或工作负载越来越多,导致性能随着时间的推移
28、不断下降,直至需要进展叉车式升级,承受全的存储阵列。以下图是3000系列设备在VDI方案设计中的横向扩展现意图。通常办公类虚拟桌面,一个3000系列节点可以支持100个虚拟桌面,每增加一个节点,可以多支持100个虚拟桌面,真正实现线性的横向扩展:真正的线性横向扩展性能1200-WoOT1000-900800700T600-500-400-300-200-100-12节点数量(每个块为4个节点)图2.7线性扩展现意图以下图说明白从300台桌面扩展到3000台时,应用响应时间保持不变:相对应用性能SpUgdS300虚拟桌面数曷与应用响应时lk3000图2.8不同8/数量下的相应时间Nutanix解
29、决方案在数据中心虚拟化环境中的主要优势之一就是性能,而性能优势是通过传统的效劳器和存储架构实现的。在传统的架构中,时延是由于每次访问存储都需要通过网络而造成的。通过NFS和iSCSI等协议供给存储本身没有问题,但网络会增加时延。Nutanix可供给NFS协议的优势及其易用性,而通过所谓的无网络NFSw消退了网络时延。Nutanix分布式文件系统直接对虚拟机进展检测,然后将特定虚拟机的全部数据存放到本地物理效劳器上。因此,虚拟机不是通过网络、而是通过高速内部总线访问其数据。并且全部节点标配SSD磁盘,供给极高的IOPS以满足虚拟化环境各种类型应用需求,无论是虚拟桌面还是效劳器虚拟化场景。更为重要
30、的是,每个节点的SSD磁盘并非有每个节点单独使用,而是在整个集群范围内作为一个整体使用。言下之意,不会由于单个节点本地的SSD耗尽而导致其性能急剧下降。当消灭这种极端状况时,节点会使用集群中其他节点的SSD空间。由于即使跨网络访问其他节点SSD磁盘也会比访问本地SATA磁盘快很多。因此极端最差状况时性能也与使用传统集中存储架构时效劳器通过网络访问数据的场景相当。其实不会消灭这种极端状况,由于当SSD利用率超过肯定阈值后,Nutanix的CVM会自动觉察并将最少访问的数据从SSD迁移到SATA上,以保证SSD有足够容量满足突发的IO恳求。这一自动热分层技术对虚拟化主机而言完全透亮。用户无需关心数
31、据保存在哪里,这完全由CVM依据数据访问频度而自动调度。NUtaniX平台使用复制因子(RF-ReplicationFactor和校验和(checksum)来保证当节点或者磁盘失效时,数据的冗余度和可用性。当数据写入SSD时,会被“同步复制到另1个或者2个NutanixCVM的SSD之中依靠RF设置为2或者3,当这个操作完成之后,此次写操作才被确认Ack这样能确保数据至少存在于2个或者3个独立的节点上,保证数据的冗余度。全部节点都参与数据的复制操作,这样能消退热点节点,并保证线性的性能扩展。当数据被写入时,同时计算该数据块的校验和,并且作为数据块元数据中的一局部进展存储。随后数据块在保证满足R
32、F的前提下,被异步推送到HDD中。当发生节点或者磁盘失效,数据块会重在全部节点间进展复制以满足复制因子的设置。任何时候,读取数据块并同时计算其校验和以确保数据块有效。当数据块检查结果不匹配校验和时,副本数据将会掩盖该无效数据块。在NiHaniX分布式文件系统中NDFS,我们使用了一些关键技术来确保:数据在100%时间内都是可用的即强全都性,并且保证NDFS扩展到超大规模数据量时照旧牢靠。这就是文件系统元数据强全都性的Paxos算法院NDFS使用一种环状”的Key-Value构造的分布式数据库来保存重要的元数据。为了确保元数据的可用性和冗余度,也同样引入了复制因子RF)o一旦一条Metadata
33、记录被写或者更后,这条记录将同时写到环中的另一个节点,然后被复制到n个其他节点S打算与集群的大小。集群中大多数(majority)节点必需同意才能Commit一条记录,这就是强全都性的Paxos算法。这确保了 NUtaniX平台的牢靠性。2.3.4易于部署Nutanix开箱即用的部署方式,可以免去传统集中存储环境下存储的规划、连接、配置等简单的治理操作,无需再配置Raid组、LUN、卷等。设备安装上架后只需要约20分钟即可完成初始化配置,用户可以马上开头部署应用虚拟机。Nutanix集群的扩展也格外便利,通过鼠标点击即可扫描并自动觉察安装的节点,依据提示完成IP地址配置之后,节点即完成参加集群
34、操作,增资源也自动纳入资源池统一调度治理。2.3.5集中治理通过Nutanix的Prism界面实现全部根底架构的治理操作,包括安康检查、物理机治理、虚拟机治理、存储治理、数据保护、告警监控、报表分析等内容。用户不再需要通过不同界面进展各种治理任务,全部任务都在同一个界面中完成,极大削减的治理简单程度。并且可以通过设置不同权限的用户,支持AD整合,将域用户和角色对应到Nutanix的用户和组,从而实现分级的运维治理。图2.9统一治理界面PrjSm全部物理和虚拟治理对象均供给具体的性能采集数据,包括CPU、内存、磁盘容量、IOPS、吞吐、读写延迟等指标,不再依靠于专用的监控工具和简单的监控脚本。图
35、2/0统一监控力量自定义的报表工具可以敏捷的将将不同监控项进展组合和展现,削减日常维护的工作量。图Zh自定义监控指标另外,Nutanix还供给PrismCentral的治理组件,可以将多个Prism治理界面集中治理,不仅可以节约治理员在多个集群之间切换的繁琐动作,更能够将多个集群的状态数据进展汇总,可以便利治理员快速定位当前整个IT架构中是否存在热点主机或者热点虚拟机,特别有利于简化大规模IT架构、或者多站点场景下的日常治理任务。2.3.6自动故障恢复Nutanix抛弃了传统的Raid机制来保护硬件失效,承受全的复制因子和校验和技术来保证当节点或者磁盘失效时,数据的冗余度和可用性参见章节2.5
36、.4牢靠性。当发生单点磁盘甚至是单个节点故障时,Nutanix集群将自动觉察这一故障,并马上在后台开头数据重建工作。整个重建过程格外简洁,假设复制因子是2,系统会自动觉察只有1份副本的数据块,并将其在另一个节点上复制第2份副本即可。最重要的是,这个数据重建过程是基于MapReduce的分布式框架实现的,集群中全部节点的CVM都可参与数据重建工作,并且依据负载状况动态调配,因此重建工作不会影响系统性能。与传统的Raid数据重建不同的是,Raid重建过程会极大影响磁盘的正常操作,导致整个系统性能降级,并且由于磁盘容量越来越大,整个重建过程也将消耗更长时间,甚至超过20小时。另外,Nutanix独有
37、的AvailabilityDomain技术更能预防单个机箱即整个Block)失效时数据照旧可以访问,实现原理即当用户环境中有超过3个block,并且配置相近的节点数量时,NutanixCVM会自动将原始数据块和副本数据块放在不同的Block中的两个节点上缺省RF=2时,数据只是随机放在两个不同的节点上,有可能这两个节点位于同一个Block中。当发生气箱故障时,由于数据副本在机箱之外,因此数据照旧可用,AvailabilityDomain可以供给更高等级的数据冗余度。3配置清单本次投标产品型号为NX-3060-G5,承受软硬一体的设备,设备承受高密度设计,在2U机箱中可配置4个节点。共配置28个
38、节点。NX-3060系列机箱及电源配置特性:机箱尺寸:高3.5寸88mm,宽17.25寸438mm,深度28.5寸724mm功耗:最大1900W,典型1000W电源要求:100-240V,50-60HZNX-3060-G5单节点具体配置为:CPU:两路10核IntelBroadwellE5-2640v4处理器,主频2.4GHz内存:256GBSSD盘:2*480GBSATA盘:4*2TB网卡:4口IOGbE(含模块),2个千兆口,1一个IPMI治理口设备前视图:AFNMCNM0ttode B c ontro panelU : . eHtro “MlNoOe D control p2Ned* C eonU6 f设备后视图:word文本最文件仅供参考已改成便利更改赠人玫瑰,手留余香。