各厂商高端存储产品技术对比.docx

上传人:牧羊曲112 文档编号:1790873 上传时间:2022-12-19 格式:DOCX 页数:25 大小:736.42KB
返回 下载 相关 举报
各厂商高端存储产品技术对比.docx_第1页
第1页 / 共25页
各厂商高端存储产品技术对比.docx_第2页
第2页 / 共25页
各厂商高端存储产品技术对比.docx_第3页
第3页 / 共25页
各厂商高端存储产品技术对比.docx_第4页
第4页 / 共25页
各厂商高端存储产品技术对比.docx_第5页
第5页 / 共25页
点击查看更多>>
资源描述

《各厂商高端存储产品技术对比.docx》由会员分享,可在线阅读,更多相关《各厂商高端存储产品技术对比.docx(25页珍藏版)》请在三一办公上搜索。

1、各厂商高端存储产品的技术对比目录1背景信息42技术指标列表62.1大型号指标列表62.2小型号指标列表73体系结构分析93.1HDS USP V/USP VM体系结构先进的统一星型网络架构93.2EMC DMX-4/DMX-4 950体系结构113.3IBM DS8300 Turbo/DS8100 Turbo体系结构落后的双控制器结构134Cache技术分析164.1HDS USP V/VM缓存技术164.2EMC DMX-4缓存技术174.3IBM DS8000缓存技术175缓存并发访问能力比较195.1HDS USP V缓存并发数195.2HDS USP VM缓存并发数215.3EMC D

2、MX-4/DMX-4 950缓存并发数225.4DS8300缓存并发数225.5小结236IO性能246.1测试结果公开网站246.2DS8300测试结果256.3USP V测试结果266.4对比266.5DMX-4/950测试结果267存储虚拟化整合技术277.1HDS USP V/USP VM虚拟化277.2IBM和EMC虚拟化技术288存储分区技术309动态供应技术3210各个厂商的宕机记录3411HDS向客户承诺的系统可靠性361 背景信息存储(即智能磁盘阵列)已经成为企业IT支撑系统越来越重要的一个分支。目前全球范围公认的主流存储解决方案供应商主要有HP、EMC、IBM等。随着技术的

3、发展和市场的分化,上述几个主流厂商都向市场提供两个系列的存储产品:即高端存储和中端存储两个系列,分别满足不同级别和不同规模的应用需求。为了更好地进行产品选型,我们需要对各厂商的产品进行深入分析对比,以作为我们选择的重要依据。本文首先对各厂商的高端存储进行分析,中端存储的分析将在其他文件中提供。下表是各厂商高端存储型号的详细列表。产品HPEMCIBMHDS大XP24000DMX-4DS8700USP V小XP20000DMX-4 950DS8300USP VM在技术分析前,我们确定了一些主要的技术方面,然后在这些技术指标上对各厂商的产品进行对比,包括主要指标列表、体系结构、Cache技术、性能、

4、存储虚拟化功能、存储分区、以及容量动态供应技术等。另外,还要说明一下,通过各厂商的技术资料和产品介绍,我们了解到上表中各厂商的小型号和大型号(例如HP XP20000和XP24000)在体系架构和总体功能上是完全相同的,其系统内部运行的也是同一套微码(存储操作系统),所不同的主要是系统扩展性方面,例如前端控制器、后端控制器、缓存、最大磁盘的数量等。2 体系结构分析体系结构决定着产品的本质特性:一个产品拥有优秀、均衡的体系结构,这个产品才能拥有良好的可靠性和稳定性,才能拥有高的性能。2.1 HP XP系列产品体系结构先进的统一星型网络架构HP XP系列产品作为高端存储,拥有一个适合存储系统的、没

5、有潜在瓶颈的、全光纤交换式和点对点直连相混合的统一星型网络体系架构Universal Star Network(USN),如下图所示。图中CHA为前端通道控制器,DKA为后端磁盘控制器,SMA是控制缓存,CMA是数据缓存,CSW是内部缓存交换机。HP XP系列产品的技术白皮书列举了USN统一星型网络体系结构拥有2项核心技术: 第一项:数据缓存读写采用全光纤交换式架构。交换式体系结构又称CrossBar结构,是一种高带宽、大吞吐率和无阻塞的体系结构,已经广泛应用在IT行业、电信行业的高端设备上。不论是大型UNIX主机(HP Superdome、Sun Enterprise Server 25K、

6、IBM P590等),以太网核心交换机(Cisco)、存储网核心交换机(如Brocade、McData以及Cisco SAN Director),甚至是电信交换机等均采用了无阻塞CrossBar技术作为其系统架构,这已经是业界发展的方向。Cache是存储系统的核心部件,XP把整个系统的所有缓存Cache分为两个独立部分:数据缓存(如上图CMA所示)和控制缓存(上图SMA所示)。其中数据缓存用来存放服务器/主机读写的数据,控制缓存是用来存放数据缓存的索引(我们称之为metadata)以及系统通信数据的共享区的。存储系统把数据缓存在逻辑上分为若干个page(大小为4K,8K,16K等),每个pag

7、e有一个线性地址(即page ID)。每次读写都是以page为单位进行,即使是只需要读一个byte,最后对缓存的读写也是以一个page进行的。因此对于数据缓存来说,最重要的是需要持续的高带宽和大吞吐率,XP在数据缓存读写上采用交换式结构设计这是真正的根据存储系统的特点而设计的。o XP24000从内部交换机到数据缓存设计有64路1.0625GB/s的通路连接起来,数据缓存共有68GB/s的带宽;o XP20000从内部交换机到数据缓存设计有8路1.0625GB/s的通路连接起来,数据缓存共有8.5GB/s的带宽; 其次是控制缓存采用点对点直连技术。如上文所述,控制缓存主要用来存放数据缓存的索引

8、和共享通讯数据。其中数据缓存的索引是一张二元表,其数据结构如下:某个数据块在磁盘数据卷上的地址某个数据块在数据缓存上的地址在微观上,服务器对存储的一次读写的详细过程如下:业务软件读某个数据 数据库演变为读某个数据库表纪录 数据库底层演变为读某个逻辑卷的某个数据块 操作系统卷管理软件演变为读某个数据卷的某个数据块 XP24000演变为某个LUN的某个page XP24000在控制缓存中查找索引,判断是否该数据page在数据缓存中 。如果返回一个非0值,说明该数据在数据缓存中,这次读操作为读命中read hit;如果返回为一个0值,这说明此次操作为read miss,系统将在共享缓存中写入该数据块

9、page ID,并通知后端磁盘控制器将数据块读入到数据缓存中。XP任何一个操作,都需要访问控制缓存。而且对控制缓存的读写有如下特点:o 每次对控制缓存的访问的数据量很小,一般就是一个长整数(即page ID);o 读写并发度很高,因为一次数据读写可能导致多次控制缓存的读写;o 控制缓存中还包含了大量存储控制器之间的通信数据,但每次访问的数据量都不大。o 因此对控制缓存的技术要求是:控制器到控制缓存的通道要多,每条通道的带宽不必很宽。XP就是遵循这个设计原则,对控制缓存的读写设计为点对点直连结构:v XP24000每个控制器(包括前后端控制器)都通过4路150MB/s的通路直接连接到每个控制缓存

10、卡上,因此系统满配置32块控制器的情况下,一共设计有4*32*2=256路150MB/s的通路,整个带宽为38.4GB/s;v XP20000每个控制器都通过2路150MB/s的通路直接连接到每个控制缓存卡上,因此系统满配置8块控制器的情况下,一共设计有2*8*2=32路150MB/s的通路,整个带宽为4.8GB/s; 结论HP XP采用数据缓存交换式结构,控制缓存点对点直连结构是最符合存储系统对数据访问和管理的特点的,这种统一星型网络结构是最稳定和均衡、最先进和最高性能的体系架构。这是其他厂商所无法相比的。2.2 EMC DMX-4/DMX-4 950体系结构EMC高端存储系统2个型号DMX

11、-4/DMX-4 950采用的是类似的结构,但又有不同。我们先分析一下DMX-4的结构,再阐述DMX-4 950结构的不同之处。DMX-4采用的是DMX结构,即直连矩阵结构Direct Matrix Architecture。EMC称这种点对点DMX结构是能够彻底消除系统带宽瓶颈的“先进”架构,是比已变成工业界事实标准的CrossBar高端系统架构还要优越的体系结构?我们分析一下实际情况。下图就是DMX体系结构示意图。从图中可知,DMX结构中主要可描述如下: 前端8个各类通道控制器与8块Cache卡点对点直接相连,共64个连接通路; 8个后端磁盘控制器也与8块Cache直接相连,共64个连接通

12、道;这里有一点最重要,就是所有通道和磁盘控制器均连接到一个称之为“Control and Communication Signals”的卡上,如图中所标示的。这个卡实际上是一个Multiplexer。Multiplexer是什么东西呢?它实际上是一个多路复用器,DMX-4/DMX-4 950采用这种多路复用器对多个通道控制器和磁盘控制器访问同一个Cache卡可能产生的冲突进行控制。现在很多人都不知道Multiplexer是什么东西。实际上在早期IBM大型机上使用的SNA网络上就是使用的这种“多路复用器”,直到网络交换机出现以后,才被市场所淘汰。与交换技术和交换机相比,Multiplexer是一

13、种原始和低级的复用设备,其延迟和效率都非常低,仅适合对数据量不大的某个控制信号使用,而采用到存储系统中来控制多路对Cache卡的冲突,很难适应高端存储系统可靠性和稳定性不断提高的要求,其本身已经为市场所淘汰。另外需要指出的是,DMX-4 950中,Cache卡只有2块,前端通道控制器与后端磁盘控制器共用一个控制器,共用一个带宽,因此其带宽很小,该产品的可靠性和性能可想而知。而相比之下,HDS USP VM所有的控制器都是互相独立的,不是共享同一块控制器。2.3 IBM DS8000体系结构落后的双控制器结构虽然DS8000系列产品被IBM称之为高端存储系统,但是其采用的是典型的双控制器结构,这

14、种架构是中端存储系统采用的结构。因此有不少第三方分析师把DS8000定位为一个具有高端的可扩展性能力的中端存储产品。请看下图。 资料来源:IBM DS8000 Redbook如图所示,DS8000实质上是由左右两边2台简装的IBM p570小型机作为控制器,共享内部总线(RIO-G loop)的这样一个双控制器共享总线结构。这个结构是典型的中端存储的结构,下图是各厂商中端存储的体系结构,这些中端存储包括HDS AMS1000、EMC CX3-80、IBM DS4800。大家请看看有何不同?体系结构决定着系统的档次和定位,这就是为什么众多第三方独立咨询机构都把DS8000产品定位为中端存储产品的

15、本质原因。 HDS AMS系列存储系统架构图总之,DS8000是由2台简装的p570,其上运行简化的unix操作系统和阵列控制软件,通过共享总线,外挂接口卡以及若干磁盘组成。特别要指出的是,2台p570上运行的unix简化版和阵列控制软件,并不是存储系统上的微码,而是普通服务器上的Cluster软件和相关的应用软件,其执行效率和响应速度都无法满足存储系统对微码的要求。存储系统的微码需要简化、高效、执行速度快、周而复始地完成服务器/主机对数据的访问请求,以及相关存储软件功能(例如数据本地复制克隆快照、远程数据复制等),而DS8000显然难于满足这个要求。更重要的是,这种设计最致命的是影响系统的可

16、靠性和稳定性。众所周知,双机热备集群技术对于普通应用系统来说,基本能满足业务要求在一台小型机故障的情况下,在有限时间里业务能切换到另一台小型机上,但是所有使用过cluster的客户都很清楚,这个有限时间是在分钟一级就是配置得非常优化的应用系统,这个时间也往往要5分钟以上。5分钟对服务器来说,可能是可以忍受的,而且也仅仅影响到这台服务器上的业务。但对于存储系统来说,特别是高端存储系统,这几乎是致命的。存储系统是业务IT支撑平台最中心的设备,在数据集中化趋势越来越明显的情况下,众多客户整个企业可能所有的业务均整合在同一台存储系统中,这台高端存储系统需要支撑所有服务器和主机,每秒钟可能会发生几百甚至

17、几千个I/O,DS8000一旦出现一台p570故障,系统需要在几分钟之后才能把这部分数据切换到另一台p570上,系统会怎样,众多业务服务器/主机会怎样,整个企业前端业务会怎样?尊敬的客户,您敢用吗?而这一点在中端存储上都不会出现,因为中端存储采用的系统微码的实时性都要高于DS8000,例如HDS AMS1000采用的是VxWorks的切换时间都在毫秒级,对前端服务器的读写没有影响。这是客户反映的IBM DS8000不稳定的根本原因。3 Cache技术分析存储系统中数据最终是存放在若干个磁盘。由于磁盘的读写本质上是一个机械过程,其速度比CPU速度要低1到2个数量级。因此对于存储系统来说,一边是服

18、务器/主机高速请求,另一边是磁盘低速读写,因此必须通过相应部件和技术来调和这个高低矛盾。这个部件和技术就是高速缓存(Cache)和缓存管理技术。本小节就着重分析各厂商的Cache管理技术。3.1 HP XP20000/XP24000缓存技术XP20000/XP24000在Cache设计方面拥有多项专利技术。如下图所示。 XP采用控制缓存、控制链路与数据缓存、数据链路分离设计技术。HP实现的是集中式缓存设计控制缓存相当于数据缓存的集中索引。XP拥有2块独立的控制缓存卡,互为镜像保护,不存在单点故障。任何一个读写操作以前,均要通过控制缓存,迅速检索出某个卷的某个数据块在数据缓存的线性地址,然后再依

19、据该地址对数据块进行操作。这种集中式缓存设计拥有业界最高的缓存管理效率; XP具备缓存智能调整策略,可自动识别读、写缓存的比例已达到缓存利用的最佳效率。30%容量是基本读缓存,30%是基本写缓存,40%是智能调整部分,因此XP24000可根据业务特点灵活调整,使得系统能自动吻合客户需求,表现最高的系统效率;3.2 EMC DMX-4缓存技术DMX-4/DMX-4 950采用的是典型的分布式缓存设计。DMX-4的缓存满配置8块缓存卡中,每块缓存卡互相独立。DMX-4缓存为混合缓存,既包括数据信息,也包括控制信息,而不存在独立和集中的控制缓存卡,每块缓存卡上分配一定地址范围作为该缓存卡的控制信息或

20、索引。即每块缓存卡部分内容为控制信息,其他为数据信息,这种无集中控制缓存机制的设计就是分布式缓存架构。在分布式缓存结构中,对任一数据块的访问,必须对缓存卡进行遍历查询,至少要遍历缓存卡的控制信息区域。因此该缓存设计模式效率是比较低的,这就是EMC不参加SPC性能测试的原因之一吧。3.3 IBM DS8000缓存技术IBM DS8000为了提高数据写入到Cache的可靠性,在设计上引入了一个NVM的机制。如下图所示,IBM在常规缓存(IBM也称之为volatile memory,即读Cache)外,专门增加了一块永久内存模块(Persistent Memory,也称为NVM)用来做写Cache,

21、所有外部服务器/主机写入I/O全部先写入这个永久内存模块,然后在两台p570上分别配置独立永久内存模块,交叉将双方的写数据写入对方的写Cache中实现镜像。如下图所示。但是非常遗憾的是,DS8100设计的NVS镜像后最大只能为4GB,DS8300设计的NVS镜像后最大只能为8GB,根本无法满足一般应用的正常需求。一旦某些业务要处理大批新数据时,这是NVS写Cache显然不够用,系统将频繁地根据LRU算法更新NVS的空间,从而导致NVS的抖动,这将会急剧降低系统的总体性能。如移动公司每个月底将数据写入到数据仓库系统中时,将造成大量数据写,系统的性能会明显降低,甚至出现“假死”现象,实际上就是系统

22、休克。4 缓存并发访问能力比较由于缓存在提高存储系统,特别是高端存储系统的整体性能所充当的关键作用,使得缓存的设计、缓存的管理机制,特别是缓存访问的并发程度,变成影响存储性能的核心因素。下面就对几个产品的缓存并发数做一个详细说明,希望能进一步加深客户对高端存储系统的认识。HP XP 24000EMC DMX-4IBM DS8300Cache并发访问数3203216HP XP 20000EMC DMX-4 950IBM DS8100Cache并发访问数4088从两个表可以明确看出,HP各款高端存储的缓存并发度都极大地超过其它产品,因此尽管HP缓存容量比较小,但性能却大大超过竞争对手。4.1 HP

23、 XP24000缓存并发数XP24000将缓存分开设计为数据缓存和控制缓存。其中数据缓存并发度为64路,是指由内部缓存交换机到数据缓存的通道数共有64路,每路1.062GB/s带宽;控制缓存并发度为256路,只是前端通道控制器和后端磁盘控制器到控制缓存的直连通道数共有256路,每路150MB/s带宽;数据缓存和控制缓存总的通道数为320路,因此一共是320路并发访问数。为了便于理解下面4个图,简单说明一下图中相关名词:CHAChannel Adapter,前端通道适配器,也称通道控制器,用于连接外部服务器/主机;DKADisk Adapter,后端磁盘适配器,也称磁盘控制器,用于连接内部磁盘;

24、SMAShared Memory Adapter,共享缓存适配器,也称控制缓存卡,用于存放系统用的控制信息,索引,内部通讯数据等;CMACache Memory Adapter,缓存适配器,也称数据缓存卡,用于存储外部服务器/主机读写的数据;XP 24000控制缓存并发度为256路XP 24000数据缓存并发度为64路4.2 HP XP20000缓存并发数如上文所分析,XP20000将缓存分开设计为数据缓存和控制缓存。其中数据缓存并发度为8路,控制缓存并发度为32路,一共是40路并发访问数。XP20000控制缓存并发度为32路XP20000数据缓存并发度为8路4.3 EMC DMX-4/DMX

25、-4 950缓存并发数请到EMC官方网站上下载EMC DMX-4技术规格文件,其中“EMC Symmetrix DMX-4 Specification Sheet”中“System Resources”部分,最后一行“Concurrent memory transfers 32 4 per Global Memory Director”。这里简单说明一下:- 所谓“Global Memory Director”就是指DMX-4的缓存卡;- DMX-4最少配置为4块缓存卡,最多为8块,每块卡系统设置为4个区(region),每个区同一时刻只允许1路I/O访问,因此并发访问为16路32路;- DM

26、X-4 950固定配置只有2块缓存卡,因此一共只允许8路并发。4.4 DS8300缓存并发数这是DS8300两台p570控制器的互连图(interconnection),DS8100只有Loop 0,而DS8300支持2个RIO-G互联环路即Loop 0和Loop 1。其中I/O enclosure中有连接服务器的Host Adapter和连接磁盘的Device Adapter,所有外部服务器提出的I/O请求以及对磁盘发起的I/O请求,都必须经过这个RIO-G。Processor Complex 0和1就是指p570服务器,每个服务器通过2个端口连接到RIO-G环路上,每个端口支持2路并发环路

27、访问,一共可支持8路并发访问。因此DS8100可支持8路,而8300可支持16路并发访问。4.5 小结高速缓存是影响高端存储的关键部件,高速缓存的并发访问可以成倍地提高存储系统的综合性能,并发访问数没有提高上去,后端的磁盘通路再多有什么用呢?(注:磁盘再快,都只有CPU/Memory的1/1001/10。)5 IO性能存储性能衡量的指标通常只有两个:一个是持续访问带宽,另一个是IOPS。持续访问带宽代表了存储单位时间的最大吞吐量,核心就是磁盘阵列的Cache访问带宽。 XP 24000的Cache持续带宽是106GB/s,DMX-4是32GB/s,DS8300也只有16GB/s。 XP 200

28、00的Cache持续带宽是13.3GB/s,DMX-4 950是8GB/s,DS8100也只有8GB/s;IOPS值代表每个IO的块大小一定的情况下,存储每秒钟能随机处理的IO数量。IOPS代表了最理想情况下存储在OLTP环境下的随机IO的处理能力。IOPS各个厂商有自己公布的值,但是出入很大而且没有一个独立的标准。因此真正可以比较的是第三方独立存储性能组织SPC的测试值。SPC有自己公开的测试标准,也是一个业界公认的独立的衡量标准。从目前在SPC已有测试结果看,目前高端只有HDS USP V和IBM DS8300 Turbo参加测试了。由于USP VM与USP V、DS8100与DS8300

29、是统一系列不同产品,因此通过比较USP V/DS8300,可以在一个基础数据之上进行类比分析,得到一个相对客观的结论。5.1 测试结果公开网站http:/www.storageperformance.org/results/benchmark_results_spc15.2 DS8300测试结果DS8300 Turbo性能曲线图,数据来源SPC说明:DS8300 Turbo 100%负载点IOPS值为123033.4,此时系统的响应时间已经为17ms左右。5.3 XP24000测试结果XP24000性能曲线图,数据来源SPC说明:XP 24000 100%负载点IOPS值为200245.73,

30、此时系统的响应时间仅为5ms左右。5.4 对比100%负载点时,XP24000性能(每秒响应主机读写次数)是DS8300的1.6275倍,系统响应时间(主机读写平均等待时间)前者是后者的是0.2941倍,因此系统综合性能效益表现HDS USP V是IBM DS8300 Turbo的5.5338倍。5.5 DMX-4/950测试结果EMC DMX-1到DMX-4所有产品都没有进行公开测试,不知其确切原因。但从众多第三方的信息了解到,EMC主动不参加SPC的第三方独立测试的可能性大。6 存储虚拟化整合技术6.1 HP XP20000/XP24000虚拟化存储虚拟化管理是目前存储界最尖端技术。现在得

31、到客户认同,并真正可付诸实施的产品就是HP的XP20000/ XP24000。IDC、Gartner、ESG等独立咨询机构都给予了高度评价。XP24000可以将连接在同一个SAN上或者是直连的其他外部存储系统(如EMC CX/DMX、IBM DS4000/DS6000/DS8000、HP EVA等等)映射成内置卷,然后对其进行虚拟化管理。虚拟化以后的设备对主机透明,主机不必关心虚拟化存储池内的不同设备,只需面对XP24000即可。存储虚拟化可实现数据的分级存储。对于不少用户的业务系统,这一功能非常有效:用户可以选择将使用频率最高、访问最密集的数据存放在XP24000内部磁盘的一级存储上,而将那

32、些需要归档或者是访问品率降低的老数据转移到由XP24000管理的外部存储设备上,这些外部设备可以选择容量更大,成本更低的存储来实现,也可使用客户已有的旧设备。所有应用访问都不用关心任何后台存储环境的真实变化,仅仅需要访问XP24000虚拟化平台阶。这样既满足了用户各种集中访问的需要,又能依据数据的时效性和重要性,灵活地进行数据部署,最大限度地降低建设和维护成本,真正实现数据生命周期管理。需要指出的一点是,XP24000虚拟化机制具有“性能遗传”能力。高性能的虚拟化平台可替代原有旧存储的传统控制器,并大幅度提高被虚拟化磁盘阵列的I/O响应能力,彻底改善低端盘阵或者就盘阵的性能问题,大大提高了低端

33、盘阵和旧盘阵的使用价值。同时XP24000并不将用户锁定在虚拟化引擎上,而是完全开放的,在虚拟化的同时也支持外部盘阵数据的独立使用。XP24000虚拟化平台对外部存储管理的过程中,采用外部存储本身的数据格式,完全维护了数据在外部存储上原有的方式,因此在数据迁移过程中,不会对原有的数据格式做任何修改,这样使得原有存储系统上数据得到充分保护,各个方向的数据迁移非常平化。就是未来客户要更换虚拟化平台,也会发现外部存储系统离开XP24000数据照常使用。这给客户拥有了更多的方案选择权。6.2 IBM和EMC虚拟化技术IBM DS8000存储自身没有虚拟化能力,不能整合外挂任何外部盘阵,而需要借助专门的

34、设备执行虚拟化功能,即SVC(SAN Volume Controller)。IBM SVC由多个Linux PC服务器构成,挂接到SAN网络后,会识别并管理SAN网络中的物理存储设备,将物理LUN虚拟化以后成为逻辑LUN提供给主机访问。主机的I/O访问会先经过SVC,然后到达存储。SVC在主机的数据访问通道上提供复制、数据迁移等服务。总之,SVC相当于在主机和存储之间,插入一台服务器,将存储设备虚拟化后在提供给主机访问。SVC是典型的基于SAN网络带内(in-band)技术,这种技术由诸多问题:1. 性能问题:SVC在主机和存储之间增加一个环节,要对数据卷的路由进行重选,以及维护每个存储系统地

35、最新LUN信息,会造成大量延迟,降低了整个存储环境的性能;2. 安全问题:所有数据包都要经过SVC存储转发,SVC要实现所有数据包的开放和路由重选,对数据的安全性产生有很大隐患;3. 案例问题:在全球范围,很少客户关键业务系统采用SVC虚拟化案例,在国内几乎没有看见。EMC两年前即发布了其虚拟化产品,叫Invista。但是EMC自己都没有信息向市场推介。主要原因如下:1. 必须配置专用高端SAN交换机Invista首先向专用的高端SAN交换机中插入一对专用的通信接口板,然后采用一台专用服务器挂接到SAN网中,专用SAN交换机通过这对接口板,快速向服务器传送主机访问LUN的路由表,服务器对路由重

36、选后,发回给交换机后,在传给存储系统进行数据读些。2. 专用SAN交换机,专用路由服务器,大大增加了虚拟化解决方案成本;3. 所有路由必须重选,对整个Invista虚拟环境的综合性能影响很大;4. 路由机制复杂,系统很不稳定,实施也非常困难;2年以后,国内市场没有一个成功案例。四川移动曾经买过一套,但是最终无法实施,客户只能采用其一台简单存储系统,其根源是就在于此。7 存储分区技术XP20000/XP24000等高端存储系统主要地是为客户数据中心的多业务和大量数据整合而设计的。在多业务整合的过程中,越来越多的业务在整合的同时,需要强调数据的安全性以及相互隔离,同时强调不同级别的应用系统对系统资

37、源的不同占用,因此业务整合本身就强烈地要求存储分区技术与之配套。HP XP存储分区技术能把一个物理的存储系统配置为4个、8个甚至是32个完全独立的存储分区(我们也称之为Storage Machine),每个Storage Machine拥有独立的存储接口(连接外部存储交换机或者主机),高速缓存,磁盘RAID Group。特别要说明的事,每个分区的Cache可根据该分区支持的应用规模灵活设置,每个分区Cache都可以不同,可以在线灵活调配。这就使得采用了存储分区技术以后,每个Storage Machine完全隔离,数据拥有绝对的安全性,而且独占分配到的存储资源,拥有自身独立的存储性能。众多客户在实际使用过程中,针对不同级别的核心应用系统分配不同资源供其使用,根本目的是保证核心业务系统获得更好的性能因此HP XP存储分区技术帮助客户在存储整合的同时,获得更高的数据安全性和更加灵活的系统配置,最大限度地保证业务系统的综合表现。总之,HDS存储分区技术已在大部分进行业务和数据整合的环境中广泛使用,它对业务整合环境带来了如上所述许多非常明显的好处,这已得到大多数高端客户的认可。IBM DS8100没有存储分区技术,DS8300 9B2型只能分为2个大小相等的分区;EMC所有产品不具有存储分区技术。

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 生活休闲 > 在线阅读


备案号:宁ICP备20000045号-2

经营许可证:宁B2-20210002

宁公网安备 64010402000987号