EMC云存储.ppt

上传人:laozhun 文档编号:2818468 上传时间:2023-02-25 格式:PPT 页数:47 大小:7.56MB
返回 下载 相关 举报
EMC云存储.ppt_第1页
第1页 / 共47页
EMC云存储.ppt_第2页
第2页 / 共47页
EMC云存储.ppt_第3页
第3页 / 共47页
EMC云存储.ppt_第4页
第4页 / 共47页
EMC云存储.ppt_第5页
第5页 / 共47页
点击查看更多>>
资源描述

《EMC云存储.ppt》由会员分享,可在线阅读,更多相关《EMC云存储.ppt(47页珍藏版)》请在三一办公上搜索。

1、EMC 云存储,不同角度的云视图,云的两种应用场景,外部云(公共云)提供给消费者及商业客户通过互联网应用的不同服务。,内部云(私有云)构建于企业防火墙后限用于企业内部的商业应用服务。,Software as a Service(SaaS)软件即服务 提供应用级别的服务,Platform as a Service(PaaS)平台即服务 提供客户化开发及运行环境的服务,Infrastructure as a Service(IaaS)基础架构即服务 提供弹性、按需的基础架构资源的服务,传统数据中心,虚拟数据中心,Email,CRM,ERP,Finance,数据中心在发展,MDS SAN,Nexus

2、 LAN,IaaS建设目标,IaaS(基础架构即服务)是把基础架构资源根据应用的要求弹性、动态地进行配置、使用,并对实际的用量生成报告。此服务可以对内提供,也可以作为一项业务向公众提供。对内服务可以优化EDC资源利用率,增强业务可用性;对公众服务可以进行收费,是一项IDC的增值业务。特点:多租户同时共享资源池租户的业务应用无法预先规定租户存在相互隔离、独立进行访问控制等安全性要求租户除了要求基本的计算和空间资源外,还需要备份、容灾、安全等数据管理的要求,云计算下的IT应用、运维模型,云计算技术体系结构及特点,按需服务,弹性调配,伸缩性,虚拟化,计算虚拟化,+,=,1N,N1,伸缩性,实现N1的

3、方法因应用而异。,1)提高资源利用率2)提高可靠性。,数据虚拟化,数据云能力图,信息存储云 根据不同的 SLA按需动态调配资源,存储能力多协议横向扩展分层存储全局空间绿色节能虚拟资源虚拟路径QoS,归档能力透明迁移自调迁移空间迁移文件迁移信息迁移法规遵从,备份能力连续保护快照克隆虚拟带库备份软件数据消重,容灾能力同步异步连续容灾三点应用一致,管理能力,安全能力访问控制 身份验证 凭据管理 丢失防范 信息加密防欺诈 事件管理,咨询 实施 服务 支持,业务系统,EMC的云战略,技术,产品,服务,支持,研发,收购,联盟,研究,EMC,可信计算+虚拟化:Daoli(道里)计划EMC中国卓越研发集团联合

4、国内多所高校共同研究http:/www.daoliproject.org/,联合,私有云整体解决方案,VAS统一云架构,目标:建设VAS统一云架构满足不同应用的增值业务及管理平台的需求。能够有针对性地满足数据库、文件、影视音频、图片等不同类型的数据对性能、ILM等不同SLA的要求。并充分共享基础架构资源,提高利用率及可靠性,提升市场应对能力。思路:计算平台:采用Cisco的UCS构建能够支撑大容量VM的1N架构;网络平台:采用FCoE技术简化布线,构建统一的网络平台;存储平台:采用EMC的V系列云存储建设能够分层的存储空间池、并能够采用块数据访问的接口提供最透明的应用接入和最佳的性能。采用EM

5、C的NAS GW提供共享的文件访问,满足增值业务能力动态扩展的需求;采用EMC的MPFS提供并行访问支持能力,满足对影视、音频、图片等大、中型数据提供高性能支持;充分采用创新技术保证VAS统一云存储架构的绿色、节能:分层存储、信息生命周期管理(ILM)、虚拟存储资源、磁盘怠速等。,VAS统一云架构,存储云,网络云,计算云,文件访问接口,并行访问接口,块级访问接口,统一网络(FCoE),1N架构(VM),N1平台,计算平台管理,网络平台管理,存储平台管理,存储空间池(V系列),集成统一管理平台,Symmetrix V-Max Series with Enginuity Technical Pre

6、-Sale,-14,Symmetrix V-Max:与 DMX相比,Virtual MatrixInterconnect,新的 Virtual Matrix 体系结构为高端存储功能带来革命性的改变,最大的V-Max配置:64-128 主机/SRDF端口2x the connectivity of a DMX-4128 后端通道2x more than a DMX-4Up to 2 PB of usable capacity(3x DMX-4)32 Intel Xeon CPUs/128 cores比DMX4性能提高 3倍1 TB 全局缓存比DMX-4提高2倍Block-level CRC fo

7、r improved memory efficiency,构建虚拟数据中心:从一个Symmetrix V-Max Engine开始,Virtual Servers,构建虚拟数据中心:轻松扩展更多 V-Max Engines,Virtual Servers,构建虚拟数据中心:跨数据中心的联邦系统,构建虚拟数据中心:跨数据中心的联邦系统,构建虚拟数据中心:跨数据中心的联邦系统,联合虚拟矩阵愿景多代阵列作为单个存储命名空间管理跨联合矩阵无缝执行工作负载迁移,构建虚拟数据中心:跨数据中心的联邦系统,一个虚拟矩阵,数十万TB 容量,数百个V-Max 引擎,数千万IOPS,数万个磁盘驱动器,数十万虚拟服务

8、器,V-Plex Scale Out Architecture,V-Plex,下一个V系列,?,Celerra多协议支持,iSCSI,NAS,连接选择光纤通道低成本 IP交付选择基于文件基于数据块,增长途径由 NAS 到 MPFS,以提高吞吐量由 iSCSI 到光纤通道,以提高吞吐量独立扩展前端和存储,以太网文件共享,以太网iSCSI SAN,Celerra,X-Blade 机箱(一到四个)DART 操作系统二到八个刀片N+1 或 N+M 高级故障切换IP 连接模块(每个刀片对应六个 UltraFlex I/O 插槽):四个 10/100/1000 铜质以太网端口模块两个千兆以太网光纤端口模块

9、加上两个 10/100/1000 铜质端口模块一个 10 千兆以太网端口模块控制站(一个或两个)配置和管理可靠性、可用性和可维护性Symmetrix 或 CLARiiON 存储,体系结构和组装,Celerra NS-G8 网关,Symmetrix,CLARiiON,SAN,Celerra Multi-Path File System,NAS Request and SAN Delivery Servers connect to storage network Servers connect to an out-of-band“metadata”controller(Celerra)Server

10、s send file requests to Celerra via IPData access is done directly via SAN(Fibre Channel or iSCSI)One Celerra gateway platform can scale to thousands of application nodes,CELERRA UNIFIED STORAGE,Servers,FibreChannel or iSCSI,NS-480,IP network,MPFS in Operation,Celerra returns metadata to MPFS driver

11、,MPFS driver performs IO over iSCSI or Fibre Channel,Celerra retrieves metadata from storage,NFS client issues write-file request from mount,Linuxserver,Celerragateway,CLARiiON,IPnetwork,Technique#1:MPFS Data-Path Offload,Control path(11 percent of workload)Runs through CelerraMetadata and small IO

12、requestsDirectory-and file-metadata management(7 percent of workload)File system block allocation and locking(4 percent of workload)Data path(89 percent of workload)Runs through storage networkRead and write requests,Servers with MPFS driver,NFS/CIFS(native)and FMP(MPFS),Celerra,NFS/CIFS/MPFS,File s

13、ystems,iSCSI orFibreChannel,Data path,Storage array,Control path,89%,7%,4%,Technique#2:MPFS Data and Metadata Caching,First IO:Moves entire metadata block map from Celerra to serverReads:Uses cached metadata map to pre-fetch application dataWrites:Indicates modification to other clients,Technique#3:

14、MPFS Parallel Data Access,MPFS can break up large IO to facilitate parallel access to multiple volumes striped across multiple RAID GroupsAccess by multiple clients can result in cache hits in the array,Technique#4:Low-Protocol Overhead,CIFS32 KB block sizeWill require 32 network calls from hostMPFS

15、256 KB block sizeWill require one FMP map call and four iSCSI read calls,total of five network calls from host,TIME,CIFS,MPFS,Protocol overhead,Example:Windows Application Reading a 1 MB File,MPFS Performance Data,Source:EMC Engineering,European Telecommunications Provider,USE CASE,Application:A sma

16、ll number of content distribution engines stream video,audio,images,or files to many online consumers;file sizes average 4 MB,access to files is randomPain Point:Needs to distribute audio/video content to 50,000 users or devices in real time from a pool of shared files at 700 MB/sBenefits:Uses a sin

17、gle Celerra platform for file sharing with scalable performance Celerra MPFS with NS-960 delivers video/audio content at 700 MB/s to 50,000 simultaneous users or devices without increasing management complexityNo application modification(solution applies to audio,video,surveillance,and publishing),C

18、ontent distribution:cost-effective to thousands of users or devices,European Media and Entertainment Company,USE CASE,Application:Rich media with an average file size of 1 GB,access to files is 90 percent read,sequentialPain Point:Solution must support 100 TB of storage,100 MB/s per stream server wi

19、th low latency,and have the ability to scale upboth IO and diskBenefits:Provides for a solution that offers scalable performance and capacity,allowing the system to grow as customer base expandsSupports block level transport of content between the stream servers and stored content,via iSCSI,which pr

20、ovides high performance and low latencywithout the costs of implementing a full Fibre Channel infrastructure,High-performance streaming:video(IPTV)services using MPFS,每 TB 存储的能源/性能,73 GB15K 光纤通道,146 GB 15K 光纤通道,300 GB 10K 光纤通道,500 GB 7.2K 光纤通道,787 kWh/yr/TB,1,434 kWh/yr/TB,3,048 kWh/yr/TB,6,096 kWh/

21、yr/TB,1 TB7.2K SATA,393 kWh/yr/TB,400 GB闪存驱动器,753 kWh/yr/TB,30 倍的IOPS 提升,能耗减少94%,能耗减少87%,能耗减少73%,能耗减少50%,EMC FAST 的价值,业务应用程序始终得到优化从不需要在容量和性能之间折衷权衡能够同时降低成本并 提高服务级别,Symmetrix,Celerra,CLARiiON,2009 年 12 月,2009 年 12 月,2009 年 12 月,FAST“精打细算”:子 LUN 级别的分层,设备池,允许将最不活跃的数据移动到 SATA 驱动器,而不会影响性能,存储池,未来能力,FAST“小”

22、而且“环保”,降低容量和能耗达 30%以上,高效率技术减少存储容量:重复数据消除+压缩+驱动器降速,存储池,设备池,未来能力,Celerra FAST:其工作原理是什么?,Rainfinity 文件管理设备与 Celerra API 相结合,可自动跨存储层调整文件位置基于用户定义的策略执行操作,以优化文件放置可在定义的最多三个层之间移动和回调文件支持“机箱内”和“机箱外”层,自动将文件与适当的存储相匹配,以优化服务级别和降低成本,闪存,光纤通道,SATA,Celerra FileMover API,Celerra FileMover API,策略引擎将数据从 Celerra 迁移到辅助存储Ce

23、ntera 或 Celerra 支持对辅助存储进行重复数据消除和文件保留Celerra 使用存根文件替换文件内容元数据仍保留与 Centera 进行保留协作当客户机读取已迁移的文件时,Celerra 会根据策略检索数据传送过去迁移回来,开放 API 用于实现存储层之间自动、透明的数据移动,NAS客户机,Celerra主存储,文件 IO,迁移文件,迁移文件,检索文件,辅助存储,带 ATA 的Celerra,Centera,消除文件重复,策略引擎:Rainfinity 文件管理应用装置第三方,用更小容量存储更多数据,现已提供,Celerra FAST FAST 用于基于文件的数据和非结构化数据,C

24、elerra FAST 部署选项“机箱内”和“机箱外”分层,容量节省,Celerra 重复数据消除概述,Celerra X-Blade,智能数据选择避免活动数据可调选项文件大小文件期限文件扩展名,内部策略引擎在后台运行使用限制可以避免对客户机服务造成负面影响,利用 EMC 技术压缩引擎重复数据消除引擎,Celerra 文件级重复数据消除体系结构,管理,重复数据消除过程策略引擎扫描所有生产文件,查找符合特定条件的数据上次访问/修改时间、最小/最大大小、文件扩展名压缩备选重复文件生成严格的重复文件删除重复的文件存根指向隐藏重复数据消除存储区中的文件重复数据消除对客户机是透明的进程在后台运行文件的预

25、处理和后处理看起来相同隐藏重复数据消除存储区是一个不可见的“工作区”在内存中而不是在磁盘上读取解压缩数据将解压缩数据写入并恢复到磁盘上修改文件的一个实例不会对其他消除重复的实例产生影响,Celerra 重复数据消除,启用重复数据消除的文件系统,用户可见区域,隐藏重复数据消除存储区,文件 B,活动文件,文件 B(活动),存根 B,文件系统筛选,根据扩展名筛选文件防止将特定类型的文件保存在共享中防止特定用户或组访问共享中特定类型的文件,CelerraNS-960,文档,演示文稿,.avi,管理,嵌套装载文件系统(NFS 和 CIFS),多个文件系统显示为单个虚拟文件系统管理员可以将文件系统作为单个实体进行导出和共享简化自动装载管理简化对文件和文件夹的访问,管理,

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 建筑/施工/环境 > 项目建议


备案号:宁ICP备20000045号-2

经营许可证:宁B2-20210002

宁公网安备 64010402000987号