H3C数据中心网络解决方案ppt课件.pptx

上传人:牧羊曲112 文档编号:1376336 上传时间:2022-11-16 格式:PPTX 页数:34 大小:2.53MB
返回 下载 相关 举报
H3C数据中心网络解决方案ppt课件.pptx_第1页
第1页 / 共34页
H3C数据中心网络解决方案ppt课件.pptx_第2页
第2页 / 共34页
H3C数据中心网络解决方案ppt课件.pptx_第3页
第3页 / 共34页
H3C数据中心网络解决方案ppt课件.pptx_第4页
第4页 / 共34页
H3C数据中心网络解决方案ppt课件.pptx_第5页
第5页 / 共34页
点击查看更多>>
资源描述

《H3C数据中心网络解决方案ppt课件.pptx》由会员分享,可在线阅读,更多相关《H3C数据中心网络解决方案ppt课件.pptx(34页珍藏版)》请在三一办公上搜索。

1、数据中心网络解决方案,密级:公开,杭州华三通信技术有限公司,运营商技术部,目录,云计算数据中心对网络的挑战H3C云计算数据中心解决方案H3C新一代数据中心产品及应用,云计算数据中心对网络的挑战,挑战一:流量模型,挑战二:突发流量,挑战三:设备性能,挑战四:数据安全,挑战五:网络虚拟化,云计算数据中心对网络的挑战,挑战一:应用模式的变化带来的流量模型变化,数据,过去:线状流量模型多套系统纵向流量80%,横向流量20%流量方向简单突发性小,现在与将来:网状流量模型统一的云计算平台横向流量80%,纵向流量20%流量高度不定向突发性大,新闻,视频,数据,IM,数据,数据,MSS,OSS,BSS,人,人

2、,挑战二:数据中心中的Burst 流量特征,在短时间内,由于交换式网络线速转发能力,特定应用与组网条件下,网络流量突然增大,可能会瞬时超过网络设备的实际速率。,例:,0-5毫秒内速率=4packet/0.005s=800pps0-10毫秒内速率=5packet/0.010s=500pps15-20毫秒内速率=035-40毫秒内速率=1packet/0.005s=200pps50毫秒内速率=17packet/0.050s=340pps问:突发在何时产生?,虚拟机迁移对网络的要求,VMWare VMotion过程对于网络设计本无特殊要求,但迁移的范围要求网络二层连通,不定向突发流量的挑战,不定向的

3、突发流量成为新业务数据中心的典型特征,而未来云计算的应用将使该特征更加显著。网络流量从微观角度观察,其形态非常复杂,对实时性、可靠性敏感的网络,对设备缓存能力的需求十分迫切!,WEB Servers,application Servers,databaseServers,DC Core,DC Aggregation,DC Access,Data center,GE,GE/10GE,10GE捆绑,10GE捆绑,GE/10GE,10GE 捆绑,10GE捆绑,10GE捆绑,GE/10GE,10/40/100G,40G/100G,40G/100G,2007,2010,万兆服务器的部署将驱动数据中心骨干

4、向超高速100G网络发展,挑战三:性能永远是数据中心最大的挑战,以目前一个基本的业务云单元约2000台服务器计算,每个服务器至少需要1GE非收敛带宽,则核心交换区总带宽高达2T,至少需要200个10GE端口,而且必须是任意方向完全无阻塞转发。而未来随着单台服务器能力的提升,带宽需求将更加强烈。,挑战四:安全成为网络的必备基础特性,新一代数据中心流量更大,业务各类更复杂,同时要求网络与安全能随适应业务快速变化。传统的“网络+安全”简单叠加模式已经无法适应新一代数据中心的需要,网络与安全相互融合成为趋势,安全来越成为网络的基础特性。,传统 设备叠加,性能衰减,H3C 应用性能线速,安全渗透网络,计

5、算,存储,新闻,视频,IM,集群1,集群2,集群3,路由,交换,防火墙,IPS,无线,路由,交换,防火墙,IPS,流量清洗,负载均衡,新闻,视频,IM,计算,存储,挑战五:虚拟化成为数据中心的发展趋势,传统 ,H3C 统一交换架构,存储池,Ethernet,计算池,网络资源池,计算与存储资源虚拟化技术日趋成熟,网络虚拟化开始起步网络虚拟化可以大大简化网络逻辑结构,提高整网可靠性,并将进一步根据业务需求灵活调配网络资源,提高网络资源利用率。,目录,云计算数据中心对网络的挑战H3C云计算数据中心解决方案H3C新一代数据中心产品及应用,云计算数据中心无阻塞交换架构,核心层S12500 IRF,接入层

6、S5800 IRF,10GE,10GE*N,GE,10GE,GE,全网采用虚拟化后的链路捆绑技术实现二层链路的负载均衡和备份,实现二层网络扩展,构建无环路、无阻塞的云计算数据中心交换网络。,Internet,接入层交换机通过IRF技术虚拟成一台设备,IRF设备具有统一的管理和转发表项,服务器接口捆版上行,实现接入层的流量负载均衡和备份。核心层设备同样适用IRF技术虚拟成一台,接入交换机通过10GE接口双上行到核心交换机,每组IRF接入交换机的所有上行接口进行链路聚合,实现接入层到核心层的流量负载均衡和备份。,WEB/APP/DB,WEB/APP/DB,安全融合无差异二层网络 SFabric,I

7、RF2 SFabric,SFabric:Security Fabric从接入层到核心层均实现网络安全融合,提供FW、IPS、LB等安全加固、业务优化功能;安全业务灵活定制;任意两点之间线速交换、对等无差异;分布式大缓存;CLOSS交换架构;全线速5000台服务器。,无差异二层网络,满足虚拟机在网络中任意位置的迁移,H3C数据中心网络虚拟化技术-IRF2,IRF: Intelligent Resilient Framework:智能弹性架构,IRF2.0系统物理连接示意,多网卡服务器,10GE,IRF2.0系统逻辑连接示意,802.3ad,普通以太网接入交换机,IRF接入交换机组,802.3ad

8、,多网卡服务器,普通以太网接入交换机,IRF接入交换机组,IRF虚拟技术,降低二层网络成本:消除二层网络环路问题,避免部署复杂的STP通过跨设备的链路聚合技术提高带宽利用率,减少设备端口数保护倒换时间从2-4秒降到200mS以内虚拟化的设备逻辑上是一台,作为一个网元设备进行管理配置,虚拟机网络接入方案,软件VEB方案优点:虚拟机间报文转发性能好与外部网络的兼容性好节省接入层物理交换机设备缺点:消耗CPU资源缺乏网络流量的可视性缺乏网络控制策略的实施能力缺乏管理可扩展性,硬件VEB方案优点:相对于VSwitch(软件VEB),减少了CPU占用率提高了虚拟机操作系统访问物理网卡的性能支持SR-IO

9、V的网卡,可虚拟化出256个虚拟网卡,提高了物理服务的网络虚拟化能力缺点:缺乏管理的可扩展缺乏主流操作系统产品的支持,VEPA标准方案技术特点:借助“发卡弯”转发机制将物理交换机的网络控制策略(如ACL、QOS、端口案全等)和流量监管特性(如端口流量统计、镜像、采集等)引入到虚拟机网络接入层,简化网卡设计,减少虚拟网络转发对CPU开销;缺点:由于流量被从虚拟机上引入到外部网络,EVB技术也带来了更多网络带宽开销的问题,VEPA增强方案(多通道) 一种改进:多通道技术为管理员提供了选择虚拟机与外部网络接入方式的手段。三种选择:可根据网络安全、性能及可管理性的需求,采用中VEB、Director

10、IO或VEPA的任何一种方式为虚拟机提供网络接入。,虚拟机网络之标准VEPA,核心路由器,运维支撑区,内外网分界平面,防火墙,IPS,数据中心级核心交换机,后台接入交换机,后台接入交换机,托管业务区,VIP用户区,自营业务区,网管监控区,接入层,IPSec/SSL VPN远程访问,S12500 IRF2,1GE,N10GE,N10GE,N10GE,N10GE,N10GE,10GE,GE光,GE电,防火墙,流量清洗,10GE,10GE,N10GE,用户自建网络,流量分析,SecCenter,大型综合数据中心解决方案,S5800 IRF2,S5800 IRF2,汇聚接入层,数据中心1,数据中心2,

11、存储,SAN,Layer 2,Layer 2,Layer 3,Layer 3,Layer 2,Layer 2,SAN,DWDM,DWDM,DWDM,Server,Server,存储,VPLS/VLL,IP 网络,分支,数据中心间三种互联方案,三层互联。也称为数据中心前端网络互联,所谓“前端网络”是指数据中心面向internet的出口。不同数据中心(主中心、灾备中心)的前端网络通过IP技术实现互联,园区或分支的客户端通过前端网络访问各数据中心。当主数据中心发生灾难时,前端网络将实现快速收敛,客户端通过访问灾备中心以保障业务连续性。二层互联。也称为数据中心服务器网络互联。在不同的数据中心服务器网络

12、接入层,构建一个跨数据中心的大二层网络(VLAN),以满足服务器集群或虚拟机动态迁移等场景对二层网络接入的需求。SAN互联。也称为后端存储网络互联。借助传输技术(DWDM、SDH等)实现主中心和灾备中心间磁盘阵列的数据复制。,园区,基于IRF的双中心互联方案,L3,L3,L3,L2,L2,汇聚 IRF,接入IRF,L3,L3,L3,L2,L2,汇聚 IRF,接入,核心,核心,DWDM,主、备中心的汇聚层都支持虚拟化,双中心汇聚间可实现跨设备链路聚合;这种方案不需要建立专门的DCI互联设备;双中心间裸光纤/DWDM直连;两中心汇聚上配置 VRRP,一边是MASTER,另一边是SLAVER。,汇聚

13、设备:,关闭STP,基于IRF的多中心互联方案,A中心,B中心,C中心,D中心,跨AB中心的IRF互联节点,A中心,B中心,C中心,D中心,HUB-SPOKE,构建一个同时连接四中心汇聚层的互联节点,该节点由两台支持IRF的物理交换机构成。出于高可用性的考虑,这两台物理交换机应部署在不同的数据中心内(A中心和B中心)。互联节点与各中心的汇聚层采用双链路捆绑互联。在逻辑结构上,四中心与互联节点构成了一个Hub-Spoke的星形拓扑,其中互联节点为HUB,各中心汇聚层为Spoke。,接入,接入,PE IRF,汇聚IRF,核心,核心,汇聚IRF,WAN / IP,MPLS核心网的VPLS 互联方案说

14、明,WAN / IP,汇聚 IRF,接入,核心,MPLS 核心网,PW,PW,PW,PW,PW,PW,VRRP在三个中心的汇聚上运行,服务器GW在一个数据中心的汇聚上;汇聚面向PE侧端口关闭STP;,PE IRF,PE IRF,使能MPLS,关闭STP,偶数VLAN的PW,奇数VLAN的PW,目录,云计算数据中心对网络的挑战H3C云计算数据中心解决方案H3C新一代数据中心产品及应用,核心,汇聚,接入,安全,存储,SecBladeFW,SecBlade AFC/AFD,SecBladeIPS,SecBlade LB,S12508,S7606-V,S7610,S5500,S5800,S12518,

15、S9508E-V,S9512E,S5810,S5820,SecPathF5000,SecPath ASE5000,SecCenterA1000,IX3620,IV5680,UDM统一数据管理平台,H3C全系列的数据中心级产品,数据中心级交换机的价值,业界主流厂商专门针对数据中心应用场景开发数据中心级交换机 传统城域网交换机采用与核心路由器同样的转发、控制平面硬件分离设计,最高可靠性保证采用CLOS多级多平面交换架构,在各种流量模型下均能做到“严格”无阻塞线速转发。所有接口板,交换网板,主控板卡都采用竖插框,设备风道设计符合数据中心的散热制冷系统要求,帮助降低机房整体制冷能耗。分布式超大容量缓存

16、,支持200ms的流量缓存,严格保证数据中心在突发流量频繁时不丢包。超大的ACL硬件资源,利于数据中心内部各种流量策略的部署。IRF虚拟化技术,实现跨设备链路聚合,提高带宽利用率,简化网络结构和管理,即保证二层连通,又避免部署STP协议。,先进的CLOS多级多平面交换网架构CLOS多级多平面交换架构,提供13.32T的交换容量支持未来40G、100G以太网标准单机576个万兆端口接入密度,创新的多引擎控制设计采用了创新的硬件设计,通过独立的控制引擎、检测引擎、维护引擎设计为系统提供强大的控制能力和的高可靠保障,分布式缓存机制及精细化QoS分布式入口缓存端口200毫秒缓存能力大容量硬件队列,高可

17、靠、高安全、可维护软件、硬件、系统三个级别的可靠机制独特的在线健康检测机制,10T级别的数据中心级交换机,S12508/S12518,传统调度模式带来的阻塞情况,传统的选路算法引起的阻塞,线卡板,线卡板,交换网,拥塞,无拥塞,IN_1 = OUT_1,IN_3 = OUT_4,IN_5 = OUT_2,拥塞,无拥塞,IN_7 = OUT_3,传统调度模式:HASH算法选路,流量特征相同,转发路径相同目的接口选路,目的接口相同,转发路径相同源接口选路,源接口相同,转发路径相同,均存在阻塞现象,导致系统性能下降,甚至业务中断,CLOS交换架构实现严格意义上的完全无阻塞,线卡板,线卡板,交换网,IN

18、_1 = OUT_1,IN_3 = OUT_4,IN_5 = OUT_2,IN_7 = OUT_3,智能调度真正实现无阻塞,智能调度模式,交换路径负载分担,实现了交换系统严格意义上的无阻塞!,分布式缓存机制,Ingress Line card,Egress Line card,精确调度!,入端口与出端口均配置缓存缓存空间高达平均每10G端口256MB,每GE端口21.3MB,多个入端口情况下缓存能力均超过200mS。,H3C 新一代数据中心成功应用案例,搜狐新一代数据中心,淘宝新一代数据中心,中石油总部新一代数据中心中石化华北局新一代数据中心郑煤集团新一代数据中心湖北电力新一代数据中心黑龙江国

19、税新一代数据中心,百度新一代数据中心,腾讯新一代数据中心,水晶石新一代数据中心,上海超级计算中心,互联网,超级计算中心,大型企业、学校,江苏广电新一代数据中心北京电视台数据中心广州广电城域网及数据中心安徽有线数据中心,上海电信数据中心中国电信西部信息中心(成都)中国电信广州研究院BSS系统江西电信数据中心青海电信大客户数据中心,运营商,中国移动四川音乐下载中心湖南移动数据中心山西移动业务支撑中心中国移动海南数据中心,河北联通数据中心,IDC汇聚层,IDC核心交换层,托管业务区,VIP客户区,自用业务区,TSR,S7610,S7610,S12500,IDC路由骨干层,IDC汇聚层,S7610,I

20、DC汇聚层,50机柜,50机柜,200机柜,10GE,10GE*4,10GE*4,10GE*4,10GE*2,100M/1GE,1GE/10GE,1GE,10GE*2,项目概述: 中国电信西部计算数据中心成为中国电信集团在中国西部最大的数据灾备中心、信息安全中心、电话呼叫中心基地,也是中国西部最重要的通信交换和信息处理的核心枢纽。对新一代数据中心来说,网络是基石。四川电信要求整体网络方案设计在容量、性能等方面达到业界领先水平;整体架构具备可扩展性,支持向增值业务、云计算类业务的转型发展;优先考虑整体TCO及绿色节能等因素。方案特点: 项目采用H3C S12518 IDC核心交换机2台,H3C

21、S7606 IDC汇聚交换机9台。 核心层S12518采用3210GE大密度万兆线速板卡做核心,凸显IDC核心交换机大吞吐量技术优势;汇聚层S7606根据业务需要选择采用三层路由模式或是二层交换模式与S12518组网;核心层、汇聚层链路采用IRF2.0技术提高带宽利用率,方便管理与维护,节省50%的汇聚交换机端口成本。,中国电信西部信息中心一期建设总体方案,项目概述: 2010年江西电信新建红谷滩数据中心,建设要求面向公众服务与电信内部运营,全面满足资源托管、全业务运营互联网、云计算服务业务支撑需求。方案特点: 项目采用H3C S12508 IDC核心交换机2台。 采用统一交换架构核心交换设备

22、支持高密度万兆线速板卡,满足目前IDC 80G出口容量需求,通过交换端口大缓存特性,保证高可靠业务QOS,采用IRF2.0技术提高带宽利用率,方便管理与维护,构建新一代绿色、节能、可扩展的新一代数据中心。,江西电信数据中心网络拓扑,湖南移动手机支付中心,CMNET核心路由器,运维支撑区,接入交换机,接入交换机,核心交换机S12500,后台接入交换机,后台接入交换机,后台接入交换机,基础业务用户区,增值业务、VIP用户区,自营业务区,网管监控区,汇聚交换机S12500,1GE,310GE,310GE,310GE,10GE,210GE,210GE,防火墙,IPS,10GE,10GE,GE光,GE电,10GE,防火墙,流量清洗,防火墙,IPS,210GE,210GE,210GE,CMNET核心路由器,浙江移动数据中心,接入层,核心汇聚层,托管业务区,VIP客户区,S12500,接入层,10GE,10GE*2,10GE*2,10GE*2,10GE,100M/1GE,10GE,自营业务区,接入层,流量清洗,

展开阅读全文
相关资源
猜你喜欢
相关搜索
资源标签

当前位置:首页 > 生活休闲 > 在线阅读


备案号:宁ICP备20000045号-2

经营许可证:宁B2-20210002

宁公网安备 64010402000987号