《SDN 技术路线选择和 SDN 规划初期重点及实践.docx》由会员分享,可在线阅读,更多相关《SDN 技术路线选择和 SDN 规划初期重点及实践.docx(7页珍藏版)》请在三一办公上搜索。
1、SDN技术路线选择和SDN规划初期重点及实践计算、存储当前已经在做云化的落地,但是光有存储和计算的云化,不是一个完整的云解决方案。如果要做到云化、服务化,把SDN带进去会不会是一个比较好的选择?在SDN技术路线的选型上又应该如何选择?规划SDN网络应该注意哪些?1、企业为什么需要上SDN,能给带来什么好处?近年来,随着数据中心云化的加速,云作为最新的基础设施形态开始被行业认同并接纳。但在云环境下,传统网络技术架构受到了挑战:一方面虚拟化思想的出现,颠覆了原有的数据中心网络模型,使得传统网络技术已不足以适配云环境下产生的新场景,如虚拟机的出现要求网络颗粒度从物理机细化到了虚拟机级别;另一方面面向
2、互联网的创新业务的快速发展,也会对网络的性能、弹性等特性提出更高的要求。软件定义网络(SDN)技术通过分布式架构理念,将网络中数据平面与控制平面相分离,从而实现了网络流量的灵活控制,为核心网络及应用的创新提供了良好的平台,其与云网络发展趋势相契合,是实现云网络服务的有效支撑技术。2、SDN架构与传统的架构相比有哪些优势,尤其是成本这一块?SDN并不能降低网络设备采购成本。SDN价值主要是使企业可以应对上云后所产生的灵活多变的网络需求,提升运维效率和网络的稳定性。如果不与云平台对接,上SDN也没有意义了。当然也存在一些对接风险问题,这就需要企业根据自身情况进行评估。3、如何根据不同的场景选择SD
3、N的技术路线及厂商?SDN发展多年,已较为成熟,各家厂商基本上都能够覆盖当前的企业场景需求。重要的还是后期支持能力,响应的敏捷度,以及价格。4、硬件SDN与软件SDN分别指什么?硬件与软件SDN的优劣势分别是什么?SDN方案分为硬件和软件两大类。硬件SDN是采用专用的硬件交换设备与控制器来实现相关的网络功能,控制器对硬件设备进行策略以及流表的下发,来实现网络相关的功能。它的优点是性能强,比较稳定,缺点是不灵活且组网成本很高。而在软件SDN的解决方案中,网络的功能是通过软件层面的1.inux协议栈以及相关的虚拟交换机技术实现的。它的优点可以避免对硬件网络设备的过度依赖,同时降低了组网的成本,但是
4、软件方案的缺点也比较明显,主要表现在网络的稳定性、性能和可扩展性不如硬件方案。5、软件和硬件SDN,在性能上会有多大的差异,对于后期运维管理而言,会有什么区别?之前对ovs+vxlan方案的性能进行过测试,在无任何加速手段的情况下,极限性能只能跑到3g多一点,瓶颈出在对VXhm报头的解封装上面,只能在服务器中进行软卸载,导致性能感人。但是有许多加速的手段,一是采用dpdk进行软件加速,单对Vm极限速率可提升到近5g,3对即可打满;还有就是在服务器上配置具备VXIan解封装能力的网卡,也能够打满万兆网卡,提升能力比dpdk更强,但这还是依赖了硬件能力。另外软件SDN性能与方案架构也有关系,比如分
5、布式路由性能要强于集中路由。对后期管理而言,软件方案对物理网络设备没有太大影响,主要都是通过OPenfIoW流表实现;硬件方案网络设备上配置较复杂,在上面实现VXlan能力,服务器上依然通过流表实现V1.AN。如果自己长期维护,稳定性上硬件要强于软件,但是难度上也高于软件。6、软件SDN是否符合金融业对网络架构中隔离性的要求?随着SDN在各个测试环境的落地和实施,通过实践经验和压力测试过程,连接外部关联的防火墙,蜜罐,内部软防火墙等等设备后,SDN已经符合目前要求的等保标准和生产标准。SDN的软防火墙已经和硬防火墙有同等防御能力和共功能。而且目前新建数据中心网络多部署SDN网络结构。7、软件S
6、DN使用普通服务器进行网络控制,这部分服务器由系统工程师还是网络工程师来进行规划和维护工作比较好?SDN设备部署和基础环境管理是网络管理员责任,包括交换机,防火墙,蜜罐,放渗透设备等。软路由和防火墙策略关系等业务网络连接特性和访问关系,由运维人员负责处理。8、企业当前网络结构较复杂,如何能够快速切换到全SDN解决方案?从传统网络切换到SDN网络需要详细规划业务网络部署情况和互联情况。先规划出网络区域、网络物理层级、各个业务的互联情况、外联情况、数据过强和蜜罐位置。完成上面需求分析后,规划新的SDN部署过程和ip网段等的分配方式和分类。9、规划SDN网络时,应该提前考虑和规划好什么内容?一般从大
7、到小开始规划,首先SDN网络定位是新建数据中心内的SDN,还是传统网络搬迁到同址的SDN,IP地址规划和新老网互通方式。接着是定位Sdn的整体容灾架构,是同城双中心二层打通的SDN还是三层独立的SDN网络。接着是fabric的部署模式,一般取决于az域或者服务器规模和成本考虑。fabric整体的收敛比,互联带宽大小,vxlan互联方式,vpc规划,分布式网关集中式网关。如果涉及传统业务搬迁,提前考虑搬迁计划和方案。Underlay的部署模式,SDN控制器是通过带内管理还是带外管理。也要考虑模块距离长度的问题,防火墙的部署模式,负载均衡设备的部署模式,安全隔离方案南北向和东西向是否都需要隔离,东
8、西向是否需要服务链引流到防火墙,服务链的匹配能力是否兼容现有网络尤其是负载均衡的VSo从大的层面来看,与云平台采用什么模式对接、业务分布及网络规划如何、怎样与传统区域互通等等。从小层面来看,防火墙、负载均衡的接入方式,业务网、数据网、管理网及带外如何规划,每张网络上都跑什么样的数据,QOS策略如何设计能够满足业务需求,AC1.安全控制规划等等。10、不同厂商的SDN是否可以实现对接,对接前需要准备什么内容?现在主流厂商SDN产品一般来说不建议跨厂商纳管,在早期SDN经常讲白牌交换机,和。PenfloW统一管理,但其实现在主流方案都不是这样实现了。一般都是同厂商来实现比较合适,版本升级简单,功能
9、更全面。不同厂商SDN一般之间三层隔离打通,物理和逻辑上是独立的SDN,这样比较好一些。或者可以找一些相应的云管厂商在多个SDN控制器上封装一层面向客户,就是一个大的SDN控制器。11、银行传统数据中心升级改造,SDN如何兼顾传统数据中心,消除掉不纳管不搭桥不监控现象,是否有较优的过渡解决方案?可以在同城双中心先搭建好跨中心端到端vxlan的两个SDNfabric,在这两个fabric上增加leaf,用borderleaf与传统网络各个区域的核心三层和二层打通,然后把Ieaf按照搬迁计划部署到相应服务器附近新布线,服务器ip和位置不动,只换接入线缆让其接入SDN网络,一般尽量相同网段一批搬迁,
10、然后再迁移网关从传统核心到SDN分布式网关,这样逐步搬迁就可以完成,民生银行数据中心就是采用这种方案完成传统网络向SDN网络升级。12、双活数据中心的架构模式下,大二层的意义是什么?是做大二层的IAAS层面资源灵活调配,还是做基于应用弹性部署的3层负载更加便于管理?哪一种更代表趋势?二层打通会增加虚拟机的漂移范围,做跨中心的大二层一般是有两个原因,一是两个中心A和B资源利用率极不平衡,所以需要虚拟机的跨中心漂移来对中心资源进行再平衡,降低其中一个中心的资源负载;二是客户提出明确需求,云平台支持跨中心的虚拟机漂移,以满足特殊业务需求。跨中心大二层的打通不会带来管理上的便捷,只会增加管理复杂性,一
11、旦出现故障,由于传输线路过长,将极难定位问题。另外跨中心大二层打通会使逻辑上的东西流量变为实质上的南北流量,会增加核心以及骨干的负担,增加专线资源消耗。虽然目前不会出现广播风暴的问题,但在无硬需求场景的情况下,不建议做跨中心大二层。以上纯属个人看法,也请大家讨论。这个问题我的经验是这样的:一般多个数据中心之间是否打通二层最关键是取决于数据库的容灾切换方式。一般银行数据中心重要系统的数据库还是主备架构,主数据所在同机房使用操作系统HA或者数据库层的同步技术实现同机房容灾确保rto时间较小。在同城灾备机房的备库,使用存储同步技术保证备库数据一致性。在异地灾备机房的备库使用存储异步或者数据库层异步技
12、术保证数据库一致性。当主库所在机房发生灾难需要切换到同城容灾机房的备库的时候,有两种方式实现容灾。1.在app使用ip地址访问数据库的场景下,最快速的切换方式是把备库的ip地址改为主库相同的地址,避免更改大量app服务器的配置加快切换速度。2.在叩P使用dns域名访问数据库的场景下,只需要更改dns的a记录解析即可完成切换。第一种切换方式是传统比较常用的方式,使用这种方式的前提的同城双中心需要二层打通部署相同网段,这样才支持跨数据中心修改成相同的ip地址。第二种切换方式不需要二层打通,主备库ip可以不同网段,当然dns改造和GS1.B是必须的。所以一般是否需要打通大二层主要取决于数据库容灾切换
13、的方式,sdn同理,建议传统同城数据中心是大二层架构的可以直接搭建同样打通二层的sdn,如果使用dns或者负载均衡挂在数据库并且已完成dns改造和gslb方案的可以搭建三层隔离的sdn网络,当然从先进性和运维角度后者是未来的主流趋势。这个问题需要从以下两个方面来考虑:一、首先得搞清楚二层打通的目的是什么?一般来讲二层打通的目的主要有以下几个:1 .跨数据中心飘移2 .跨数据中心数据库集群(HA或者AA)3 .跨数据中心应用负载集群对于1、3来讲,其实SDN技术本身有一个优势,就是通过隧道技术解决二层跨地域问题,也就是说通过SDN的隧道技术完全可以实现以上所述的几个功能。但是,有一点是需要注意的
14、,就是如果数据库集群采用的是跨中心的RAC,那么双中心之间的RAC心跳是非常重要的(一致性缓存块儿的传递、锁信息的传递),从稳定性、延时、带宽等各个方面需要一个全面的评估。二、从技术成熟性和复杂度来讲,我觉得二层打通技术更复杂,要求更高;SDN技术从成熟度上来讲缺乏足够的实战场景来发现其中的一些BUG,或许使用过程当中会面临很多意想不到BUG的困扰。综上所述,这个问题首先是要看整体技术架构,然后通过技术架构的优化来实现取长补短(比如说,我可以用SDN实现应用的漂移以及负载的平衡,但是数据库我可以采用主备模式降低风险,提高硬件配置降低复制带来的RPO风险等)。这个问题要分开来看:一、从技术发展趋
15、势上看1.SDN技术从2009年被提出已经经历了10多年的发展,技术逐渐成熟,用户量也再逐年上升,尤其在运营商层面;4 .其核心就是一种数据平面与控制分离、软件可编程的新型网络体系架构,消除了顶层基础架构的兼容性限制,其实可以理解成为网络虚拟化的一种;5 .对于运维人员只需要关注控制即可,转发层甚至是傻瓜交换机都可以。所以从技术角度看的确增加了数据中心的灵活性和弹性。二、从实际困难出发1 .国内掌握SDN神髓的个人或者服务商不多,存在较高的技术壁垒;2 .整体运维成本高,对运维人员的开源技术要求过高;3 .初期投入成本不低,需要各种设备的联调测试;4 .场景化应用有待普及。所以对于成熟的数据中
16、心更倾向于稳定,试错尽量放在测试环境或者非核心的小环境。多活数据中心都上了Sdn用VXlan了,实现了二层网络在三层扩展,那二层打通的意义也不大了吧,IAAS层的飘移也可以通过VX1.AN实现了。这时您的数据中心应该也不会有传统的集中式数据库了吧,HA高可用什么的也不会有了,分布式应用和分布式数据库都基本以这些为主了,那更没必要再引入大二层了,增加管理的复杂性。多数据中心情况下,SDN网络是否要上大二层,笔者认为主要取决于应用场景。对于部分电信应用场景来说,大二层非常有必要,因为有些电信应用场景需要保持IP和MAC地址不变,而且要支持跨数据中心的迁移,在这种情况下没有大二层根本行不通。对于绝大
17、部分互联网应用场景和金融应用场景来说,大二层没有必要,互联网应用有很多技术可以实现跨数据中心的流量分发和集群多活(如负载均衡+域名智能解析),服务器实例不需要在跨数据中心进行迁移。这种情况下,其实没必要上大二层。在多数据中心上大二层技术的好处是支持的场景更多,对于部分用户的应用来说不需要改造,上云更简单方便。但是对于建设和运维来说,肯定会更复杂,由于涉及多数据中心,多数据中心之间的大二层网络如何打通,这在业界也是一个难题。如果采用点对点mesh的方式,即多数据中心之间的虚拟网络直接互联,那虚拟网络节点的规模会成倍增加,这样给查表的速度和网络规格容量都带来很大压力。如果采用1.2GW的方式实现互
18、通,那1.2GW的性能又会成为瓶颈,总体而言这些技术的复杂度要比非大二层高很多。同时,在日常运维中,大二层网络链路较长涉及多个数据中心,一旦出问题影响比较大(如如何避免二层广播风暴),运维复杂度也会增加,对运维人员的要求更高。综上而言,是否要上大二层取决于应用场景,如果应用场景没有强烈的需要,还是不上为好。如果要上,需要考虑随之带来的技术复杂度和运维压力,同时必要的一些技术坑还是得踩一踩才更有底气。私有云SDN网络标准化建设实践随着金融科技创新的深入推进,金融网络的覆盖范围不断扩大、业务种类日益多样、转发流量与日俱增、新业务上线速度越来越快。传统数据中心管理复杂、难以适应新业务发展需要、运维成
19、本居高不下等一系列难题限制了金融数字化转型的进度,云计算、大数据、软件虚拟化等新技术出现后,以模块化、智能化、轻便化为特征的新一代数据中心云计算数据中心应运而生。SDN提出了采用软件定义网络的思路,具有转发和控制分离、控制逻辑集中、网络资源抽象化/虚拟化、网络能力开放化等特点,完美契合数据中心大规模网络的自动化和集中式控制、灵活组网多路径转发、虚拟机部署和智能迁移、虚拟多租户、IaaS等需求。目前普遍的建设方式及不足之处SDN技术已经能够弥补传统网络技术的不足,但是其在实际应用的过程中仍存在一定的问题,例如SDN厂商众多,控制器接口不规范、建设标准不一致,在运维及对接层面带来大量问题。如何提升
20、SDN建设过程中的标准化,是解决数据中心数字化转型的关键。但传统数据中心仍存在着建设周期长、能源消耗大、运维管理难等诸多问题。具体来说,体现在如下几个方面。一是创新困难,创新周期长。传统TCP/IP网络设备结构是控制平面和转发平面深度耦合的结构。二是协议复杂,运维难度大,运维成本高。现在标准协议越来越多,每年仅IETF发布的关于网络设备的标准协议就有上千条,而且还在以每年接近翻倍的速度增加。导致网络设备维保的成本越来越高。三是路径规划能力弱。在一个网络中,为了使所有设备能通力配合,所有设备都需要遵循一定的标准协议。那么体现在网络最重要的功能路径选择上,就是一系列路由协议,传统网络在整体路径规划
21、方面的不足逐步显现。优化思路及优点在SDN网络建设理念方面,邮储银行秉承开放性原则,在SDN建设中提供了对于标准协议的广泛支持,包括EVPN.Vx1.AN.OVSDBOPenFIow、NETeoNF、INT、gRPC、ERSPAN等协议,并可按需求对接任意资源管理平台或云平台,有效地避免了被单一品牌或产品锁定,无法持续发展的风险。基于统一标准,开放包容的理念,邮储银行明确了SDN技术的私有云网络建设,明确了私有云资源池SDN网络设备包括SDN控制器、SDN网关、SDN交换机、防火墙、负载均衡器的功能和性能要求以及SDN整体组网要求。最终需要达到以下建设要求。网络架构重构:目标是简洁、开放。通过
22、网络解耦,转发、控制和业务应用分离,网络能力全面开放,实现网络可编程。网络运营重构:目标是集约、自动化。通过策略和模型驱动的自动化运营,实现控制集中化、全局可调度,以及基于业务链的编排服务开通和配置自动化。网络部署重构:目标是快捷、低成本。通过网络扁平化,实现资源可调度,部署快捷、可扩展。网络服务重构:目标是弹性、按需。通过多方联合创新,实现网络服务互联网化,按需快速配置,变更。标准化内容及主要技术介绍1.SDN网络方案标准化。如图所示,数据中心SDN网络标准架构包括云管区和带外管理区两个管理分区,核心业务区和外联业务区两个业务分区,四个分区物理上独立部署,出口分别接入到的现网设备中,核心业务
23、区和外联业务区和云管区通过SDN南向纳管互通防火墙连接,来实现SDN南向管理流量的安全控制。WIIMMServer1.eaf案用跨设备链路聚合部署,Spine采用独立部署,SerVCer1.eaf下联云控制节点和计算节点的管理网卡,SDN控制器服务器北向连接在管理Servcer1.eaf上来实现对网络设备的纳管和配置的下发,采用单Border1.eaf单出口方式与数据中心云管核心互联。外联业务区域采用标准BorderSpine-1.eaf的SDN网络架构,使用云网一体化场景,Border1.eafSerVer1.eaf和SerViCe1.eaf采用跨设备链路聚合部署,Spine采用独立部署,防
24、火墙旁挂在Border实现不同VPC间东西流量和南北流量的安全互访,SerVCer1.eaf下联云计算节点业务网卡,采用单Borcler1.eaf多出口方式分别连接到外联网络、实现业务的访问,1.B接入到SerViCe1.eaf上按需实现负载均衡功能。核心业务区域采用标准BorderSpine-1.eaf的SDN网络架构,使用云网一体化场景,Border1.eafSerVer1.eaf和SerViCe1.eaf采用跨设备链路聚合部署,Spine采用独立部署,SerVCer1.eaf下联云计算节点业务网卡,采用单BOrder单出口方式分别连接到数据中心4台核心交换机、实现生产业务的访问,1.B接
25、入到Service1.eaf上按需实现负载均衡功能。2.SDN网络资源运维标准。数据中心的基础运维工作主要包含包括四个部分:基础环境、网络、服务器存储和基础软件。综合考虑未来数据中心硬件管理演进方向,目前云数据中心网络可依托带外管理手段,结合大数据、分布式技术,建设一套可以纳管服务器、网络、存储等各类型IT设备的硬件管理平台,实现数据中心运维模式转变,进一步契合当下环境,打造了从人维转向智维、从被动转向主动的规模化IT设备运维体系,达到快速感知硬件设备故障、快速获取设备信息、快速记录设备维护等良好效果,为行内各项业务的稳定运行铸好基础。数据中心自动化运维管理的基本实现过程有四步:一是平台的构建
26、,自动化运维技术是加持在平台之上,在对平台中的信息数据管理时识别风险。二是故障触发流程的设定,需根据实际平台的信息管理需求,对故障信息进行扫描和统计,上报给管理人员。三是事件跟踪流的设计,为了防止人为操作对自动化运维管理造成过大影响,应在自动化信息比对分析的基础上,针对每个事件构建完整指令,防止人为干预风险。四是关键流程的控制,在实际自动化运维管理过程中,部分流程需单独进行管理,容易出现披露,针对容易出现的风险需制定各种处理规划,为管理人员提供建议,一旦出现关键流程风险,则可及时采取应对机制,防止造成过大影响。邮储银行SDN标准化亮点介绍通过上述措施,邮储银行在云平台建设方面取得了明显的成效。
27、管理方面:云、网络、安全等技术的统一结合,通过SDN软件定义网络技术配合标OPenStaCk云平台,实现邮储多个数据中心IT资源的统一管理,使得邮储银行广泛业务通过各地数据中心的计算、网络、存储等IT资源得到统一的调度和分配。高可用方面:架构/硬件/协议等多方面提升可靠性;采用模块化、层次化的设计方法,使得网络架构在功能、容量、覆盖能力等各方面具有易扩展能力。资源交付能力方面:从网络的配置、部署到管理,实现了全面的自动化,提高网络配置与运维管理自动化水平,大幅缩短网络服务交付时间。在邮储银行信息化建设当中,以新华三ADDC为代表的解决方案在邮储银行实现了规模部署,邮储银行协同新华三,整合思想,
28、致力于构建云网一体化标准、打造邮储银行网络标准化模板,承载全行各种业务应用的网络系统。按照标准化解决方案建设的云平台目前在数据中心均稳定运行,承载包括核心、渠道、准生产、开发测试,手机银行、直销银行及最新发行的数字货币等重要业务,在金融业数据中心SDN领域起到了示范性作用。此外,邮储银行以SDN技术为依托,在北向采用标准开放的标准接口,解决了邮储银行多套云平台与网络异构的问题,制定了异构云对接的标准。在邮储银行网络资源池化建设中,邮储银行在M-1.AG、容器网络、网络分析、自动化运维等先进方向不断探索,释放了网络活力,同时提高了投资回报率,大大节省了网络建设及运维成本,使得邮储银行在金融云网络中占领优势领先地位。至此,邮储银行SDN标准化解决方案已经全面助力邮储银行各业务的顺利部署,SDN标准化构建起了邮储银行智能弹性网络,日常整网监控、故障时快速发现和定位的全方位运维保障体系,助力邮储银行建设更快速便捷“云化+智能”的信息化体系,为邮储银行向“体验+智能”的智慧银行全面转型添砖加瓦,更树立起金融行业网络智能化建设的新典范,为数字经济的稳健发展积蓄金融力量。