网络处理器教学.ppt

上传人:牧羊曲112 文档编号:6335024 上传时间:2023-10-18 格式:PPT 页数:122 大小:680KB
返回 下载 相关 举报
网络处理器教学.ppt_第1页
第1页 / 共122页
网络处理器教学.ppt_第2页
第2页 / 共122页
网络处理器教学.ppt_第3页
第3页 / 共122页
网络处理器教学.ppt_第4页
第4页 / 共122页
网络处理器教学.ppt_第5页
第5页 / 共122页
点击查看更多>>
资源描述

《网络处理器教学.ppt》由会员分享,可在线阅读,更多相关《网络处理器教学.ppt(122页珍藏版)》请在三一办公上搜索。

1、第四部分 Intel网络处理器,主要内容,Intel网络处理器概述XScale核微引擎其它功能单元编程模型参考设计,Internet eXchange Architecture(IXA),IXA:泛指Intel网络处理器架构以及相关的支持芯片,包括网络处理器硬件及软件体系结构。IXA包括控制面和数据面处理,定义了硬件抽象、应用编程接口和互连机制,但没有给出细节。IXA的三个重要组成部分:微引擎(Microengine,ME):Intel网络处理器的核心部件,在其它功能单元的支持下执行快路径上的操作。XScale Core:Intel网络处理器的高层控制和管理单元,负责控制面及异常包处理,运行嵌

2、入式实时操作系统。IXA可移植框架:为基于Intel网络处理器的软件开发提供应用编程接口和硬件抽象。,IXA的特性,灵活性:微引擎完全可编程,在低层硬件设备的支持下可实现许多复杂的网络处理功能,具有较好的功能灵活性。高性能(高可扩放性):使用多个可并行操作的微引擎,通过增加微引擎的数目、提高微引擎及XScale核的时钟频率、采用各种减小访存延迟的技术及增加专用的硬件功能单元,可支持高达OC-192的高端处理速度。可移植性:IXA可移植框架提供了应用编程接口和硬件抽象,使得基于该框架开发的软件与底层硬件实现松耦合,具有良好的可移植性和重用性。,Internet eXchange Processo

3、r(IXP),IXP:指实现了IXA架构的网络处理器芯片。IXP典型地包括:一个XScale核多个微引擎片上存储单元若干硬件功能单元与各种外部连接的接口内部总线,第二代IXP网络处理器,IXP2400:8个微引擎,主要面向网络接入和边缘网应用,可用于WAN多服务交换、DSLAM、基站控制器和网关、47层交换、VoIP网关、多服务接入平台等。IXP2800:16个微引擎,主要面向边缘网和核心网应用,可用于骨干网的路由与交换、无线设备、10Gbps的企业交换和路由等。IXP2850:在IXP2800的基础上增加了加密单元,可达到10Gb/s的加解密速度,用于IPSec、VPN、QoS Router

4、等场合。IXP2xxx:泛指任何一种第二代IXP网络处理器芯片。,IXP2xxx的主要部件,一个IXP网络处理器是一块独立的芯片,包含一组复杂的可编程及不可编程的处理器和功能单元:一个嵌入式RISC处理器(XScale Core)8到16个可编程包处理器(微引擎)多条独立的片上总线:提供芯片内部各功能单元之间的高速通道处理器同步机制共享和不共享的片上存储器一个低速串行接口:连接到XScale Core,用于控制和管理多个外部存储器接口:连接外部SRAM、DRAM及ROM等多个外部I/O总线接口计算哈希和加密的协处理器其它功能单元,IXP的外部连接,串行接口:连接到XScale Core,用于控

5、制和管理。PCI总线接口:连接I/O设备及传统CPU。MSF接口:连接外部物理层设备及交换结构,是数据出入IXP的窗口。DRAM总线接口:提供1条或多条DRAM总线。SRAM总线接口:提供多条SRAM总线。慢端口连接:访问ROM/FlashROM等外部硬件单元。,IXP2400外部连接的速度,IXP2xxx的内部组件,数量组件目的1嵌入式RISC处理器控制、高层协议和例外处理8/16包处理引擎I/O、基本包处理和包转发1+SRAM访问单元协调对外部SRAM总线的访问1+DRAM访问单元协调对外部DRAM总线的访问1MSF访问单元协调对外部I/O设备的访问1PCI总线访问单元协调对外部PCI总线

6、的访问1SHaC单元存储中间结果、计算哈希值等1加密单元加/解密操作1系统底盘(chassis)提供内部控制及数据传输通道,IXP2xxx的概念组织,IXP2400硬件结构框图,硬件体系结构:多主控+系统底盘+多目标,IXP2400硬件结构特征,采用了多主控+系统底盘+多目标的分布式硬件体系结构,增强了IXP2400的并行处理能力。具体而言,采用分立的内部总线结构,将不同存储单元的数据总线、数据读/写总线分开,可以同时对不同存储单元进行双向读/写操作。引入命令总线仲裁器对各主控单元发出的命令进行排队判优,保证指令的优先级,避免指令的冲突和拥塞。采用分布式的硬件结构(即多主控+多目标),不同的硬

7、件功能单元各司其职,负责专门的数据处理,可以并行操作。采用多微引擎并行的硬件结构,所有微引擎可同时工作;而且微引擎被进一步分成两个簇,每个簇使用独立的SRAM数据总线,有效地缓解了总线冲突。,IXP2xxx的处理器体系,处理器类型 是否在芯片上?是否可编程?通用处理器否是嵌入式RISC处理器是是I/O处理器是是协处理器是否物理接口硬件 否否,通用处理器(GPP):不是IXP2xxx的一部分,用于执行整体控制和管理功能。物理接口硬件:不是IXP2xxx的一部分,Intel提供专门的芯片实现第一层和第二层的处理。,IXP2xxx处理器体系(续),嵌入式RISC处理器(XScale Core):不是

8、快路径的一部分,用于管理微引擎、提供一个可以下载程序和配置芯片的接口、处理高层协议及例外的包,运行常规嵌入式操作系统。I/O处理器(MicroEngine):只提供少量基本指令的低级设备,不运行操作系统,用于处理I/O设备与存储器之间的低层数据传输及基本包处理,是快路径处理的基础。协处理器和功能单元:有一些构成了快路径的一部分,如SHaC单元、加/解密单元等。,IXP2xxx使用的存储器,存储器类型最大容量是否在典型用途芯片上?GP Registers2564bytes 是中间运算Inst.Cache32Kbytes 是最近使用过的指令Data Cache32Kbytes 是最近使用过的数据M

9、ini Cache2Kbytes 是重用过一次的数据Write buffer未指定 是写缓冲区Local memory2560bytes/微引擎 是本地缓存Scratchpad16Kbytes 是进程间通信和同步Inst.Store4Kbytes/微引擎 是存放微引擎指令FlashROM未指定 否用于启动SRAM64Mbytes/通道 否存放表或包头DRAM2Gbytes/通道 否存储包,四种主要存储器的特性,类型 访问单位 相对访问 特性(字节)延时Local4 1 用LM_ADDR寄存器访问Scratchpad4 10 支持原子操作、进程间通信、微引擎之间的 通信SRAM4 150 支持原

10、子操作、队列和环、比特操作DRAM8 300 连接到XScale、微引擎和PCI总线控制器,LM:提供最小的访存时间Scratchpad和SRAM:支持原子操作,可用来同步并行处理器SRAM:支持队列和环,适合于存放包头或包链表DRAM:有对I/O设备的直接传输路径,容量大,带宽高,适合存放包。,数据访问单位,每种物理存储器都定义了访问单位的长度(也称可寻址数据单位):字(word):2字节的单位(16比特)长字(longword):4字节的单位(32比特)四倍长字(Quadword):8字节的单位(64比特)尽管微引擎和XScale可以为每个字节产生地址,但是底层机制总是一次读/写一个访问单

11、位长度的数据。程序员必须了解存储器的组织,仔细规划数据的布局以最小化访存时间。,基于IXP2xxx的典型系统结构,单片IXP2xxx的系统架构,主要内容,Intel网络处理器概述XScale核微引擎其它功能单元编程模型参考设计,IXP2xxx在网络系统中的使用方法,两种可能的网络系统设计方法,嵌入式处理器的作用,嵌入式RISC处理器可以被分配以下一些或全部的任务:自举:包括片上存储器和处理器的初始化控制微引擎:如启动/停止包处理内存分配诊断和日志交互程序调试(Interactive debugging)用户接口和/或到通用处理器的接口其它管理功能:如创建/修改微引擎使用的数据结构,维护本地转发

12、表,描述配置细节(如每个网络接口的地址)等。异常处理:不匹配任何分类规则的包,产生出错消息的包高层协议处理:负责处理发给本地系统的包(如TCP)应用程序(需要的话),XScale的主要特性,精简指令集计算(RISC):包含较少的指令,指令被设计为能够很快执行,依靠寄存器获得高速度,保证每个时钟周期能够完成一条指令。可配置大端/小端模式的的32位算术运算:处理器引导时配置端模式。由协处理器提供的矢量浮点运算字节可寻址内存:接口硬件按照底层存储器的访问单元长度存取,当与处理器通信时只传输需要的字节。,XScale使用的地址空间,虚拟存储支持:所有的外部存储器及部分片上存储器、PCI总线、其它存储器

13、映射的I/O设备均被映射到一个大小为232字节的线性地址空间,XScale硬件包括一个提供虚存的存储管理单元。有一些存储器是XScale和微引擎共享的,如Scratchpad、SRAM、DRAM,可以用来在XScale和微引擎之间传递数据。微引擎不使用XScale的地址空间,XScale必须处理所有的地址转换。其它I/O:XScale可以访问设备的CSR,可以访问和控制PCI总线上的任何一个设备,XScale的主要特性(续),内部外设单元(只能由XScale使用):作为控制台设备的串口四个32位倒计数定时器:这意味着XScale必须处理所有涉及超时的协议处理任务。四个通用I/O管脚:通过MSF

14、访问,连接到另外的硬件或用于调试Slowport接口:用于系统引导支持内核化操作系统的硬件设施系统控制协处理器15:只能由XScale使用,用于配置和控制IXP2xxx上的几个硬件单元,如MMU、读/写缓冲器、时钟、高速缓存等。性能监视单元:监视指令cache不命中率、TLB不命中率、指令流水线中的停顿、软件引起的分支指令数目。,主要内容,Intel网络处理器概述XScale核微引擎其它功能单元编程模型参考设计,微引擎的用途,在IXP2xxx的处理器体系中,微引擎构成了最低层的可编程处理器。微引擎被设计用来执行快路径上的处理,包括Ingress和Egress协议处理任务:从物理层硬件接收包 检

15、查校验和包头处理和分类包缓存查表和转发包头修改校验和计算从物理层硬件发送包,微引擎架构的特点,一种可编程微控制器(微引擎不是一个传统的CPU)采用RISC设计本地的控制存储器:微引擎的指令存储器执行数据通路(Execution Datapath):微引擎的指令执行单元一个算术逻辑单元ALU一个16入口的CAM,每个入口32比特8个线程和上下文切换的硬件支持数据通道寄存器256个通用寄存器512个传输寄存器128个Next Neighbor寄存器640个字的本地内存一个CRC计算单元可直接访问片上各种功能单元,微序列控制器,微引擎不是一个传统的CPU,而是一个可编程微控制器。微引擎不包含每一种操

16、作的本地指令,运行在微引擎上的程序控制和使用芯片上的功能单元来完成指令。例1:算术运算传统CPU上的指令:add R2,R3微引擎上的指令:alu dest,A_op,alu_op,B_op alu_op包括12种运算符(+、+16、+8、+carry、B-A、B、B、AND、AND、AND、OR、XOR)例2:内存引用传统CPU上的指令:load R3,X微引擎上的指令:sram cmd,xfer,src_op1,src_op2,ref_cnt,opt_tok,微引擎指令集,微引擎指令集的操作码不到64个,分为以下四类:通用指令:算术,循环,移位分支和跳转指令:某一位置位/清零跳转,字节相等

17、/不等跳转,根据事件状态跳转,CAM指令:查找,清除入口,读标签/状态,写标签/状态 I/O和线程交换指令:读/写DRAM,读/写SRAM,读/写队列描述符(SRAM),入队/出队,存储器环操作,访问Scratchpad,,分离的存储器地址空间,微引擎硬件不将存储器或I/O设备映射到一个线性地址空间,程序必须说明数据传输所涉及的存储器,因此每一类存储器和每一类I/O设备都有专门的指令。例如:sram cmd,xfer,src_op1,src_op2,ref_cnt,opt_tokdram cmd,xfer,src_op1,src_op2,ref_cnt,sig1,sig2scratch cmd

18、,xfer,src_op1,src_op2,ref_cnt,opt_tok程序员必须为每个数据项选择将要放入的存储器。,执行流水线,RISC架构:RISC处理器将一个指令的执行分成若干个阶段,通过同时执行几条指令的不同阶段来重叠多条指令的执行。执行流水线:重叠不同阶段执行的硬件。,指令执行在各个级的划分,执行流水线停顿,指令间的相互依赖可能导致执行流水线停顿,如:K:alu R2,R2,+,R1K+1:alu R3,R3,+,R2条件分支也可能造成执行流水线停顿。通常情况下,微引擎硬件继续取下一条指令装入流水线,就好像没有分支一样。,微引擎的执行数据通道,微引擎的指令执行单元也称执行数据通道(

19、Execution Data Path),可执行移位、加/减、逻辑运算、乘法、字节对齐、比特操作、CAM查找等。微引擎要执行的代码存放在本地的控制存储器中,源/目标操作数均为微引擎内部的存储单元(称数据通道寄存器)。执行数据通道采用5级流水线结构:取指令、指令译码、取操作数、指令运算、写运算结果。控制存储器和数据通道寄存器均位于微引擎内部,取指令或取操作数都在单个时钟周期内完成,所以执行数据通道执行一条指令只需要一个时钟周期。,微引擎的执行数据通道(续),字节对齐:从连续的8个字节中取出任意偏移量(03)的连续4个字节。CAM用于快速查找:16个入口每个入口包括32位标签(查找关键字)和4位状

20、态可以写CAM中的任意一行,可以分别写标签和状态程序提供一个32比特的查找关键字,CAM硬件报告查找结果(015的值):cam_lookupdest_reg,src_reg,其中src_reg为查找关键字,结果放在dest_reg中。,CRC单元,CRC单元不是执行数据通道的一部分,它与执行数据通道并行工作。支持16比特和32比特的CRC运算。用于计算ATM或以太网等2层数据包的校验和。,存储器访问延迟和多线程,6?,6?,存储器访问对系统性能影响很大,一次外部存储器访问相当于微引擎执行上百条指令。隐藏存储器访问延迟的最好方法是使用多线程。,硬件线程和上下文切换,每个微引擎支持8个执行线程硬件

21、为每个线程维护不同的状态信息(如一个程序计数器,一组信号事件)硬件可以在线程之间迅速切换而不需要软件的支持,上下文切换为零开销或最多一个时钟周期的开销概念上,微引擎线程就像传统操作系统中的线程一样操作。,线程状态转移,未激活状态:不执行任何操作。执行状态:正在执行控制存储器中的程序,同一时刻最多只有一个上下文处于该状态。就绪状态:具备了继续执行数据处理任务的所有外部条件,等待获得微引擎的控制权。休眠状态:等待某个外部事件的到来。上下文切换由软件控制,处于执行状态的线程执行一条线程交换指令后转入休眠状态,微引擎对当前处于就绪状态的所有上下文进行仲裁判优,将控制权交给优先级最高的上下文。,事件信号

22、,IXP2xxx使用称为事件信号的软件机制同步微引擎的内部操作和外部事件的完成。可以在指令中指定事件信号,令从属单元在完成指令规定的操作后向微引擎发送该事件信号,如:sram cmd,xfer,src_op1,src_op2,ref_cnt,opt_tokdram cmd,xfer,src_op1,src_op2,ref_cnt,sig1,sig2每个线程可以使用15个事件信号,这些信号将线程从休眠状态唤醒。每个线程有两个本地寄存器,分别记录需要等待的事件信号和已经到来的事件信号。在线程交换指令中,可以使用AND、OR等逻辑运算符指令线程需要等待的多个事件信号。,指令存储器(控制存储器),IX

23、P2xxx使用单独的存储器系统(即不使用SRAM和DRAM)存储微引擎指令。指令存储器的组织方式:共享指令存储器:代码共享,节省空间,但有竞争。专用指令存储器:无竞争,要求较多空间。IXP2xxx提供折衷方案:每个微引擎使用一个私有的指令存储器,避免竞争。每个指令存储器的容量限制为4096条指令,避免使用较多的空间。控制存储器属于微引擎的内部存储资源,因而可单周期地读取其中的程序指令。控制存储器中的程序从IXP2xxx的ROM中读入,在XScale控制下完成。,数据通道寄存器,微引擎需要与许多硬件设备交互,许多交互是通过硬件寄存器发生的。微引擎使用的数据通道寄存器包括:通用寄存器传输寄存器邻居

24、寄存器本地存储器,通用寄存器(GPR),每个微引擎有256个通用寄存器,每个为32比特,一般用作指令的源和目的寄存器。通用寄存器的两种使用方法:8个线程共享整个寄存器组:需要处理互斥。每个线程分配32个专用的寄存器:不需要互斥。寄存器寻址方式:绝对寻址:唯一指定一个寄存器。相对寻址:指定当前上下文的一个寄存器。通用寄存器分为两个bank,绝对和相对寄存器地址都必须指明bank及bank中的一个寄存器。指令的两个源操作数分别来自A Bank 和 B Bank。,寄存器绝对编址,传输寄存器,微引擎使用传输寄存器缓存与外部设备交换的数据,以协调微引擎与外部设备之间的速度差异。每个微引擎有512个传输

25、寄存器,按外部总线和传输方向分为四类:D Xfer in reg及D Xfer out reg:用作微引擎与DRAM控制器的数据交换窗口。S Xfer in reg及S Xfer out reg:用作微引擎与SRAM控制器、MSF及SHaC之间的数据交换窗口。传输寄存器可以使用绝对地址或相对地址进行编址。,邻居寄存器与软件流水线,微引擎硬件被设计为支持软件流水线模型,软件流水线可以包含来自多个微引擎的模块。邻居寄存器用来在相邻的两个微引擎之间传递数据。每个微引擎含有128个邻居寄存器,可以被8个线程共享,也可均分为8份。邻居寄存器可由上一个邻居微引擎写入数据,也可由自身微引擎写入数据。邻居机制

26、只用来传递少量的数据,如数据项的地址。邻居寄存器机制类似于一个环缓冲器,微引擎硬件包含了协调发送者与接收者的原语。,访问邻居寄存器环的原语,本地存储器,专用:每个微引擎有一个本地存储器。容量小:2560字节。低延迟:建立之后只需要一个指令周期,适合存放临时结果。通过特殊寄存器访问:每个线程被分配一对LM_ADDR寄存器,LM_ADDR0和LM_ADDR1。首先将要访问的地址装入其中一个寄存器,然后用这个寄存器去访问地址。改变存储器地址需要三个指令周期,地址建立后存/取操作只需一条指令,递增/递减寻址模式允许快速顺序访问。因此,当一个位置被反复引用或相邻位置被顺序引用时,本地存储器访问可以得到优

27、化。,主要内容,Intel网络处理器概述XScale核微引擎其它功能单元编程模型参考设计,SHaC单元,SHaC单元包括三个组成部分:一个ScratchPad存储器一个哈希单元一个控制状态寄存器访问代理(CAP)SHaC单元处理scratch、cap、hash和reflect指令。SHaC单元独立操作,当命令执行完时通知微引擎。,SHaC单元的概念组织,SHaC单元与芯片其余部分的主要连接:到控制总线的连接,接收命令。到推/拉总线的连接,传递参数及计算结果。到推/拉仲裁单元的连接,控制推/拉总线上的传输。,入口队列,译码,Scratchpad存储器,为IXP2XXX片内存储资源,由SHaC控制

28、访问。容量为16KB,组织成4K长字。提供一般的数据读/写操作,一次可从Scratch中读/写64个字节(16个长字)的数据,可用作本地数据存储器。提供两种可由微引擎线程用来进行协调的操作,因而常用于线程间通信:提供原子操作,用于设置/清除比特、增量/减量、加/减、交换数值等。提供实现通信环的逻辑,支持环缓冲器的自动管理和操作,可容纳16个环缓冲器,允许在不相邻的一对微引擎之间传递信息(使用pull/push reflector 指令)。,Scratchpad的读/写过程,以将微引擎中的数据写入Scratchpad为例:微引擎将数据写入传输寄存器,将指令“scratch wr,xfer,src

29、_op1,src_op2,ref_cnt,opt_tok”发送到命令总线。SHaC单元从命令总线接收命令,控制逻辑检查命令的Target_ID,若为Scratch则将指令缓存在入口队列中。控制逻辑对指令进行译码,发送信号通知Pull总线仲裁器将数据从传输寄存器中读入pull_fifo中。当数据读入完成后,将pull_fifo中的数据写入Scratchpad。SHaC单元向微引擎发送信号,告知操作完成。使用Pull/Push Reflector在不相邻的微引擎间传输数据:首先通过Pull总线从源微引擎中将数据读入Scratchpad再通过Push总线将数据写入目的微引擎。,哈希单元,哈希单元用于

30、执行查表和其它需要乘法或除法的任务。支持48比特、64比特和128比特哈希操作。哈希单元有两个输入缓冲器,微引擎可以用一条指令发射13个哈希请求,SHaC顺序地将请求传递给哈希单元。启动哈希操作的过程:微引擎将13个数据值放在一组连续的SRAM传输寄存器中,然后将哈希运算指令发送到命令总线。哈希单元接收命令,利用Pull总线从微引擎的传输寄存器中读取源操作数,执行哈希运算,然后通过Push总线将运算结果推送到微引擎的传输寄存器中。操作结束后,哈希单元向微引擎发送信号。,CAP操作,设备的控制状态寄存器(CSR)被映射到XScale的地址空间,但其中的一部分CSR是本地的(并不对应一个外部设备)

31、,本地CSR用于控制微引擎及记录微引擎的状态。硬件定义了四十多个微引擎CSR,每个CSR控制处理的一个方面。XScale使用本地CSR将指令装入微引擎并控制微引擎。每个微引擎只能访问自己的本地CSR。SHaC集成了许多CSR,对这些CSR的访问是通过SHaC中的CAP进行的。Cap指令用于读/写CSR,如:Cap read,xfer,csr_addr,opt_tok Cap write,xfer,csr_addr,opt_tokCap fast_wr,xfer,csr_addr,opt_tok.,处理器间通信,微引擎与XScale通信(context-to-XScale):中断:微引擎可使用S

32、HaC单元向XScale发出中断共享存储器:与polling机制一起使用存储器环机制:用于转发数据线程之间的通信(context-to-context):事件信号Scratchpad或SRAM环机制:任意线程邻居寄存器:相邻微引擎上的线程反射总线机制:任意微引擎上的线程IXP2xxx之间:CBUS机制:不同IXP2xxx上的线程相互通信。,DRAM控制器,DRAM控制器位于主控单元与DRAM存储设备之间,负责控制、管理主控单元对DRAM存储设备的访问。DRAM控制器通过命令总线、Push总线和Pull总线与主控单元相连。,DRAM控制器的特点,支持1个DRAM通道,64比特数据宽度,2GB存储

33、空间。以8字节为单位进行读/写,一条指令可以读/写连续的8128个字节,特别适合大数据量传输。支持4个DRAM bank及交织操作:交织:通过地址映射将连续的存储地址分布到4个bank上,一次操作可读/写相邻的两个bank中的数据。地址映射完全由硬件完成,对软件是透明的。访问DRAM的指令格式:dram cmd,xfer,src_op1,src_op2,ref_cnt,sig1,sig2,DRAM读指令的执行过程,微引擎发送指令至命令总线,DRAM控制器从命令总线接收指令。检查指令的Target_ID,若为DRAM则将指令缓存在cmd_fifo队列中。确定是否需要访问相邻的2个bank,若需要

34、则根据指令提供的地址及数据字节数产生在相邻2个bank的bank操作及地址;否则直接使用指令中提供的地址。将各相应的DRAM地址装入指定的bank队列,将bank队列中的DRAM地址发送到FSM管脚上。FSM管脚检查bank操作符及DRAM地址是否符合规范,若符合,驱动相应的地址引脚,将数据从DRAM存储器中读出。数据先缓存在push_fifo中,然后通过D Push总线将数据推送到xfer指定的传输寄存器,并给微引擎发送sig1和sig2指定的信号。,SRAM控制器,SRAM控制器用于管理和控制主控单元对SRAM存储设备的访问,以及用于连接符合QDR规范的协处理器。以长字为单位访问,一条指令

35、可以读/写连续116个长字的数据。SRAM控制器具有复杂的硬件功能结构,支持:一般的数据读/写操作原子操作:设置/清除比特位,递增/递减,数据交换支持对链表、环缓冲器等复杂数据结构的自动操作SRAM存储设备通常用于存储如发送队列、数据包描述符、缓冲区链表等重要而复杂的数据结构。,链表和环缓冲器,链表和环缓冲器是网络数据处理中非常重要的数据结构,链表:由位于不连续的存储空间中的若干buffer组成,buffer的个数不限。链表主要用作包队列,每个buffer存放一个包描述符。环缓冲区:由位于连续存储空间中的若干存储单元组成,创建时即确定了位置和大小。如果用软件实现以上数据结构,比如将一个数据包放

36、入发送队列:先从SRAM中读该发送队列的描述符(队列头指针及尾指针)修改尾指针使指向新的数据包将修改后的队列描述符写回SRAM软件实现的缺点:操作复杂涉及多次SRAM读写,延迟大,效率低这些数据结构需要被频繁使用,影响处理速度。,Q-Array,SRAM控制器集成了称为Q-Array的硬件结构来支持上述的数据结构:每个SRAM通道有一个Q-Array。每个Q-Array有64个存储单元,每个单元存储一个队列描述符或一个环缓冲器描述符。Q-Array支持入队和出队操作。微引擎只需向SRAM控制器发送指令,具体的数据读/写操作由SRAM控制器完成。,MSF接口,MSF是IXP2XXX上的一个复杂单

37、元,提供与外部设备进行高速包传输的主要接口。MSF单元有相互独立的接收和发送接口,每个接口可被配置为处理标准的MAC接口和交换结构接口。所有与外部的输入/输出均通过MSF中的一组硬件缓冲器(称BUF)进行,BUF构成了外设与微引擎之间的唯一通道。BUF按照传输方向分为RBUF和TBUF。每个BUF包含8KB,可以被划分为大小为64字节、128字节或256字节的单元。微引擎可以选择任意一个或一些单元用于一次传输。较大的包划分成若干mpacket,每个mpacket装入一个BUF单元。MAC硬件及微引擎软件负责将包划分成mpacket。,MSF接收单元,MSF数据包接收流程,当某一个线程完成指定的

38、数据包处理任务后,将自己加入到Receive_Thread_Freelist。当数据包到达MSF的接收逻辑单元时,MSF为数据包分配合适的RBUF单元,并将数据包移入。将该RBUF单元标识为Full Element,加入Full Element List。控制单元从Full Element List中取出一个RBUF单元,从Receive_Thread_Freelist中取出一个空闲线程,创建该单元的接收状态字,送到空闲线程的传输寄存器,然后通知空闲线程处理数据包。在将RBUF单元中的内容读入传输寄存器或DRAM存储器之后,线程将RBUF单元释放。,MSF发送单元,MSF数据包发送流程,线程取

39、出一个空闲的TBUF单元,分配给要发送的数据包。线程将数据包从传输寄存器或DRAM存储器中移入TBUF单元。TBUF单元中的数据包由附加数据和净荷数据组成,附加数据一般由线程创建,作为数据包的包头,净荷数据来自于DRAM存储设备,作为数据包的包体。线程创建发送控制字。MSF将TBUF单元中的数据包按发送控制字指定的方式发送出去。,加密单元,加密单元提供了高速处理数据加/解密的硬件。每个IXP2850包含两个相同的、独立运行的硬件单元,由程序员决定如何使用这两个硬件单元。每个硬件单元包含了可执行多种加密标准的硬件:两个3DES/DES核一个AES核,可以使用128、192或256比特的密钥两个用

40、于认证的SHA-1核支持一些常见的标准,如ECB和CBC所有加密信息(如密钥)包含在两个加密硬件单元中,不会保存在共享存储器中。从程序员的角度来看,加密单元是用一个API来访问的。,总结,提高并行处理能力是IXP2xxx的主要设计考虑:包含多个微引擎,每个微引擎有自己的专用资源每个微引擎包含多个硬件线程,每个硬件线程有自己的专用资源并行操作的功能单元,每个功能单元有自己的命令缓存队列、指令译码和指令逻辑多条分立的总线,且读/写总线分开通用寄存器组分成两个bank传输寄存器按总线及方向划分MSF包含独立的接收和发送接口DRAM支持多个bank及交织操作,主要内容,Intel网络处理器概述XSca

41、le核微引擎其它功能单元编程模型参考设计,网络应用结构,数据面:高速处理和转发数据包,对性能影响最大。快路径:微引擎,处理绝大部分的数据包。慢路径:XScale Core,处理例外包。控制面:处理协议消息,并负责建立、配置和更新由数据面所使用的表及其它数据结构。管理面:负责系统配置、收集和报告统计信息、根据用户输入或来自其它应用的消息停止或启动应用。,为微引擎和XScale编码,区分微引擎和XScale对程序员来说很重要:为微引擎编写的代码经编译后下载到裸露的硬件上执行,因此程序员必须直接处理硬件的所有方面;为XScale编写的代码编译后运行在操作系统下,程序员不需要描写所有的低层操作,必须使

42、用操作系统功能来执行底层任务。由于访问微引擎的所有API位于内核地址空间,因此XScale上的代码必须被设计为是可装载内核模块的一部分。,Intel IXA中的网络处理本质上就是作用到一个持续的数据包流或信元流上的一系列任务。这些任务被分布到若干个微引擎上,每个微引擎执行一个特定的任务。当一个微引擎完成它的任务后,将处理上下文传给下一个微引擎继续处理。Intel IXA包括三个部分:微引擎、XScale和IXA可移植框架。IXA可移植框架为基于Intel IXP的软件开发提供应用编程接口和硬件抽象。IXA可移植框架是用微引擎和XScale Core上的一个分层结构实现的。,IXA应用的逻辑单元

43、,由常用的低层C语言函数和微代码宏组成,专门针对高性能和代码空间最小化而设计。,用低层库写的宏或函数;多个微块可连接成微块组。,内核组件:微块在XScale Core上的对应部分。,微块(microblock),微引擎上的快路径处理被划分成一些称为微块的逻辑功能,每个微块是用低层库(包括优化的数据面库和微块基础结构库)写的宏或函数。微块是粗粒度的,每个微块完成一个功能。微块可以重用,可以通过微块组合实现所需要的应用。两种类型的微块:包处理微块:对数据包执行高层处理功能,如IP包分类、转发等。驱动微块:执行与底层硬件密切相关的处理功能。可以用Dispatch Loop将多个微块连接起来形成一个微

44、块组,运行在一个微引擎上。每个微块组独立完成一个数据包的处理功能,形成一个相对独立、完整的处理环节。,微引擎编程模型-软件流水线,微引擎在快路径上使用软件流水线模型有三种方法将流水线级组合起来并映射到微引擎上:上下文流水线,功能流水线,混合流水线。,上下文流水线(context pipeline),每个pipe-stage被映射到一个微引擎上,负责数据包处理的一个子任务。微引擎中的每个线程被分配一个包,执行相同的处理。数据包严格按顺序分配给各个线程。优点:适合需要较多代码空间和需要保存较多状态的子任务。缺点:不适合传递较大的上下文,功能均匀划分很困难。,功能流水线(functional pip

45、eline),微引擎的执行时间被分成n个流水线级,每级实现一个处理子任务。数据包严格按顺序分配给各个线程。多个微引擎并行地执行相同的功能流水线。优点:不需要在流水线级之间传递上下文,处理速度快缺点:控制存储器必须能够支持多个子任务,互斥的解决比较复杂。,功能流水线(续),多个微引擎并行执行相同的功能流水线。相邻微引擎之间的包处理步调错开一个子任务时间(称task staggering),解决不同微引擎之间的互斥问题。流水线级的数目必须与微引擎数相等。微引擎之间的延迟错位通过线程间信号机制实现。,混合流水线,流水线级之间的通信机制-环缓冲器,多生产者-单消费者使用Scratch ring或 SR

46、AM ring,单生产者-多消费者使用Scratch ring或 SRAM ring,单生产者-单消费者使用Neighbor ring,串行数据流处理与RMW操作,串行数据流处理问题:多个线程需要访问同一个数据结构时,必须串行地进行。RMW是串行数据流处理问题中最重要的一种情形,往往需要进行多次外部存储器访问,且操作的数据结构往往比较复杂,造成很大的访存延迟。读-修改-写临界区数据的过程:1)检查数据是否处于锁定状态;2)若处于锁定状态,返回第1步,否则锁定该数据;3)将数据从外部存储器读入微引擎;4)修改数据;5)将修改过的数据写回外部存储器;6)将数据解除锁定。RMW的访存延迟主要来自两个

47、方面:在RMW操作前后访问外部存储器,对数据进行加锁和解锁在RMW操作中多次读/写外部存储器,减小RMW操作的访存延迟,将数据的编号及锁定状态缓存在CAM中,利用CAM单元的并行比较功能快速确定数据的锁定状态。将数据本身缓存在本地存储器或SRAM控制器的Q-Array硬件中,减少对外部存储器的访问操作。改进后的RMW操作,线程先用数据标识符查找CAM:命中:CAM查找返回一个hit标志和数据在本地存储器中的位置,直接对数据进行快速的RMW操作。锁住状态:等待一会再测试。不命中:CAM查找返回一个miss标识和一个最近最少使用的CAM入口号;线程锁住CAM入口,将本地存储器中与LRU对应的数据写

48、回SRAM,向SRAM发送读命令;将从SRAM取回的数据放入本地存储器中处理,在CAM中创建相应的编号,解锁CAM入口。,折叠(folding),当同一个微引擎中有多个线程需要对同一个数据结构执行RMW操作时,只需第一个进入临界区的线程将外部存储器中的数据读入,修改后缓存在本地存储器中,后续的线程可直接对缓存在本地的数据结构执行RMW操作,最后一个线程将修改后的数据结构写回外部存储器。这种技术称为折叠,即将多次的RMW操作折叠为一次读-多次修改-一次或多次写操作。,无折叠的串行RMW操作,采用折叠技术的串行数据流访问,线程交织,当线程的指令执行时间/访存延迟=1/(线程数-1)时,可以将访存延

49、迟完全隐藏在程序执行时间之后。时延超限(latency bound):访存延迟大于微引擎中所有线程的程序执行时间。计算超限(compute bound):访存延迟小于微引擎中所有线程的程序执行时间。实际应用中时延超限情形居多,可以通过增加微引擎中的线程数来平衡计算和访存时间。线程交织(interleaving threading):通过增加每个线程处理数据包的数量来平衡计算时间和访存时间。线程交织解决了时延超限的问题,但在本地存储器或Scratch中需要缓存更多的状态,包处理过程更复杂。,微块与流水线组织,微块是粗粒度、有状态的实体,负责执行主要的包处理任务。一个典型的网络系统至少包括三个连接

50、成一条流水线的微块(输入、处理、输出),复杂的系统可以加入更多的微块。微块之间的连接在运行时形成。,微块组与dispatch loop,几个微块可以组合成一个微块组,形成数据包处理流程中一个相对独立、完整的处理环节(如功能流水线)。每个微块组有一个dispatch loop,定义微块组内数据包流动的方向。一个微块组可以在一个或多个微引擎上实例化,但两个微块组不能使用相同的微引擎。编程模型定义了三类微块:源微块:运行在dispatch loop的起点(微块组中的第一个微块),负责获取流水线要处理的数据包。转换微块:处理一个包,并将包传给下一个微块。接收器(sink)微块:运行在dispatch

展开阅读全文
相关资源
猜你喜欢
相关搜索
资源标签

当前位置:首页 > 生活休闲 > 在线阅读


备案号:宁ICP备20000045号-2

经营许可证:宁B2-20210002

宁公网安备 64010402000987号