《软件技术毕业设计(论文)RHEL中集群虚拟化研究.doc》由会员分享,可在线阅读,更多相关《软件技术毕业设计(论文)RHEL中集群虚拟化研究.doc(39页珍藏版)》请在三一办公上搜索。
1、XXX职业技术学院毕业设计(论文)学生姓名: XX 学 号: XXXXXXXXX 所在学院: 信息工程学院 专 业: 软件技术 设计(论文)题目: RHEL中集群虚拟化研究 指导教师: XXX 2011 年 5 月 20 日摘 要随着计算机技术的发展和越来越广泛的应用,人们对计算机的依赖程度也越来越高。计算机的可靠性和可用性也变得越来越重要了。虚拟化技术很早就在计算机体系结构、操作系统、编译器和编程语言等领域得到了广泛应用。该技术实现了资源的逻辑抽象和统一表示,在服务器、网络及存储管理等方面都有着突出的优势,大大降低了管理复杂度,提高了资源利用率,提高了运营效率,从而有效地控制了成本。由于在大
2、规模数据中心管理和基于互联网的解决方案交付运营方面有着巨大的价值,服务器虚拟化技术受到人们的高度重视,人们普遍相信虚拟化将成为未来数据中心的重要组成部分。尽管单台计算机的性能和可靠性越来越好,但还是有许多现实的要求是单台计算机难以达到的。计算机集群技术就是将多台计算机组织起来进行协同工作来模拟一台功能更强大的计算机的技术。本文首先对虚拟化和现有服务器集群系统的技术进行了分析,介绍了几个典型的虚拟化系统和集群系统,重点讨论了VMWare ESX 架构虚拟化、负载均衡集群(LVS)和高可用集群(High Availability)的工作原理和实现技术。然后根据现有的集群技术的缺点进行了改进,将虚拟
3、化、负载均衡集群和高可用集群整合在一起,结合虚拟化和Linux技术实现了三层构架的WWW服务器集群,以较低的价格达到了昂贵的商业硬件存储解决方案所实现的效果。关键字:虚拟化 VMWare Linux 集群 High Availability AbstractWith the development of computer technology and more widely used, peoples dependence on computers is also increasing.Reliability and availability of computers has become i
4、ncreasingly important.Virtualization technology is already in the computer architecture, operating systems, compilers, and programming language widely used areas.The technology to achieve a logical abstraction of resources and unity of that in the server, network and storage management, all have out
5、standing advantages, greatly reducing management complexity, improve resource utilization, improve operating efficiency, thereby effectively control thecosts.Since large-scale data center management and Internet-based solution delivery operations has a tremendous value, the server virtualization tec
6、hnology by people attach great importance to the widespread belief that virtualization will become the important part of the data center.Although a single computers performance and reliability is getting better, but still there are many practical requirements are difficult to achieve a single comput
7、er.Computer cluster technology is to be organized in multiple computers to work together to simulate a more powerful computer technology.Firstly, the existing server virtualization and cluster analysis techniques were introduced a few typical systems and cluster virtualization, VMWare ESX architectu
8、re focused on virtualization, load balancing cluster (LVS) and high-availability cluster (High Availability) working principle and implementation of technology.Then the shortcomings of the existing clustering technology has improved, virtualization, load balancing, high availability clusters and clu
9、ster together, combining virtualization and Linux technology to achieve the three-tier architecture of the WWW server clusters, to achieve a lower priceexpensive hardware storage solutions business achieved results.Key words: Virtualization VMWare Linux Cluster High Availability目录摘 要IAbstractII第一章 引
10、言11.1 选题背景和意义11.2 国内外的研究现状2第二章 虚拟化技术42.1 硬件虚拟化42.2 软件虚拟化5第三章 集群技术63.1 集群的定义63.2 集群的分类63.3 集群的优点7第四章 研究平台所采用的关键技术84.1 双机热备技术84.2 IP负载调度均衡技术84.3 IP-SAN存储技术8第五章 系统实现过程105.1 系统实现环境105.1.1 网络拓扑图及相关网络节点说明105.1.2 服务器选型105.1.3 存储IP-SAN配置115.2 RHEL双网卡负载均衡实现125.3 AS500N存储调试及服务器节点上ISCSI挂载155.4 浪潮BCP Cluster部署2
11、25.5 部署VMWare 虚拟化主机305.6 系统的优点32总结33参考文献34致谢35第一章 引言1.1 选题背景和意义在过去的半个多世纪,信息技术的发展,尤其是计算机和互联网技术的进步极大地改变了人们的工作和生活方式。大量企业开始采用以数据中心为业务运营平台的信息服务模式。进入新世纪后,数据中心变得空前重要和复杂,这对管理工作提出了全新的挑战,一系列问题接踵而来。企业如何通过数据中心快速地创建服务并高效地管理业务;怎样根据需求动态调整资源以降低运营成本;如何更加灵活、高效、安全地使用和管理各种资源;如何共享已有的计算平台而不是重复创建自己的数据中心;业内人士普遍认为,信息产业本身需要更
12、加彻底的技术变革和商业模式转型,虚拟化正是在这样的背景下应运而生的。计算机技术已进入以网络为中心的计算时代。由于客户/服务器模型的简单性、易管理性和易维护性,客户/服务器计算模式在网上被大量采用。在九十年代中期,万维网(World Wide Web)的出现以其简单操作方式将图文并茂的网上信息带给普通大众,Web也正在从一种内容发送机制成为一种服务平台,大量的服务和应用(如新闻服务、网上银行、电子商务等)都是围绕着Web进行。这促进Internet用户剧烈增长和Internet流量爆炸式地增长。现在Web服务中越来越多地使用CGI、动态主页等CPU密集型应用,这对服务器的性能有较高要求。未来的网
13、络服务会提供更丰富的内容、更好的交互性、更高的安全性等,需要服务器具有更强的CPU和I/O处理能力。例如,通过HTTPS(Secure HTTP)取一个静态页面需要的处理性能比通过HTTP的高一个数量级,HTTPS正在被电子商务站点广为使用。所以,网络流量并不能说明全部问题,要考虑到应用本身的发展也需要越来越强的处理性能。大部分网站都需要提供每天24小时、每星期7天的服务,对电子商务等网站尤为突出,任何服务中断和关键性的数据丢失都会造成直接的商业损失。例如,根据Dell的新闻发布,Dell现在每天在网站上的交易收入为一千四百万美元,一个小时的服务中断都会造成平均五十八万美元的损失。所以,这对网
14、络服务的可靠性提出了越来越高的要求。1.2 国内外的研究现状虚拟化技术可以有效地简化数据中心管理,但是仍然不能消除企业为了使用 IT系统而进行的数据中心构建、硬件采购、软件安装、系统维护等环节。早在大型机盛行的20世纪五六十年代,就是采用“租借”的方式对外提供服务的。IBM公司当时的首席执行官 Thomas Watson曾预言道:“全世界只需要五台计算机”,过去三十年的 PC大繁荣似乎正在推翻这个论断,人们常常引用这个例子,来说明信息产业的不可预测性。然而,信息技术变革并不总是直线前进,而是螺旋式上升的,半导体、互联网和虚拟化技术的飞速发展使得业界不得不重新思考这一构想,这些支撑技术的成熟让我
15、们有可能把全世界的数据中心进行适度的集中,从而实现规模化效应,人们只需远程租用这些共享资源而不需要购置和维护。而九十年代末期,Linux操作系统不断走向成熟,它的健壮性不断增强,并且提供了GNU软件和标准化的PVM、MPI消息传递机制,最重要的是Linux在普通PC机上提供了对高性能网络的支持,这样就大大推动了基于Linux的集群系统的发展。在国内,包括中国科学院在内的许多大学与研究机构早在20世纪90年代就开始了基于Linux集群研究,联想、浪潮等国内许多公司都有Linux集群产品和解决方案。Google、Baidu和腾讯后台均采用Linux集群,其中Google在2005年就达到了200万
16、台,不仅如此,Linux集群大量在金融、证券、电信以及IT行业使用。名为 High-Availability Linux 的开源项目的目标是,通过社区开发努力提供一个提升 Linux 可靠性(reliability)、可用性(availability)和可服务性(serviceability)(RAS)的群集解决方案。Linux-HA 项目得到了广泛的应用,是很多有趣的高可用性解决方案的重要组成部分。 LVS是中国章文嵩博士发起和领导的优秀的集群解决方案,许多商业的集群产品,比如RedHat的Piranha等,都是基于LVS的核心代码的。HA和LVS的不足主要有:HA集群一般都是以两个节点的形
17、式出现的,单机处理能力有限,所以当服务器压力较大时,想扩容服务器的处理能力往往得把以前的服务器淘汰掉,浪费了以前的投资;LVS集群的真实服务器都是靠前端IP负载器进行调度分配的,所以存在单点故障,如果IP负载器Down机,整个集群系统就会瘫痪。所以必须把HA和LVS整合在一起。真实服务器的数据源所涉及的共享存储一般都是利用商业的硬件解决方案,如SAN网络区域存储,对于小型集群系统来说,投入非常高昂,完全可以利用Linux的软件RAID5技术和NFS网络文件系统来实现。第二章 虚拟化技术虚拟化是指计算机元件在虚拟的基础上而不是真实的基础上运行。虚拟化技术可以扩大硬件的容量,简化软件的重新配置过程
18、。CPU的虚拟化技术可以单CPU模拟多CPU并行,允许一个平台同时运行多个操作系统,并且应用程序都可以在相互独立的空间内运行而互不影响,从而显著提高计算机的工作效率。虚拟化技术与多任务以及超线程技术是完全不同的。多任务是指在一个操作系统中多个程序同时并行运行,而在虚拟化技术中,则可以同时运行多个操作系统,而且每一个操作系统中都有多个程序运行,每一个操作系统都运行在一个虚拟的CPU或者是虚拟主机上;而超线程技术只是单CPU模拟双CPU来平衡程序运行性能,这两个模拟出来的CPU是不能分离的,只能协同工作。2.1 硬件虚拟化而CPU的虚拟化技术是一种硬件方案,支持虚拟技术的CPU带有特别优化过的指令
19、集来控制虚拟过程,通过这些指令集,VMM会很容易提高性能,相比软件的虚拟实现方式会很大程度上提高性能。虚拟化技术可提供基于芯片的功能,借助兼容VMM软件能够改进纯软件解决方案。由于虚拟化硬件可提供全新的架构,支持操作系统直接在上面运行,从而无需进行二进制转换,减少了相关的性能开销,极大简化了VMM设计,进而使VMM能够按通用标准进行编写,性能更加强大。另外,在纯软件VMM中,缺少对64位客户操作系统的支持,而随着64位处理器的不断普及,这一严重缺点也日益突出。而CPU的虚拟化技术除支持广泛的传统操作系统之外,还支持64位客户操作系统。虚拟化技术是一套解决方案。完整的情况需要CPU、主板芯片组、
20、BIOS和软件的支持,例如VMM软件或者某些操作系统本身。即使只是CPU支持虚拟化技术,在配合VMM的软件情况下,也会比完全不支持虚拟化技术的系统有更好的性能。2.2 软件虚拟化纯软件虚拟化解决方案存在很多限制。“客户”操作系统很多情况下是通过虚拟机监视器(Virtual Machine Monitor,VMM)来与硬件进行通信,由VMM来决定其对系统上所有虚拟机的访问。(注意,大多数处理器和内存访问独立于VMM,只在发生特定事件时才会涉及VMM,如页面错误。)在纯软件虚拟化解决方案中,VMM在软件套件中的位置是传统意义上操作系统所处的位置,而操作系统的位置是传统意义上应用程序所处的位置。这一
21、额外的通信层需要进行二进制转换,以通过提供到物理资源(如处理器、内存、存储、显卡和网卡等)的接口,模拟硬件环境。这种转换必然会增加系统的复杂性。此外,客户操作系统的支持受到虚拟机环境的能力限制,这会阻碍特定技术的部署,如64位客户操作系统。在纯软件解决方案中,软件堆栈增加的复杂性意味着,这些环境难于管理,因而会加大确保系统可靠性和安全性的困难。第三章 集群技术3.1 集群的定义集群(cluster)就是一组计算机,它们作为一个整体向用户提供一组网络资源。这些单个的计算机系统就是集群的节点(node)。一个理想的集群是,用户从来不会意识到集群系统底层的节点,在他/她们看来,集群是一个系统,而非多
22、个计算机系统。并且集群系统的管理员可以随意增加和删改集群系统的节点。集群计算机通常用来改进单个计算机的计算速度和/或可靠性。一般情况下集群计算机比单个计算机,工作站或超级计算机性能价格比要高得多。3.2 集群的分类集群分为同构与异构两种,它们的区别在于:组成集群系统的计算机之间的体系结构是否相同。集群计算机按功能和结构的不同可以分成:高可用性集群 (High-availability clusters,简称HA)、负载均衡集群(Load balancing clusters)、高性能计算集群(High-performance clusters,简称HPC)、网格计算(Grid computin
23、g)等几类。高可用性集群一般是指当集群中有某个节点失效的情况下,其上的任务会自动转移到其他正常的节点上。还指可以将集群中的某节点进行离线维护再上线,该过程并不影响整个集群的运行。负载均衡集群运行时一般通过一个或者多个前端负载均衡器将工作负载分发到后端的一组服务器上,从而达到整个系统的高性能和高可用性。这样的计算机集群有时也被称为服务器群(Server Farm)。 一般高可用性集群和负载均衡集群会使用类似的技术,或同时具有高可用性与负载均衡的特点。高性能计算集群采用将计算任务分配到集群的不同计算节点而提高计算能力,因而主要应用在科学计算领域。比较流行的HPC采用Linux操作系统和其它一些免费
24、软件来完成并行运算。这一集群配置通常被称为Beowulf集群。这类集群通常运行特定的程序以发挥HPC cluster的并行能力。这类程序一般应用特定的运行库, 比如专为科学计算设计的MPI库。HPC集群特别适合于在计算中各计算节点之间发生大量数据通讯的计算作业,比如一个节点的中间结果或影响到其它节点计算结果的情况。网格计算或网格集群是一种与集群计算非常相关的技术。网格与传统集群的主要差别是网格是连接一组相关并不信任的计算机,它的运作更像一个计算公共设施而不是一个独立的计算机。还有,网格通常比集群支持更多不同类型的计算机集合。3.3 集群的优点性能:网络服务的工作负载通常是大量相互独立的任务,通
25、过一组服务器分而治之,可以获得很高的整体性能。性能/价格比:组成集群系统的PC服务器或RISC服务器和标准网络设备因为大规模生产降低成本,价格低,具有最高的性能/价格比。若整体性能随着结点数的增长而接近线性增加,该系统的性能/价格比接近于PC服务器。所以,这种松耦合结构比紧耦合的多处理器系统具有更好的性能/价格比。可伸缩性:集群系统中的结点数目可以增长到几千个,乃至上万个,其伸缩性远超过单台超级计算机。高可用性:在硬件和软件上都有冗余,通过检测软硬件的故障,将故障屏蔽,由存活结点提供服务,可实现高可用性。第四章 研究平台所采用的关键技术4.1 双机热备技术所谓双机热备,就是将中心服务器安装成互
26、为备份的两台服务器,并且在同一时间内只有一台服务器运行。当其中运行着的一台服务器出现故障无法启动时,另一台备份服务器会迅速的自动启动并运行(一般为2分钟左右),从而保证整个网络系统的正常运行!双机热备的工作机制实际上是为整个网络系统的中心服务器提供了一种故障自动恢复能力。4.2 IP负载调度均衡技术用户通过虚拟IP地址(Virtual IP Address)访问服务时,访问请求的报文会到达负载调度器,由它进行负载均衡调度,从一组真实服务器选出一个,将报文的目标地址Virtual IP Address改写成选定服务器的地址,报文的目标端口改写成选定服务器的相应端口,最后将报文发送给选定的服务器。
27、真实服务器的回应报文经过负载调度器时,将报文的源地址和源端口改为Virtual IP Address和相应的端口,再把报文发给用户。4.3 IP-SAN存储技术IP SAN基于十分成熟的以太网技术,由于设置配置的技术简单、低成本的特色相当明显,而且普通服务器或PC机只需要具备网卡,即可共享和使用大容量的存储空间。 由于是基于IP协议的,能容纳所有IP协议网络中的部件,因此,用户可以在任何需要的地方创建实际的SAN网络,而不需要专门的光纤通道网络在服务器和存储设备之间传送数据。同时,因为没有光纤通道对传输距离的限制,IP SAN使用标准的TCP/IP协议,数据即可在以太网上进行传输。IP SAN
28、网络对于那些要求流量不太高的应用场合以及预算不充足的用户,是一个非常好的选择。服务器组提供统一的存储空间,这使得系统的维护工作比较轻松,如Webmaster只需要更新共享存储中的页面,对所有的服务器都有效。分布式文件系统提供良好的伸缩性和可用性,当分布式文件系统的存储空间增加时,所有服务器的存储空间也随之增大。对于大多数Internet服务来说,它们都是读密集型(Read-intensive)的应用,分布式文件系统在每台服务器使用本地硬盘作Cache(如2Gbytes的空间),可以使得访问分布式文件系统本地的速度接近于访问本地硬盘。RAID是“Redundant Array of Indepe
29、ndent Disk”的缩写,中文意思是独立冗余磁盘阵列。冗余磁盘阵列技术诞生于1987年,由美国加州大学伯克利分校提出。简单地解释,就是将N台硬盘通过RAID Controller(分Hardware,Software)结合成虚拟单台大容量的硬盘使用。RAID的采用为存储系统(或者服务器的内置存储)带来巨大利益,其中提高传输速率和提供容错功能是最大的优点。第五章 系统实现过程5.1 系统实现环境5.1.1 网络拓扑图及相关网络节点说明图5-1 集群网络拓扑图表5-1 集群网络节点IP分配名称硬件环境公网IP私网IPOS作用node1浪潮NF522510.91.11.111172.16.11.
30、111RHEL 5.6集群节点node2浪潮NF522510.91.11.222172.16.11.222RHEL 5.6集群节点 as500n浪潮AS500N10.91.11.200-LiveStor存储节点 5.1.2 服务器选型浪潮NF5225:采用英特尔 至强处理器5500/5600系列处理器,数据传输速率最高可达6.4GT/S,4-8MB的三级高速缓存支持64位扩展、I/O加速、Turbo、超线程技术,系统应用性能较上代产品提高2.25倍;采用最新的INTEL 5500+ICH10R,创新的主板VR电路设计,整体功耗降低5-12%,噪音降低4-5分贝,支持DPNM电源管理技术,节能环
31、保;采用DDR III内存,8个内存插槽,支持DDR3 800/1066/1333MHz内存,最大可扩展64GB内存,支持三通道读取,满足用户性能需求更加节能;支持8块3.5寸SAS/SATA硬盘,对热插拔存储设备的支持更加灵活;增强型应变散热系统和侧位循环风流设计集中并控制风流的方向,保证在2U高扩展状态下CPU、内存、系统的良好散热,高系统的可靠性,延长部件的寿命并降低成本;关键部件硬盘、电源支持热插拔冗余技术,不关机就可以进行部件的更换与维护,提高了系统的可用性;集成SATA 0、1、10、5;SAS RAID 0、1、10,可选Ibutton 硬虚拟RAID5,为用户提供多种数据保护方
32、案;配置3个PCI-E2.0扩展槽,采用自适应选件技术,支持主流的PCI-E,可同时保护用户的多重需求,并降低用户的扩展成本;标配集成BMC智能控制芯片,支持符合IPMI2.0规范的远程控制,在异地全面管理服务器,支持远程操作、管理、部署操作系统与应用系统,并监控服务器的运转状态;集成SATA,可选SAS,按照业务发展随意配置,高产品灵活度,低各配置之间的切换成本;最大支持8块热插拔SAS/SATA硬盘。5.1.3 存储IP-SAN配置浪潮AS500N企业级2U存储提供统一的IP SAN、NAS特性,融合FC SAN,灵活部署系统架构;IP SAN是基于高速以太网的SAN架构,适合Exchan
33、ge、Notes、SQL Server等数据库应用。NAS存储服务支持不同操作系统和多台主机的文件共享,适合Web、文件服务器应用,并可为不同用户分配独立的共享网络文件夹,用于文档集中存储和备份。融合FC SAN,提供统一存储。AS500N2在iSCSI配置下提供Snapshot Copy(数据快照拷贝)功能。Snapshot Copy是对源数据卷“克隆”出一个数据完全一致但物理上独立的卷,原数据卷的损坏不会影响克隆卷,轻松实现对在线访问数据的备份、测试和数据仓库分析等,有效提升灾难恢复能力。AS500N2支持SAS、SATA两种类型的不同容量硬盘的混插,节省不必要的系统升级成本。单AS500
34、N2产品可容纳16块SAS硬盘或者企业级SATA II硬盘,提供最高1000MB/s的带宽吞吐量和138,000 IOPS的处理能力,满足各种应用的性能要求。系统支持SAS JBOD的扩展功能,充分满足企业数据的倍速增长。64位专用存储处理器、存储操作系统,保证系统在海量数据存取时的性能和可靠性。提供启动时磁盘顺序加电功能,防止由于所有磁盘同时加电引起的电源故障和系统故障。保障了用户因电源功率不足而无法启动机器。支持磁盘热插拔,并为了防止用户误操作,在插入磁盘时,会让用户确认磁盘中是否有有用数据,确认后方进行磁盘扫描。支持磁盘漫游,即存储系统内部磁盘可以任意的更换位置,而磁盘内部的阵列配置信息
35、和数据完全不会改变或丢失,避免由于磁盘被错误插拔而导致的数据丢失。AS500N2采用了多个冗余风扇对所有的磁盘和控制单元进行散热,可保证整个系统长时间的正常运行。AS500N2可选配冗余、负载均衡热插拔电源,支持电源自动故障切换和在线的故障电源更换。还可与多种型号的外接UPS联动,有效避免由于突然掉电导致设备缓存中的数据丢失。支持即插即用。用户只需将PC或服务器插上网线与AS500N2通过网络相连,并进行简单的软件配置就可以像访问本地磁盘一样访问连接到网络上的AS500N2存储资源,无需添加任何其它专用设备。AS500N2采用可视化管理,在GUI管理界面上可以所见即所得地对磁盘、RAID组等进
36、行配置操作和状态监控。AS500N2采用中文管理界面,便于操作使用。5.2 RHEL双网卡负载均衡实现搭建系统环境,安装RHEL5.6,常规模式,默认配置安装即可。采用双网卡绑定技术实现服务器网络连接的高可用性及吞吐量,如图5-2所示。1)效果:网卡eth0和eth1虚拟成设备bond0,并且向外公布一个虚拟IP地址。存储AS500N的root管理密码为“inspur!dks01?”。配置完成后在inspur: #处输入命令: ifconfig,出现信息:bond0 Link encap:Ethernet HWaddr 00:0C:76:6C:86:1Finet addr:10.91.11.2
37、00 Bcast:10.255.255.255 Mask:255.255.255.0inet6 addr: fe80:20c:76ff:fe6c:861f/64 Scope:LinkUP BROADCAST RUNNING MASTER MULTICAST MTU:1500 Metric:1RX packets:10831 errors:0 dropped:0 overruns:0 frame:0TX packets:476 errors:0 dropped:0 overruns:0 carrier:0collisions:0 txqueuelen:0RX bytes:1290093 (1.2
38、 Mb) TX bytes:164685 (160.8 Kb)eth0 Link encap:Ethernet HWaddr 00:0C:76:6C:86:1Finet addr:10.91.11.200 Bcast:10.255.255.255 Mask:255.255.255.0inet6 addr: fe80:20c:76ff:fe6c:861f/64 Scope:LinkUP BROADCAST RUNNING SLAVE MULTICAST MTU:1500 Metric:1RX packets:5396 errors:0 dropped:0 overruns:0 frame:0TX
39、 packets:238 errors:0 dropped:0 overruns:0 carrier:0collisions:0 txqueuelen:1000RX bytes:643234 (628.1 Kb) TX bytes:83262 (81.3 Kb)Base address:0xb000 Memory:f5000000-f5020000eth1 Link encap:Ethernet HWaddr 00:0C:76:6C:86:1Finet addr:10.91.11.200 Bcast:10.255.255.255 Mask:255.255.255.0inet6 addr: fe
40、80:20c:76ff:fe6c:861f/64 Scope:LinkUP BROADCAST RUNNING SLAVE MULTICAST MTU:1500 Metric:1RX packets:5435 errors:0 dropped:0 overruns:0 frame:0TX packets:238 errors:0 dropped:0 overruns:0 carrier:0collisions:0 txqueuelen:1000RX bytes:646859 (631.6 Kb) TX bytes:81423 (79.5 Kb)Base address:0xc000 Memor
41、y:f9000000-f9020000lo Link encap:Local Loopbackinet addr:127.0.0.1 Mask:255.0.0.0inet6 addr: :1/128 Scope:HostUP LOOPBACK RUNNING MTU:16436 Metric:1RX packets:108 errors:0 dropped:0 overruns:0 frame:0TX packets:108 errors:0 dropped:0 overruns:0 carrier:0collisions:0 txqueuelen:0RX bytes:7288 (7.1 Kb
42、) TX bytes:7288 (7.1 Kb)2)使用VI编辑器将标有/的内容添加到/etc/init.d/network中的相应位置。(/不用输入,修改完后需要重启服务器操作系统)mode为网卡工作方式,“1”为互援式工作方式(热备份工作方式,当前工作链路或网卡出现故障时,备份网卡会自动接管网络链路),“0”为集群式工作方式(同时在线提供两倍带宽,一条链路或网卡故障时,网络带宽为工作网卡带宽,不需切换):Inspur: # vi /etc/networkInspur: # vi /etc/init.d/networkrc_status -vfi/#modprobe bonding mode
43、=active-backup miimon=100 primary=eth0/modprobe bonding mode=0 miimon=100 primary=eth0/ifconfig bond0 inet 10.91.11.200 netmask 255.255.255.0/route add default gw 10.91.11.100/ifenslave bond0 eth0/ifenslave bond0 eth1/ifconfig bond0 up;stop)echo Shutting down network interfaces:echo Shutting down ne
44、twork interfaces:/ifenslave -d bond0 eth0/ifenslave -d bond0 eth1/ifconfig bond0 down图5-2 实现存储节点网络负载均衡5.3 AS500N存储调试及服务器节点上ISCSI挂载AS500N存储管理系统出厂设置的IP 地址为192.168.1.1,在管理员控制台的浏览器地址栏中输入: https:/192.168.1.1 即可显示登录界面,系统默认管理员为admin,密码:root,如图5-3所示.图5-3 浪潮海量存储登陆界面进入后显示AS500N存储信息,如图5-4所示。图5-4 AS500N存储信息点击磁盘
45、管理,物理磁盘管理显示信息,如图5-5所示。列出了系统中一个raid 卡上当前所有可用的磁盘。系统物理磁盘状态可分为member、hotspare、good 及bad 四种使用状态,其中member 为成员盘,hotspare 为全局热备盘,good 为可使用的游离盘,bad 为不可使用的游离盘;hotspare,good 状态磁盘可相互转换,bad 状态磁盘必须先进行扫描转换,才可以正常使用。用户可点击按钮执行磁盘状态转换及磁盘定位显示操作。图5-5 物理磁盘信息点击RAID管理,Raid列表显示信息,如图5-6所示。图5-6 显示RAID列表信息点击新建RAID 显示信息,如图5-6所示。
46、图5-6 创建新RAID创建完Raid后可在上一层查看创建的Raid后的编辑显示详细Raid信息状态,如图5-7所示。图5-7 编辑RAID并显示RAID状态在磁盘管理中点击存储管理可查看存储逻辑卷,如图5-8所示。图5-8 查看管理存储卷点击新建存储池可添加之前创建的Raid阵列,如图5-9所示。图5-9 新建存储池并添加阵列创建完成后显示存储池详细信息,如图5-10所示。图5-10 心事存储池详细信息点击逻辑分区管理创建逻辑分区,如图5-11所示。图5-11 创建逻辑分区点击新建逻辑分区开始创建逻辑分区,ISCSI的应用类型为SAN,所以选择SAN,如图5-12所示。图5-12 创建SAN
47、的iscsi的逻辑分区点击主页面中的SAN管理进入SAN的配置,如图5-13所示。图5-13 进入SAN管理上图中的“Target iqn.2011-04.lygtc.iscsi:storage.disk1.sys1.xyz”这 Target 名称也称作iSCSI Qualified Name(简称:iqn),这格式在 iSCSI 规格书中有详细说明:iqn.yyyy-mm.:identifier格式意义yyyy-mm 年份-月份 例如:2011-04reversed domain name 倒过来的网域名称 例如:lygtc.iscsiidentifier 识别代号 例如:storage.disk1.sys1.xyzLUN(Logical Unit Number),“#Lun 0 Path=/dev/dm-1,Type=fileio”这一行中, Path 改成您提供的硬盘名称,此例为“Path=/dev/dm-1”。我们可以使用像是区块装置(Block devices,例 /dev/sdc)、一般档案(regular files)、LVM 逻辑卷轴(Logical Volume)与磁碟阵