数据采集处理项目技术方案.docx

上传人:小飞机 文档编号:5306770 上传时间:2023-06-24 格式:DOCX 页数:44 大小:118.31KB
返回 下载 相关 举报
数据采集处理项目技术方案.docx_第1页
第1页 / 共44页
数据采集处理项目技术方案.docx_第2页
第2页 / 共44页
数据采集处理项目技术方案.docx_第3页
第3页 / 共44页
数据采集处理项目技术方案.docx_第4页
第4页 / 共44页
数据采集处理项目技术方案.docx_第5页
第5页 / 共44页
亲,该文档总共44页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

《数据采集处理项目技术方案.docx》由会员分享,可在线阅读,更多相关《数据采集处理项目技术方案.docx(44页珍藏版)》请在三一办公上搜索。

1、数据采集处理项目技术方案(总41页)-本页仅作为文档封面,使用时请直接删除即可-内页可以根据需求调整合适字体及大小-xxx大数据库中心数据库投资商和企业数据采集处理项目项目编号:巳t技术方案xxx有限公司二。一七年六月目录1引言项目背景错误!未定义书签。项目目标建设原则参考规范名词解释2云数据采集中心需求概述总体设计7核心技术及功能3大数据计算平台需求概述总体设计数据模型设计4数据运营数据挖掘分析数据分析处理的主要工作数据分析团队组织和管理5安全设计6风险分析7部署方案8实施计划9技术规格偏离表10售后服务承诺11关于运行维护的承诺12保密措施及承诺13培训计划1引言项目背景XXX大数据中心建

2、设出发点考虑从投资者角度涵盖招商全流程,尽可能为投资者解决 项目实施过程中的困难和问题,便于招商部门准确掌握全省招商数据,达到全省招商项目 数据共享,形成全省招商工作“一盘棋、一张网、一体化”格局。大数据中心将充分发挥 大数据优势,加强对企业投资项目、投资轨迹分析,评估出其到XX投资的可行性,为招 商过程留下痕迹、找到规律、明辨方向、提供“粮食”、提高效率,实现数据寻商、数据 引商、数据助商,实现数据资源实时共享、集中管理、随时查询,实现项目可统计、可监 管、可协调、可管理、可配对、可跟踪、可考核。本次数据运营服务主要是为大数据平台制定数据运营规范及管理办法,同时为“企业 数据库”提供数据采集

3、、存储与分析服务,并根据运营规范要求持续开展数据运营服务。项目目标制定招商大数据运营规范及管理办法。制定招商大数据相关元数据标准,完成相关数据的采集、整理与存储。根据业务需求,研发招商大数据招商业务分析模型,并投入应用。根据运营规范及管理办法的要求持续开展数据运营工作。建设原则基于本项目的建设要求,本项目将遵循以下建设原则:前瞻性和高标准 整个项目要按照企业对大数据应用的需要的高要求和高标准建 设,参考行业标杆应用,建立满足需求,面向未来的目标,整个项目具有一定前 瞻性。经济性和实用性整个项目以现有需求为基础,充分考虑未来发展的需要来确定 系统的架构,既要降低系统的初期投入,又能满足服务对象的

4、需求,同时系统设 计应充分考虑对已有投资的保护,对已建立的数据中心、基础平台、应用软件应 提供完备的整合方案。先进性和成熟性 为了确保项目具有较长的生命周期,应充分考虑到管理创新、 技术发展需要,按照先进的建设理念,选择先进的技术架构和成熟技术,满足业 务需求。高性能和安全性规范地进行系统建设和开发,提供合理且经济有效的应急方案,确保系 统的稳定,向各类服务对象提供可靠的服务。具有安全性,在系统 遭到攻击或崩溃时能快速恢复,确保重要数据的机密性和完整性。参考规范GB/T 20269-2006信息安全技术一信息系统安全管理要求GB/T 20984-2007信息安全技术一信息安全风险评估规范GB/

5、T 22239-2008信息安全技术一信息系统安全等级保护基本要求GB/T 22240-2008信息安全技术一信息系统安全等级保护定级指南GA/T 388-2002B计算机信息系统安全等级保护管理要求GB/T 8567 -1988计算机软件产品开发文件编制指GB/T 11457-1995软件工程术语GB/T 11457-2006信息技术软件工程术语GB/T 软件工程 产品质量 第1部分:质量模型GB/T 软件工程 产品质量 第2部分:外部度量GB/T 软件工程 产品质量第3部分:内部度量GB/T 软件工程 产品质量 第4部分:使用质量的度量GB/T 14394-2008计算机软件可靠性和可维护

6、性管理GB/T 17544-1998信息技术 软件包 质量要求和测试名词解释S2DFS:简单存储分布式文件系统(Simple Storage Distributed File System)D2B:分布式数据库(Distributed Database)JSS:作业调度服务(Job Scheduler Service)DCS:数据计算服务(Data Computer Service)MPS:消息处理服务(Message Process Service)SDS:流数据处理服务(Stream Data Service)DMQ:分布式消息队列(Distributed Message Queue)JG

7、S:作业生成服务(Job Generation Service)ACS:自动清理服务进程(Automatic Cleaning Services)HTTP:超文本传输协定(HyperText Transfer Protocol)SMB:服务器信息块协议(Server Message Block)2云数据采集中心需求概述根据规划,云数据采集中心的建立至少满足1至2年内的数据存储和计算规模, 需要满足:数据采集范围包括但不限于世界500强、全国500强、行业20强企业相关数 据。总数据容量至少达到30T。总体设计整个云数据采集中心分为三部分:硬件资源层、软件平台层、软件应用层。硬件资源层主要指实体

8、硬件设备,包括用来存储数据的光纤阵列柜和存储服务器,用 来作统计、分析以及搜索用的计算服务器,用来部署分布式消息(DMQ)/WEB/APP软件的 WEB及消息服务器,用来部署用PostgreSQL关系数据库软件的应用数据库服务器,用 来部署作业调度服务进程(JSS)的作业调度服务器。作为数据通信用的全千兆三层交换 机等等。其中光纤阵列柜主要用来存储统计分析后的粗颗粒度数据。存储服务器用来部署 分布式文件系统和分布式数据库,同时存储非结构化和结构化(台标图片,电商图片等 等)和结构化数据(行为数据,索引数据,log数据,清理后的细颗粒度数据等等)。计算 服务器主要用来完成数 据的清理、统计、搜索

9、等计算任务。为了节省成本和减少通信代 价,建议存储服务器和计算服务器合二为一,所以该服务器同时具有计算和存储数据的功 能,前 期也可以考虑把作业调度服务进程(JSS)进程部署在存储/计算服务器上。由于 云数据采集中心需要面对多种宽带用户(电信、移动、联通),所以,数据中心 的对外 的网络需要直连上电信、移动、联通三家公司的网络,保证以上三家公司间的通信性能高 速和可靠。软件平台层是云数据采集中心的核心支撑层,也是我们这次方案设计和实施的主体 部分,在核心技术章节会对“分布式文件系统(S2DFS)”、 “分布式数 据库 (D2B)”、“分布式消息服务(DMQ)” “作业调度服务进程(JSS)、数

10、据计算服务进程(DCS) ”主要部分加以详细的描述。软件平台层的所有服务器都统一部署的64位操作系统CentOS (也可以选择RHEL x64);其核心软件或者进程有:分布式文件系统(S2DFS)、分布式数据库(D2B)、 作业调度服务进程(JSS)、数据计算服务进程(DCS)、作业生成服务进程(JGS)、 消息处理服务进程(MPS)、流数据处理进程(SDS)等等。WEB及应用服务器软件 Apache&Tomcat,消息队列软件分布式消息(DMQ)。还要实现整个云数据采集中心的资 源管理及监控管理系统。软件应用层是云数据采集中心的功能实现及UI表达层,功能实现需要基于软件平 台层的支撑,后期设

11、计和实施的主体。该层的主要功能应用有:数据采集应用、数据统计 应用、云数据采集中心的资源监控及调度。通过公共数据网(电信、联通、移动)和HTTP协议,把采集的海量文本、图片数据以 及用户行为数据存储在云数据采集中心里,以供后期分析计算用。云数据采集中心整体架构图云数据采集中心网络结构图核心技术及功能分布式文件存储技术(1)传统存储技术面临的问题:构建成本高:大容量及高网络带宽的高端存储系统架构昂贵。文件系统功能和性能差强人意:难以实现全局命名空间的文件共享、文件系统难以扩展,容易形成瓶颈。扩展性困难:技术存在瓶颈(Scale-up架构决定的)、扩展成本无法 控 制。可用性问题:潜在的单点故障,

12、数据恢复困难,代价高。应用目标差异:主要面临运营商、金融行业的OLTP应用、很少针 对海量 的流数据,或者非结构化数据进行设计和优化。异构设备繁杂:不同时期、不同公司、不同操作系统的异构设备纷繁复杂,无法整合,资源利用率极低。分布式文件系统主要为解决以上问题而出现的一种新型大规模数据存储技 术架 构。主要为非结构化数据(视频/文件/文档/图像/音频等非结构化数据)提供海量的存 储平台,以集群的方式提供线性横向扩展能力。分布式文件系统是一种构建于通用x86部件之上的高可用、高可靠、高可扩展的新 型分布式文件系统。应用分布式文件系统,用户可以采用廉价可靠的通用服务器、SATA/SAS硬盘以及以太网

13、络来构建媲美企业级存储产品的存储系统。(2)分布式文件系统应对的数据特性和访问特性:数据量巨大,数百TB或PB级,增长迅速;类型多样化,包括图像、文本、语音、视频等文件数据;按时间有序生成,数据均带有时间标志;前端数据写入速度很高,每秒钟写入数据可达几万甚至几十万条记录或者上 GB量数据;更新操作极少:追加方式写入,一旦写入,几乎没有数据修改,查询涉及大 量的磁盘读操作,查询处理产生大量的临时结果,不同类型的数据存在 联合分析查询;分布式文件系统的基本原理是采用集群方式来整合物理上独立的多个存储资源,以 软件方式提供单一的名字空间;采用多副本的方式保证数据的高可用性,任意单一节点失 效均不会导

14、致数据丢失和数据服务的正常运行;同时,分布式文件系统通过良好设计的系 统结构和数据分布策略,可保证系统性能的高可扩展性,并支持存储容量/性能的在线扩 展。相比较于DAS (直连存储)、SAN (存储区域网络)和NAS (网络存储),应用分 布式文件系统构建的网络存储系统更像是一个NAS,提供类似于传统NAS的文件级访 问接口(SAN和DAS都是块设备级别的访问接口)。(3)分布式文件系统与传统NAS/SAN设备的比较:比较项高端NASFC-SAN分布式文件系统性能一般双端口,性能受机头 影响,难以扩展,出口带 宽是瓶颈一般双端口,性能受 机头影响,难以扩展,IOPS较好性能随节点数的增加成线

15、性增长扩展能力性能及容量无法扩展,或 者有限扩展能较好扩展,但成本 高昂性能及容量按需扩展,动 态均衡可用性RAID方式保护,双机保 护,停机 RAID Rebuid, 耗时RAID方式保护,双机 保护,停机 RAID Rebuid,耗时基于灵活的多副本机制, 自动检测,自动故障恢复, 无需停机数据管理企业级功能需要单独购买企业级功能需要单独 购买(还需要单独的 文件系统,100多万一 套)内嵌多种企业级应用:快 照、镜像、回收站成本专有的硬件平台,软件拥 有成本高,扩展成本高专有的硬件平台,软 件拥有成本高,扩展 成本高开发通用的硬件平台,一 体化的软件,成本低,扩 展成本低可维护性专门的技

16、术支持服务,需 要培训结构异常复杂,需要 大量培训,厂商服务昂贵内嵌多种自动化的故障检 测和恢复功能,国内开发, 技术支持快速用户使用分布式文件系统如同使用本地文件系统。所不同的是,传统 NAS通常以 单一节点的方式实现,容量和性能的扩展能力有限,易于成为性能瓶颈和单一故障点。而 分布式文件系统则有多个节点集合地提供服务,由于其结构特征,分布式文件系统的性能 和容量均可在线线性扩展,并且系统内不存在单一故障点。对比参看下面两幅示意图:传统存储架构图分布式文件系统架构图分布式文件系统的设计应用特别适合海量非结构化数据存储,大量客户端并发的I/O 密集型应用。目前,分布式文件系统已经被应用于政府、

17、医疗影像、勘查数据计算、视频 服务以及动画制作等领域。这些领域的数据访问特征均为:数据量巨大,I/ O吞吐率高, 数据增长迅速以及数据可用性要求高。经过长时间的实际生产环境使用,分布式文件系统 已被证明是该类型应用的有效解决方案。布式文件系统的服务器端程序运行于Linux x64系统之上,支持多种Linux64位发行 版,包括Redhat、CentOS等。分布式文件系统客户端则支持Linux和Windows,同时 分布式文件系统还可以通过第三方软件输出CIFS和NFS接口,可以兼容大多数应用。(4) 分布式文件系统的核心技术及特征:扩展性和高性能:分布式文件系统利用双重特性来提供几TB至数PB

18、的高扩展 存储解决方案。Scale-Out架构允许通过简单地增加资源 来提高存储容量和 性能,磁盘、计算和I/O资源都可以独立增加,支持10GbE和 InfiniBand等高速网络互联。分布式文件系统弹性哈 希(Elastic Hash) 解除了分布式文件系统对元数据服务器的需求,消除了单点故障和性能瓶颈,真正实现了并行化数据访问。高可用性:分布式文件系统可以对文件进行自动复制,如镜像或多 次复制,从 而确保数据总是可以访问,甚至是在硬件故障的情况下 也能正常访问。自 我修复功能能够把数据恢复到正确的状态,而且修复是以增量的方式在后 台执行,几乎不会产生性能负载。分布式文件系统没有设计自己的私

19、有数 据文件格式,而是采用操作系统中主流标准的磁盘文件系统(如 XFS/EXT4/ZFS)来存储文件,因此 数据可以使用各种标准工具进行复制和 访问。全局统一命名空间:全局统一命名空间将磁盘和内存资源聚集成一个单一的虚 拟存储池,对上层用户和应用屏蔽了底层的物理硬件。存储资源可以根据需要在虚拟存储池中进行弹性扩展,比如扩容或 收缩。当存储虚拟机映像 时,存储的虚拟映像文件没有数量限制,成千虚拟机均通过单一挂载点进 行数据共享。虚拟机I/O可在命名 空间内的所有服务器上自动进行负载均 衡,消除了 SAN环境中经常发生的访问热点和性能瓶颈问题。弹性哈希算法:分布式文件系统采用弹性哈希算法在存储池中

20、定位数据,而不 是采用集中式或分布式元数据服务器索引。在其他的Scale-Out存储系统中,元数据服务器通常会导致I/O性能瓶颈和单 点故障问题。分布式文 件系统中,所有在Scale-Out存储配置中的存 储系统都可以智能地定位任 意数据分片,不需要查看索引或者向其 他服务器查询。这种设计机制完全 并行化了数据访问,实现了真正 的线性性能扩展。弹性卷管理:数据储存在逻辑卷中,逻辑卷可以从虚拟化的物理存,不会导 致应用中断。逻辑卷可以在所有配置服务器中增长和缩减,可以在不同服务 器迁移进行容量均衡,或者增加和移除系统,这些操作都可在线进行。文件 系统配置更改也可以实时在线进行并应用,从而可以适应

21、工作负载条件变化 或在线性能调优。完全软件实现(Software Only):分布式文件系统认为存储是软件问 题,不能 够把用户局限于使用特定的供应商或硬件配置来解决。分布式文件系统采 用开放式设计,广泛支持工业标准的存储、网络和 计算机设备,而非与定 制化的专用硬件设备捆绑。对于商业客户,分布式文件系统可以以虚拟装 置的形式交付,也可以与虚拟机容器 打包,或者是公有云中部署的映像。 开源社区中,分布式文件系统被大量部署在基于廉价闲置硬件的各种操作 系统上,构成集中统一 的虚拟存储资源池。简而言之,分布式文件系统是 开放的全软件实现,完全独立于硬件和操作系统。完整的存储操作系统栈(Comple

22、te Storage Operating System Stack :分 布式文件系统不仅提供了一个分布式文件系统,而且还提供了许多其他重 要的分布式功能,比如分布式内存管理、I/O调度、软RAID和自我修复 等。分布式文件系统汲取了微内核架构的经验教训,借 鉴了 GNU/Hurd操 作系统的设计思想,在用户空间实现了完整的存 储操作系统栈。用户空间实现(User Space):与传统的文件系统不同,分布式文件系统在用户 空间实现,这使得其安装和升级特别简便。模块化堆栈式架构(Modular Stackable Architecture):分布式文件系统 采用模块化、堆栈式的架构,可通过灵活的

23、配置支持高度定制化的应用环 境,比如大文件存储、海量小文件存储、分布式文件系统、 多传输协议应 用等。每个功能以模块形式实现,然后以积木方式进 行简单的组合,即可 实现复杂的功能。比如,Replicate模块可实现RAID1,Stripe模块可实 现RAID0,通过两者的组合可实现RAID10和RAID01,同时获得高性能和 高可靠性。原始数据格式存储(Data Stored in Native Formats):分布式文件系统 以 原始数据格式(如EXT3、EXT4、XFS、ZFS)储存数据,并实现多种数据自 动修复机制。因此,系统极具弹性,即使离线情形下文 件也可以通过其他 标准工具进行访

24、问。如果用户需要从分布式文件 系统中迁移数据,不需要 作任何修改仍然可以完全使用这些数据。无元数据服务设计(No Metadata with the Elastic Hash Algorithm):对 Scale-Out存储系统而言,最大的挑战之一就是记录数据逻辑与物理 位置 的映像关系,即数据元数据,可能还包括诸如属性和访问权限等信息。传 统分布式存储系统使用集中式或分布式元数据服务来维 护元数据,集中式 元数据服务会导致单点故障和性能瓶颈问题,而分布式元数据服务存在性 能负载和元数据同步一致性问题。特别是对于海量小文件的应用,元数据 问题是个非常大的挑战。分布式文件系统独特地采用无元数据服

25、务的设 计,取而代之使用算法来定位,服务器都可以智能地对文件数据分片进行 定位,仅仅根据文件名 和路径并运用算法即可,而不需要查询索引或者其 他服务器。这使得数据访问完全并行化,从而实现真正的线性性能扩展。 无元数据服务器极大提高了分布式文件系统的性能、可靠性和稳定性。基于标准协议:分布式文件系统存储服务支持NFS, CIFS, HTTP, FTP以及 分布式文件系统原生协议,完全与POSIX标准兼容。(5)分布式文件系统技术及性能指标:支持设备数量:最大百万台以上支持存储容量:最大1024PB以上 客户端的数量:最大支持上亿并发 网络支持:以太网:1Gbps、10Gbps/INFINIBAN

26、D: 10Gbps、40Gbps 文件副本数量:任意(缺省1份)协议:NFS/CIFS/HTTP/FTP/WEB DAV,及原生协议,兼容POSIX标准 支持文件数量:最大上亿个文件最大单个文件:16TB(6)S2DFS与HDFS的比较对比项HDFS (GFS)S2DFS架构类型带兀数据库中心架构 (瓶颈及故障易发生点)全分布式去中心架构存在方式分布式文件系统软件,基于x86平台使用方式CLI/REST APINATIVE CLIENT/CIFS/NFS 标准 协议(应用代码与平台无关性,便于移 植和维护)系统可用性低高数据可用性复制类 RAID数据定位方式INodeHash同步方式异步同步负

27、载均衡自动自动支持网络千兆以太网千兆/万兆以太网,IB网网络写:读(万兆/单流)约 100MB/s: 160MB/s约 800MB/s: 1000MB/s读(1*20GB)(万兆)约 125s约25s写(1*20GB)(万兆)约 200s约20s读/写(千兆)差距不大分布式并行计算技术(1)概述并行计算技术真正将传统运算转化为并行运算,从而更加充分的利用广泛部署的普通 计算资源实现大规模的运算和应用的目的,在此基础上为第三方开发者 提供通用平台, 为客户提供并行服务。这里主要为门户网站提供作业调度平台,实现日志分析,性能优 化,全文检索,视频处理,用为分析等等的支撑平台。用户通过统一计算平台把

28、任务分派给系统内的多个节点,调度节点资源执行 任务, 发挥多核并行处理优势,提升运算效率,充分运用网络内的计算资源达到 解决大规模 计算问题的目的。(2)分布式并行计算架构图分布式并行计算架构图(3)作业调度及计算过程(4)分布式并行计算技术特点池化资源管理利用池化技术,任何一台联在互联网上的普通 PC机从硬件 到软件,可通过池化技术加入服务器池中,等待任务分配,系统能充分利用现有 服务器资源,将所有运算子任务分配给节点服务器,有效避免计算资源闲置现象 的发生。无中心系统架构在平台管理下的单节点能力一致,使节点在部署上和使用 上具备无差别性,任一节点功能可由其他节点替代或强化,可以最大程度 确

29、保平台资源使用的灵活性以及在灾备环境下的可靠性系统架构。通道式工作机制平台为用户提供一个并行任务处理通道,处理过程对用户 来说完全 透明,由平台自动进行负载均衡、资源匹配、任务传输等,使用 户 专注于自身任务管理,将执行过程交由平台完成。分布式数据库技术D2B是一个具有高性能的高性能,可扩展,无模式,面向文档 (document-oriented)的数据库,其内存储的是一种JSON-like结构化数据的分布式 数 据库软件,尤其具有高扩展性和高可靠性,支持大表水平折分,以及分区镜像。提供内存 缓存数据,所以数据存取速度非常快,主要是由于它处理写入的方式:它们存储在内存 中,然后通过后台线程写入

30、磁盘。该软件支持的数据结构非常松散,是类似json的bjson格式,因此可以存储比 较复杂的数据类型。D2B另外的最大的特点是他支持的查询语言非常强大,其语法有点 类似于面向对象的查询语言,几乎可以实现类似关系数据库单表查询的绝大部分功能, 而且还支持对数据建立索引。它的特点是高性能、易部署、易使 用,存储数据非常方便。主要功能特性:面向集合存储,易存储对象类型的数据“面向集合”(Collenction-Oriented),意思是数据被分组存储在数据集中,被称为一个集合(Collenction)。每个集合在数据库中都有一个唯一的标 识名,并且可以包含无限数目的文档。集合的概念类似关系型数据 库

31、(RDBMS) 里的表(table),不同的是它不需要定义任何模式(schema)。模式自由模式自由(schema-free),意味着对于存储在D2B数据库中的文件,我们 不需 要知道它的任何结构定义。如果需要的话,你完全可以把不同结构的文件存储 在同一个数据库里。自动分片以支持云级别的伸缩性:自动分片功能支持水平的数据库集群,可动 态添加额外的机器。支持动态查询支持完全索引,包含内部对象。自动处理碎片,以支持云计算层次的扩展性。可通过网络访问可用于 Windows、Mac OS X、Linux和 Solaris 的官方二进制版本。可用于 C、C#、C+、Haskell、Java、JavaSc

32、ript、Perl、PHP、Python、Ruby和Scala的官方驱动程序,以及广泛可用于其他语言的社区支持 的驱动程序。Ad-hoc JavaScript查询让您能够使用基于任何文档属性的任何条件来查找数据。 这些查询对应于SQL查询的功能,使SQL开发人员能够很直观地编写D2B查询。支持查询中的正则表达式。D2B查询结果存储在提供过滤、聚合和排序等一系列功能的游标中,包括 limit()、skip()、sort()、count()、distinct()和 group()等等高级特性。高级聚合的map/reduce实现。类似于RDBMS的属性索引支持,可以直接在文档的选定属性上创建索引。使

33、用提示、解释计划和分析的查询优化特性。类似于MySQL的主/从复制,支持复制和故障恢复。基于集合的对象存储,在需要规范化数据时允许参考查询。通过自动分片功能水平扩展。高性能无争用并发机制的即时更新。D2B服务端可运行在Linux、Windows或OS X平台,支持32位和64位应 用。推荐运行在64位平台,因为D2B在32位模式运行时支持的最大文件尺寸为 2GB。分布式数据库(D2B)集群示例图D2B10亿约600GB以上(与每条记录大小有关系,这 里的数据:1Kb/条)写(1亿,无索引)约条/s写(1亿,有索引)约 10000 条/s写(1 亿:Replica Sets + Sharding

34、 模 )约 6000-8000 条/s读(1亿)约 80MB-120MB/s读(1亿)8000-10000 个查询/s统计一个值(10亿)1024 (理论上)测试环境的硬件配置:Intel Xeon E7-&837 路 16 核心 256GB 内存,15k SASD2B的性能指标:16*600GB硬盘,RAID50总共12台设备;D2B的架构模式:Replica Sets + Shardlng负载均衡1)开源负载均衡软件比较与关系型数据库的逻辑结构对比:D2B关系型数据库数据库(database)数据库(database)集合(collection)表(table)文档(document)彳亍

35、(row)LVSNginxHAProxyLVS (Linux Virtual Server)可 以实 现Linux平台下的负载均 衡,提供了含有三种IP负载 均衡技术的IP虚拟服务器软件 IPVS、基于内容请求分发的内核 Layer-7交换机KTCPVS和集群等 功能Nginx是一款轻量级、高可用性 的Web服务软件及反向代理软 件,基于HTTP (第七层)应用代 理服务器。在国内大型的互联网 公司都有使用。HAProxy是一款提供高可用性的 基于TCP (第四层)和HTTP (第 七层)应用的代理软件。在国内大 型的互联网公司都有使用。1、抗负载能力强、是工作在网络 4层之上仅作分发之用,没

36、有流量 的产生,这个特点也决定了它在 负载均衡软件里的性能最强的;2、配置性比较低,这是一个缺点 也是一个优点,因为没有可太多配 置的东西,所以并不需要太多接 触,大大减少了人为出错的几率;3、工作稳定,自身有完整的双机 热备方案,如LVS+Keepalived和 LVS+Heartbeat;4、无流量,保证了均衡器IO的 性能不会收到大流量的影响;5、软件本身不支持正则处理,不 能做动静分离;1、工作在网络的7层之上,可以 针对http应用做一些分流的策 略,比 如针对域名、目录结构, 它的正则规则比HAProxy更为强 大和灵活;2、Nginx对网络的依赖非常小, 理 论上能ping通就就

37、能进行负 载功能;3、Nginx安装、配置、维护比较简 单;4、可以承担高的负载压力且稳 定,一般能支撑超过几万次的并 发量;5、Nginx可以通过端口检测到服务 器内部的故障,不支持url来检 测;6、Nginx也可作为Web反向加速 缓存器;1、能够补充Nginx的一些缺点比 如Session的保持,Cookie的引 导等工作;2 HAProxy对网络的依赖非常小, 理论上能ping通就就能进行负载 功能;3、它跟LVS-样,本身仅仅就只 是一款负载均衡软件;单纯从效率 上来讲HAProxy更会比Nginx有 更出色,在并发处理上也是优 于 Nginx;4 HAProxy安装、配置、维护比

38、 较简单;5、可以承担高的负载压力且稳 定,一般能支撑超过几万次的并 发量;建议用Nginx (或者HAProxy)作为负载均衡(反向代理)软件配合硬件负 载均 衡使用。究竟选择Nginx还是HAProxy要看团队对这两种软件的熟悉程度,越熟 悉,就能容易掌控,减少风险,我们团队对Nginx非常熟悉,所以,这里我们推荐用 Nginx作为软件的反向代理工具。数据采集1)概述数据采集功能主要完成海量数据采集、上传。数据采集的来源有:国家工商局、企 业网站、百度、谷歌等。根据特定的数据源,不同应用,不同类型 的数据进行收集,并 提供统一的数据采集方式,方便后台数据集成、数据存储。数据采集结构图:数据

39、采集主要是由采集服务器,通过HTTP协议和Restful技术把数据上传并缓存在WEB及消息服务器上,WEB及消息服务器可以缓存一周的数据上传 量,数据上传 后,再由消息处理服务进程(MPS)进程完成数据的最终清洗及格式,并最终入库存储。 台标等非结构化数据存储在分布式文件系统(S2DFS)中,log或者行为等结构化数据存 储在分布式数据库(MongonDB)中。参见如下数 据采集/存储流程图:DMQ是一个分布式的消息服务平台,提供的功能包括:配置维护、名字服 务、分布 式同步、组服务等,能提供一种高性能、可靠的、可扩展的、分布式的、可配置关键特 性,DMQ的核心技术特点:大容量:堆内存和高可用

40、性:假设你有100台服务器,并且每个节点有2GB的 空间用于复制缓存,最终你获得的总数据量的大小为200GB,每台服务器仅 仅是一个拷贝。相反,借助于分布式复制架构,可获得100GB的备份虚拟堆 内存,并且在网格中的任何位置都能访问。如果某台服务器崩溃了,网格只 需要简单地创建一份丢失数据的新副本,并将它们放到另一台服务器上。应 用也无需再借助于一个巨大的独立数据库来获取数据以追求最大性能的- 这是80%以上的企业应用中 的瓶颈所在!扩展性:由于数据是均匀分布的,所以除了考虑到网络上的组通讯, 根本就 没有必要来限制网格的大小网络上的组通讯只要能够发现一个新的节点即可. 所有的数据获取方式都是

41、通过点对点通信,即节点之间直接进行通信,非常容 易控制。DMQ的增加或者减少不需要关闭整个服务。简单的添加删除集群 中的机器不会引发任何服务中断。数据分布:DMQ使用一致性哈希算法来决定集群中键值的存储位置。 一致性 哈希算法成本低,速度快并且最重要的是不需要额外的元数据或者网络通信 就能确定键值的位置。 数据分布的目的是为了在集群 环境下保持足够的状 态副本以使其具备可持续性和容错性,但是又不会有过多的副本而阻碍DMQ 的可扩展性。原子性:一个Update操作不是成功就是失败,不会有第三种状态出现。顺序性:在一个DMQ集群中,其中一台DMQ服务器上的消息a在 消息b之 前发布,那么在所有的D

42、MQ服务器上的消息a都会在消息b之前被发布,DMQ会保持一致顺序。实时性:对于每个Client, DMQ集群中的所有服务器都会保持实时更 新制 度,使得所有的服务视图都会是最新的。分布式统一镜像:Client无论连接到集群中的哪一个 DMQ集群节点 服 务,都是得到同样的镜像视图。可靠性:数据在内存中缓存了 2份,任何一台计算机故障,都不会造 成数 据的丢失。2)分布式消息管理架构图:DMQ有以下几种关键较色,每类较色的职责如下表格描述角色名称职责领导者(Leader)就是DMQ集群的老大,它不接受Client的请求,是管理其他DMQ服务 的,只负责进行投票的发起和决议,最终更新状态.追随者

43、(Follower)追随者(Follower)的上司是领导者(Leader),参与领导者(Leader) 发起的投票,向下是面向客户端的交互,用于接收客户端的请求和反馈 客户端的结果。参与领导者(Leader)发起的投票。观察者 (Observer)观察者可以接收客户端连接,将与请求转发给领导者(Leader)节点。 但是Observer不参加投票过程,只是同步领导者(Leader )的状态。 Observer为系统扩展提供了一种方法。DMQ的核心是原子广播,这个机制保证了各个Server之间的同步,有两种模 式, 它们分别是恢复模式和广播模式。恢复模式:一般是在服务刚启动或者在领导者(Lea

44、der)崩溃后,开始进入 恢复 模式,此时先就会开始选举领导者(Leader),当领导者(Leader )被选举出来,并且 追随者(Follower)完成了和当前领导者(Leader)的状态及数据同步以 后,恢复模式 就结束了。广播模式:恢复模式结束后,即领导者(Leader)已经和追随者(Follower) 进行 了状态同步以后,他就可以开始广播消息了,即进入广播状态。3)分布式消息数据架构图:上图的MM (Messages Manager ):消息数据管理者。通过嵌入式nosql内核完 成上百 万并发量的缓存数据来提供异步发布和订阅。应用程序通过 JDBC/REST/Memcached等符

45、 合业界标准接口完成集群中的消息缓存数据的操作, 集群成员之间也通过该接口完成成 员之间的数据同步,状探测步。4)典型分布式消息平台比较:由于常见的RabbitMQ、ActiveMQ和ZeroMQ消息中间件不具备分布式功能, 所以不 在比较之列。数据采集中心面对的是高并发海量数据上传,所以分布式消息平台必须在数 据接收数据缓存数据发布整个过程保证数据的高性能吞吐、高可靠性、高扩展性、可维护 性等属性。注:*越多速速越快。3大数据计算平台需求概述根据应用,这个项目数据量30T,企业数据量非常大,需要大量并发,网络爬虫爬 取的企业数据信息存储在数据中心。此数据量跟企业记录相关。同时,需要对清洗后的

46、记录和计算好的推荐结果进行存 储,但是这些数据不放在数据中心。此项目之后会做成实时计算,需要用到流式计算的相 关计算和调度。计算量很大,可以多部署DCS进程,提高计算并发度,作业调度也要 采用分部署调度架构。总体设计云数据采集中心与大数据计算平台的关系是,云数据采集中心提供存储和计算资 源,通过API的方式访问资源,大数据计算平台主要实现核心算法,包括图 像匹配算 法,挖掘算法,智能推荐算法,知识学习算法等等,也能够通过 API的方式建立统计 应用、智能推荐应用等等。大数据计算平台的需要的数据:包括网上实时爬取得、二次 计算分析而获取的等等,都通过通用接口存储在云数据采集中心的分布式存储平台中

47、(分布式文件 系统(S2DFS)、分布式数据库(D2B)。计算时候,通过接口发起作业, 由云数据采集中心的作业调度服务进程(JSS)负责调度,由数据计算服务进程(DCS)负 责计算处理,并把结果反馈给大数据计算平台的各个应用。根据小节对S2DFS分布式文件系统的详细介绍,本章节就不重复叙述,由于要增 加新的存储设 备,对于新设备上安 装分布式文件系统是 否继续选用S2DFS还是 HDFS,我们需要回答以下几个问题:第一,预算增加及扩展问题:要部署HDFS,还得单独购买两台高性能设备作为 HDFS的元数据库服务器(注:两台设备,构成主备;配置不能比我们现在选 择的设备配置差,不然就会成为瓶颈,如果差了,数据 节点就扩展不了几 台。)。第二,学习成本及进度问题:要使用HDFS,必须熟悉它的API,以及后面 带来的 整个HDFS集群部

展开阅读全文
相关资源
猜你喜欢
相关搜索
资源标签

当前位置:首页 > 生活休闲 > 在线阅读


备案号:宁ICP备20000045号-2

经营许可证:宁B2-20210002

宁公网安备 64010402000987号