基于Spark的大数据挖掘技术分析.docx

上传人:李司机 文档编号:1614213 上传时间:2022-12-11 格式:DOCX 页数:5 大小:20.94KB
返回 下载 相关 举报
基于Spark的大数据挖掘技术分析.docx_第1页
第1页 / 共5页
基于Spark的大数据挖掘技术分析.docx_第2页
第2页 / 共5页
基于Spark的大数据挖掘技术分析.docx_第3页
第3页 / 共5页
基于Spark的大数据挖掘技术分析.docx_第4页
第4页 / 共5页
基于Spark的大数据挖掘技术分析.docx_第5页
第5页 / 共5页
亲,该文档总共5页,全部预览完了,如果喜欢就下载吧!
资源描述

《基于Spark的大数据挖掘技术分析.docx》由会员分享,可在线阅读,更多相关《基于Spark的大数据挖掘技术分析.docx(5页珍藏版)》请在三一办公上搜索。

1、基于Spark的大数据挖掘技术分析作者:于晶来源:智富时代2019年第11期【摘要】文章主要介绍了以SPark为基础的大数据挖掘,首先分析了以SPark为基础的大数据生态系统,其次介绍了分布式集群与开发环境构建,再次介绍了APriori算法实现,最后分析了以Spark为基础的分布协同过滤推荐。【关键词】SPark;大数据;挖掘技术因为大数据具有多样性、数据量大等特点,所以在大数据分析过程中,对于数据处理效率、速度以及实时性拥有较高要求。数据挖掘主要是以海量信息为目标,通过建模算法,找到隐藏的有用信息,充分发挥大数据价值。SPark体系主属于一种低延迟分布系统,以大范围数据集合为对象进行计算分析

2、等操作,借助SPark进行大数据挖掘工作,能够提高数据挖掘效率,发挥出大数据挖掘优势。一、以SPark为基础的大数据系统(一)SparkRuntimeSparkCore中的相关功能包括内存管理和任务调度等内容,内含故障修复和存储交互相关子元素。通过RDD结构在Spark中传送数据包的过程中,应该率先掌握Spark处理关键数据的操作流程,相关数据信息和对象概念之间较为相似。首先全部的数据集都被分成数个子集,而每个子集还能够被传输至集群相关节点当中进行有效处理分析。其次,能够妥善保存计算得到的中间结果,基于可靠性对问题进行详细思考,能够收获相同的计算结果,并在子集节点相关文件内进行备份储存C最后进

3、行计算解析时,如果在处理数据子集过程中筐生错误,则需要对子集进行重新整理,促进容错机制的有效落实。GraphX在SPark中,GraPhX是重要的子项目,为此应该以SPark为基础进行创建,对大规模图进行准确计算的基础上,融入GraPhX,能够使SPark进一步扩展大图处理计算方式,同时添加其他组件,实施系统融合,能够提升整体数据处理能力,保障其中各种应用都可以通过多种场景进行信息采集。其中GraphX的主要功能为帮助采集运输计算过程中所需要的数据图形运行符号,由于类库存在诸多定义,具体包括优化操作符与核心操作符,同时其中一部分还被定义于GraphOPS操作符内。通过隐性SCALE语言对特征进

4、行合理转换的过程中,能够控制调节GraPhOPS操作符。而GraPhX内,还能以多种分布式集群为基础实施图运算,拥有充足的APl接口,特别是在大图满足相应的规模后,需要对相关算法进行深入优化,从而为后期针对图集实施综合处理提供便利条件。GraPhX主要优势便是能够进一步扩大数据规模,强化数据吸收力度C(三)SparkStreamingSpark即分布式的SparkStreaming数据处理的结构系统,对Spark原有数据处理能力进行优化拓展的基础上,使SParkStreaming能够结合相应的操作阶段对单位进行准确分割,从而构成一种RDD,通过短小的时间间隔对流式数据进行有效处理,因为受到处理

5、延时问题的影响,从某一程度而言,还能够将其看作是实施处理结构。SParkStreaming属于一种容错结构形式,其错误恢复和错误处理水平极高,为此在错误处理方面拥有较为突出的应用优势。此外,SparkStreaming还能和Spark的生态模式实施有效对接,为此在协同处理完数据流之后,还可以对各种复杂现象进行有效处理。二、以SPark为基础的分布式集群和开发环境构建(-)硬件系统条件想要进一步提高系统的运行效果和兼容性,在创建分布式SPark集群的过程中,所应用的物理主机应该选择LINUX操作系统。通过三台虚拟设备和一个主机设备实施环境测试,以此为基础构建分布式集群,具体包括MASTER节点和

6、WORKER节点两个。而MASTER的核心工作任务便是对分布式SPark应用程序进行单机编制,并进行合理调节,其配置要求较高。MASTER节点区域装置设备应该配置四核处理器以及4G的内存,而WoRKER节点可以配置2G的内存。每个节点的相关硬件都是在PCIE的条件下创建固态硬盘,拥有较高的读写效率,能够进一步提升工作质量和运行速度。集群的操作形式不但可以进一步缩减运行成本,同时还可以结合现实需求适当调整节点数量,进行适当的减少或增加。(二)构建SPark分布式集群设置SCALA语言,同时把各个虚拟机装置中的SLAVES文件中的相关内容修改为集群内WoRKER节点主机名,此外还应该针对各个节点中

7、的SPark安装目录,即SPark-ENV.SH文件进行修改。其中,环境变量JDK对系统进行配置,SCALA-HoME这一安装路径会修改系统。MASTER内部相关各种节点主机名称和IP选择SParhMaSter_IP相关属性值,剩余内容则设置为默认值,此外还需要确保集群内的各个节点文件Spark-env.sh能够始终和文件SLAVES的内容维持良好的一致性,在结束相关配置工作后,利用JPS命令对集群的启动状态进行详细查看川。(三)配置IDE开发环境SCALA语言在进行设计研发过程中,需要以IDEA为核心条件,同时也是重要的基础条件,因此可以将其作为对SPark结构程序进行设计、编程的基础环境。

8、如果想要IDEA实际应用中缩减缓存数量,扩大I/O资源应用,占据有效空间,应该利用SSD硬盘对相关有用信息进行合理存储,提高系统整体应用性能。结束IDEA的配置工作后,继续检测SPark程序,提高程序的实效性C三、以Spark为基础的Apriori算法实现(-)概述Apriori算法是以挖掘关联规则为基础的频繁项集算法,可以对交易数据库进行反复扫描,通过候选频繁集形成频繁集,具体流程是对最小支持度进行定义,并选择全部的频繁项集,坚持置信度为基础依据,构建关联规则。APriOri算法的中心思想是结合APriori特性,针对频繁项集实施深入挖掘,具体包括下面两种环节:第一是对最小支持度进行定义,并

9、将全部的频繁项集全部筛选出来,第二是结合置信度生成关联规则。频繁项主要是在一块物品中频繁出现的集合,至于关联规则主要指两种物品之间存在较为明显的关系。而APriori算法的核心任务便是查询频繁项集,APriori的性质如下:对于某一频繁项集来讲,其各个子集也属于频繁项集,同时逆反命题也比较常用,对于非频繁项集来说,其所有超集都是属于非频繁形式的。比如,假设项集合2、3属于非频繁的,则结合APriori原理,项集1、2、3与0、2、3都属于非频繁的。如此便无需对三种项集的支持度进行计算.通过相关原理能够进一步控制项集数量相关指数的增长,无需再对频繁项集的效率进行计算。(二)APriori算法实现

10、Apriori算法以SPark平台为基础的分布式集群,其算法主要思路如下:第一是生成频繁项集,把事务集利用RDD形式广泛分布到不同机器当中,不断积累项目数量,维持高于支持度的项集。第二是针对频繁项集所衍生出来的频繁项集,项集之间自动连接,转化为Ck+1,随后对数据库进行扫描,并以Ck+1为基础构建频繁项集CApriori算法的实现环境主要是以SparkonYARN集群为主。单机Apriori算法选择集群内的MASTER节点作为测试环境。在算法操作中,还需要按顺序将数据集路径以及文件夹输出路径输入进去。APriori在解析数据集时,SPark集群内的全部节点全部呈现出一种打开状态,其消耗时间也远

11、远比单机模式要低,或仅有MASTER或WORKER单一节点打开过程所消耗的时间,具体原因是随着集群内工作节点的不断增加,集群整体配置水平的提升,其处理速度也将进一步加快CSPark自身所带有的支持伸缩计算功能,也进一步提升了大数据集整体效率。通过实践发现,使用不同编程语言,会对最终的算法结果产生不同程度的影响,导致运行结果之间产生巨大差异,具体原因是SPark结构形式可以准确计算系统呢内存状况,将相关算法融入到内存计算当中,使APriori相关计算效率能够得到有效提升,这是SPark结构优势之-O但以SPark为基础促进分布式算法和APriori算法的协同运行,最终的运行效率小于单机运行效率。

12、主要原因是SPark体系结构对数据集进行处理过程中,会和HFDS实施交互作用,从而针对数据实施封装和FDD分块处理,同时还包含DAG恢复相关任务。由此能够看出Spark集群模式较为适合对各种大型数据集实施处理操作。四、以SPark为基础的分布协同过滤推荐(-)MLliB算法库由于机器算法整个操作流程较为复杂,为此在实施迭代计算的过程中,需要把计算全部融入到磁盘内,等待启动任务,但如此一来便会出现大量的CPU消耗。针对该种状况,可以在应用SPark的过程中,可以直接于内存中运行处理部分任务工作,将迭代计算内容之间转移到内存当中进行处理,进一步提升迭代计算综合实力和运算效率,同时在需要的条件下,还

13、可以实施网络运行和磁盘操作。SPark应用到迭代计算方面拥有极高优势,同时还可以不断扩展,变为分布式学习平台。从通信角度出发进行深入思考,能够发现SPark十分高效,且十分出色,拥有极高的通讯效率。分布式算法学习过程中,相关资源主要在集群节点当中聚集2o(-)协同过滤算法协同算法即人们应用过程中,选择比较合理的想法,并将真实想法传递给用户。第一是系统过滤C通过面向全部用户选择拥有相同兴趣爱好的用户,充分结合用户的真实喜好,合理选择所需要的物品,将其组织起来,构建全新的序列与集合。用户还可以简单定义为邻居,但在操作过程中,需要解决的核心问题是针对存在聘问的用户以及满足具体条件标准的用户实施针对性

14、组织和有效利用。第二是协同过滤的中心思想。想要促进协同过滤中心思想的有效落实,应该进通过三种环节实施,采集用户喜好,认真分析用户应用物品过程中的相似性,结合最终的计算结果进行推荐。对用户爱好兴趣的处理分析质量能够影响系统推荐效果,由于不同用户各自的喜好方式之间也存在巨大的差异,同时还会被不同场景所影响。在一般的场景环境下,需要挑选出一种用户系统,随后充分结合用户需求,划分成不同的小组,具体包括两种分组方式:第一是结合用户的行为差异,将用户的行为特点作为基础参考依据实施分组操作。第二是针对不同行悬,针对用户爱好兴趣实施分组,并实施加权处理,对数据行为进行有效采集之后,针对数据实施预处理操作。以此

15、为基础,充分联系用户的爱好兴趣,为用户推荐其所需要的物品。选择恰当的推荐方式,将协同过滤分成以物品为基础的两种类型,分别是基础用户和协同用户。实施推荐操作中,选择恰当的邻居,当下比较常用的形式是对邻居相似程度进行规定和明确邻居数量C五、结语综上所述,在分布式集群中结合MLIib和SPark构建协同过滤推荐的运行方案,同时利用大数据集进行验证,能够将其在推荐系统中广泛推广开来。同时以Spark为基础的Apriori分布式算法,能够进一步弥补MLlib关联分析算法中的故障缺陷,并辅助大数据进行关联分析。【参考文献】1陈春谋.大数据环境下的档案管理系统信息检索及挖掘技术分析几电子测试,2019(14):92-94.梁彦基于分布式平台SPark和YARN的数据挖掘算法的并行化研究D.中山大学,2014.

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 生活休闲 > 在线阅读


备案号:宁ICP备20000045号-2

经营许可证:宁B2-20210002

宁公网安备 64010402000987号