数据挖掘原理与算法03关联规则挖掘课件.ppt

上传人:小飞机 文档编号:2062512 上传时间:2023-01-05 格式:PPT 页数:31 大小:213.24KB
返回 下载 相关 举报
数据挖掘原理与算法03关联规则挖掘课件.ppt_第1页
第1页 / 共31页
数据挖掘原理与算法03关联规则挖掘课件.ppt_第2页
第2页 / 共31页
数据挖掘原理与算法03关联规则挖掘课件.ppt_第3页
第3页 / 共31页
数据挖掘原理与算法03关联规则挖掘课件.ppt_第4页
第4页 / 共31页
数据挖掘原理与算法03关联规则挖掘课件.ppt_第5页
第5页 / 共31页
点击查看更多>>
资源描述

《数据挖掘原理与算法03关联规则挖掘课件.ppt》由会员分享,可在线阅读,更多相关《数据挖掘原理与算法03关联规则挖掘课件.ppt(31页珍藏版)》请在三一办公上搜索。

1、第三章 关联规则挖掘理论和算法 内容提要,基本概念与解决方法 经典的频繁项目集生成算法分析 Apriori算法的性能瓶颈问题Apriori的改进算法,2023/1/5,1,第三章 关联规则挖掘理论和算法,关联规则挖掘(Association Rule Mining)是数据挖掘中研究较早而且至今仍活跃的研究方法之一。最早是由Agrawal等人提出的(1993)。最初提出的动机是针对购物篮分析(Basket Analysis)问题提出的,其目的是为了发现交易数据库(Transaction Database)中不同商品之间的联系规则。关联规则的挖掘工作成果颇丰。例如,关联规则的挖掘理论、算法设计、算

2、法的性能以及应用推广、并行关联规则挖掘(Parallel Association Rule Mining)以及数量关联规则挖掘(Quantitive Association Rule Mining)等。关联规则挖掘是数据挖掘的其他研究分支的基础。,3.1 基本概念与解决方法,2023/1/5,2,关联规则挖掘(Association Rule Mining,3.1 基本概念与解决方法,事务数据库设I=i1,i2,im 是一个项目集合,事务数据库D=t1,t2,tn 是由一系列具有唯一标识TID的事务组成,每个事务ti(i=1,2,n)都对应I上的一个子集。一个事务数据库可以用来刻画:购物记录:

3、I是全部物品集合,D是购物清单,每个元组ti是一次购买物品的集合(它当然是I的一个子集)。其它应用问题,2023/1/5,3,3.1 基本概念与解决方法事务数据库2022/9/243,支持度与频繁项目集,定义3-1(项目集的支持度).给定一个全局项目集I和数据库D,一个项目集I1I在D上的支持度(Support)是包含I1的事务在D中所占的百分比:support(I1)=|t D|I1 t|/|D|。定义3-2(频繁项目集).给定全局项目集I和数据库D,D中所有满足用户指定的最小支持度(Minsupport)的项目集,即大于或等于minsupport的I的非空子集,称为频繁项目集(频集:Fre

4、quent Itemsets)或者大项目集(Large Iitemsets)。在频繁项目集中挑选出所有不被其他元素包含的频繁项目集称为最大频繁项目集(最大频集:Maximum Frequent Itemsets)或最大大项目集(Maximum Large Iitemsets)。,2023/1/5,4,支持度与频繁项目集 定义3-1(项目集的支持度).给定一个,可信度与关联规则,定义3-3(关联规则与可信度).给定一个全局项目集I和数据库D,一个定义在I和D上的关联规则形如I1I2,并且它的可信度或信任度或置信度(Confidence)是指包含I1和I2的事务数与包含I1的事务数之比,即Conf

5、idence(I1I2)=support(I1I2)/support(I1),其中I1,I2I,I1I2=。定义3-4(强关联规则).D在I上满足最小支持度和最小信任度(Minconfidence)的关联规则称为强关联规则(Strong Association Rule)。,2023/1/5,5,可信度与关联规则定义3-3(关联规则与可信度).给定一个全局,关联规则挖掘基本过程,关联规则挖掘问题可以划分成两个子问题:1.发现频繁项目集:通过用户给定Minsupport,寻找所有频繁项目集或者最大频繁项目集。2生成关联规则:通过用户给定Minconfidence,在频繁项目集中,寻找关联规则。第

6、1个子问题是近年来关联规则挖掘算法研究的重点。,2023/1/5,6,关联规则挖掘基本过程关联规则挖掘问题可以划分成两个子问题:2,3.2 经典的频繁项目集生成算法分析项目集空间理论经典的发现频繁项目集算法关联规则生成算法,2023/1/5,7,3.2 经典的频繁项目集生成算法分析2022/9/247,3.2.1 项目集空间理论,Agrawal等人建立了用于事务数据库挖掘的项目集格空间理论(1993,Appriori 属性)。定理3-1(Appriori 属性1).如果项目集X 是频繁项目集,那么它的所有非空子集都是频繁项目集。证明 设X是一个项目集,事务数据库T 中支持X 的元组数为s。对X

7、的任一非空子集为Y,设T中支持Y的元组数为s1。根据项目集支持数的定义,很容易知道支持X 的元组一定支持Y,所以s1 s,即support(Y)support(X)。按假设:项目集X 是频繁项目集,即support(X)minsupport,所以support(Y)support(X)minsupport,因此Y是频繁项目集。定理3-2(Appriori 属性2).如果项目集X 是非频繁项目集,那么它的所有超集都是非频繁项目集。证明(略),2023/1/5,8,3.2.1 项目集空间理论 Agrawal等人建立了用于事务,3.2.2 经典的发现频繁项目集算法,1994年,Agrawal 等人提

8、出了著名的Apriori 算法。算法3-1 Apriori(发现频繁项目集),(1)L1=large 1-itemsets;/所有1-项目频集(2)FOR(k=2;Lk-1;k+)DO BEGIN(3)Ck=apriori-gen(Lk-1);/Ck是k-候选集(4)FOR all transactions tD DO BEGIN(5)Ct=subset(Ck,t);/Ct是所有t包含的候选集元素(6)FOR all candidates c Ct DO(7)c.count+;(8)END(9)Lk=cCk|c.countminsup_count(10)END(11)L=Lk;,2023/1/

9、5,9,3.2.2 经典的发现频繁项目集算法1994年,Agrawa,apriori-gen过程,算法apriori中调用了apriori-gen(Lk-1),是为了通过(k-1)-频集产生K-侯选集。has_infrequent_subset(c,Lk-1),判断c是否加入到k-侯选集中。,(1)FOR all itemset p Lk-1 DO(2)FOR all itemset qLk-1 DO(3)IF p.item1=q.item1,p.itemk-2=q.itemk-2,p.itemk-1 q.itemk-1 THEN BEGIN(4)c=pq;/把q的第k-1个元素连到p后(5)

10、IF has_infrequent_subset(c,Lk-1)THEN(6)delete c;/删除含有非频繁项目子集的侯选元素(7)ELSE add c to Ck;(8)END(9)Return Ck;,2023/1/5,10,apriori-gen过程算法apriori中调用了apri,发现算法解决的是关联规则挖掘的第一个问题关联规则分为布尔关联规则和多值规则多值关联规则都转化为布尔关联规则来解决,因此先介绍布尔关联规则算法Apriori,AprioriTid,2023/1/5,11,发现算法解决的是关联规则挖掘的第一个问题2022/9/241,Apriori算法分析,分为第一次遍历和

11、第k次遍历第一次遍历计算每个项目的具体值,确定大项目集1项目集L1 第k次遍历利用前一次找到的大项集Lk-1 和Apriori-gen函数产生候选集Ck,然后扫描数据库,得到Ck 中候选的支持度,剔除了不合格的候选后Ck作为Lk,2023/1/5,12,Apriori算法分析分为第一次遍历和第k次遍历2022/9,例3-1,下表给出一个样本事务数据库,并对它实施Apriori算法。,2023/1/5,13,例3-1下表给出一个样本事务数据库,并对它实施Apriori,Apriori算法例子,Minsupport=40%,2023/1/5,14,Apriori算法例子Minsupport=40%

12、Datab,3.2.3 关联规则生成算法,根据上面介绍的关联规则挖掘的两个步骤,在得到了所有频繁项目集后,可以按照下面的步骤生成关联规则:对于每一个频繁项目集l,生成其所有的非空子集;对于l 的每一个非空子集x,计算Conference(x),如果Confidence(x)minconfidence,那么“x(l-x)”成立。算法3-4 从给定的频繁项目集中生成强关联规则算法3-4的核心是genrules递归过程,它实现一个频繁项目集中所有强关联规则的生成。,Rule-generate(L,minconf)(1)FOR each frequent itemset lk in L(2)genru

13、les(lk,lk);,2023/1/5,15,3.2.3 关联规则生成算法根据上面介绍的关联规则挖掘的两个,算法-递归测试一个频集中的关联规则,算法3-5 递归测试一个频集中的关联规则genrules(lk:frequent k-itemset,xm:frequent m-itemset)(1)X=(m-1)-itemsets xm-1|xm-1 in xm;(2)FOR each xm-1 in X BEGIN(3)conf=support(lk)/support(xm-1);(4)IF(conf minconf)THEN BEGIN(5)print the rule“xm-1(lk-xm

14、-1),with support=support(lk),confidence=conf”;(6)IF(m-1 1)THEN/generate rules with subsets of xm-1 as antecedents(7)genrules(lk,xm-1);(8)END(9)END;,2023/1/5,16,算法-递归测试一个频集中的关联规则算法3-5 递归测试一个,Rule-generate算法例子,Minconfidence=80%,序号lkxm-1confidencesupport规则(是否是强规则)123523100%50%235(是)2235267%50%235(否)323

15、5367%50%325(否)42352567%50%253(否)5235567%50%523(否)623535100%50%352(是),2023/1/5,17,Rule-generate算法例子Minconfidence,3.3 Apriori算法的性能瓶颈问题,Apriori作为经典的频繁项目集生成算法,在数据挖掘中具有里程碑的作用。Apriori算法有两个致命的性能瓶颈:1多次扫描事务数据库,需要很大的I/O负载对每次k循环,侯选集Ck中的每个元素都必须通过扫描数据库一次来验证其是否加入Lk。假如有一个频繁大项目集包含10个项的话,那么就至少需要扫描事务数据库10遍。2可能产生庞大的侯选

16、集由Lk-1产生k-侯选集Ck是指数增长的,例如104个1-频繁项目集就有可能产生接近107个元素的2-侯选集。如此大的侯选集对时间和主存空间都是一种挑战。,2023/1/5,18,3.3 Apriori算法的性能瓶颈问题Apriori作为经,3.4 Apriori的改进算法基于数据分割的方法基于散列的方法,2023/1/5,19,3.4 Apriori的改进算法2022/9/2419,3.4 提高Apriori算法效率的技术,一些算法虽然仍然遵循Apriori 属性,但是由于引入了相关技术,在一定程度上改善了Apriori算法适应性和效率。主要的改进方法有:基于数据分割(Partition)

17、的方法:基本原理是“在一个划分中的支持度小于最小支持度的k-项集不可能是全局频繁的”。基于散列(Hash)的方法:基本原理是“在一个hash桶内支持度小于最小支持度的k-项集不可能是全局频繁的”。基于采样(Sampling)的方法:基本原理是“通过采样技术,评估被采样的子集中,并依次来估计k-项集的全局频度”。其他:如,动态删除没有用的事务:“不包含任何Lk的事务对未来的扫描结果不会产生影响,因而可以删除”。,2023/1/5,20,3.4 提高Apriori算法效率的技术一些算法虽然仍然遵,基于数据分割的方法,定理3-5 设数据集D被分割成分块D1,D2,Dn,全局最小支持数为minsup_

18、count。如果一个数据分块Di 的局部最小支持数minsup_counti(i=1,2,n),按着如下方法生成:minsup_counti=minsup_count*|Di|/|D|则所有的局部频繁项目集涵盖全局频繁项目集。作用:1合理利用主存空间:数据分割将大数据集分成小的块,为块内数据一次性导入主存提供机会。2支持并行挖掘算法:每个分块的局部频繁项目集是独立生成的,因此提供了开发并行数据挖掘算法的良好机制。,2023/1/5,21,基于数据分割的方法定理3-5 设数据集D被分割成分块D1,,基于散列的方法,1995,Park等发现寻找频繁项目集的主要计算是在生成2-频繁项目集上。因此,P

19、ark等利用了这个性质引入杂凑技术来改进产生2-频繁项目集的方法。例子:桶地址=(10 x+y)mod 7;minsupport_count=3,TID Items1 I1,I2,I52 I2,I43 I2,I34 I1,I2,I45 I1,I36 I2,I37 I1,I38 I1,I2,I3,I59 I1,I2,I3,桶地址 0 1 2 3 4 5 6桶计数 2 2 4 2 2 4 4桶内 I1,I4 I1,I5 I2,I3 I2,I4 I2,I5 I1,I2 I1,I3 I3,I5 I1,I5 I2,I3 I2,I4 I2,I5 I1,I2 I1,I3 I2,I3 I1,I2 I1,I3

20、I2,I3 I1,I2 I1,I3,L2=I2,I3,I1,I2,I1,I3,2023/1/5,22,基于散列的方法1995,Park等发现寻找频繁项目集的主要计,第三章 关联规则挖掘理论和算法 内容提要,3.5 对项目集格空间理论的发展Close算法FP-tree算法,2023/1/5,23,第三章 关联规则挖掘理论和算法,探索新的理论,随着数据库容量的增大,重复访问数据库(外存)将导致性能低下。因此,探索新的理论和算法来减少数据库的扫描次数和侯选集空间占用,已经成为近年来关联规则挖掘研究的热点之一。两个典型的方法:Close算法 FP-tree算法,2023/1/5,24,探索新的理论随着

21、数据库容量的增大,重复访问数据库(外存)将导,Close算法对应的原理,一个频繁闭合项目集的所有闭合子集一定是频繁的;一个非频繁闭合项目集的所有闭合超集一定是非频繁的。什么是一个闭合的项目集?一个项目集C是闭合的,当且仅当对于在C中的任何元素,不可能在C中存在小于或等于它的支持度的子集。例如,C1=AB3,ABC2是闭合的;C2=AB2,ABC2不是闭合的;,2023/1/5,25,Close算法对应的原理一个频繁闭合项目集的所有闭合子集一定,Close算法的例子,下面是Close算法作用到表4-1数据集的执行过程(假如minsup_count=3):扫描数据库得到L1=(A,3),(B,5)

22、,(C,4),(D,3),(E,3);相应关闭项目集为 Cl(A)=ABC,3,Cl(B)=B,5,Cl(C)=BC,4,Cl(D)=BD,3,Cl(E)=BE,3;L2=(AB,3),(AC,3),(BC,4),(BD,3),(BE,3);相应关闭集为C2(AB)=ABC,3;L3,L4,L5不用测,于是频繁大项集为ABC。,样本数据库TIDItemset1 A,B,C,D2B,C,E3A,B,C,E4B,D,E5A,B,C,D,2023/1/5,26,Close算法的例子下面是Close算法作用到表4-1数据集,FP-tree算法的基本原理,进行2次数据库扫描:一次对所有1-项目的频度排序

23、;一次将数据库信息转变成紧缩内存结构。不使用侯选集,直接压缩数据库成一个频繁模式树,通过频繁模式树可以直接得到频集。基本步骤是:两次扫描数据库,生成频繁模式树FP-Tree:扫描数据库一次,得到所有1-项目的频度排序表T;依照T,再扫描数据库,得到FP-Tree。使用FP-Tree,生成频集:为FP-tree中的每个节点生成条件模式库;用条件模式库构造对应的条件FP-tree;递归挖掘条件FP-trees同时增长其包含的频繁集:如果条件FP-tree只包含一个路径,则直接生成所包含的频繁集。,2023/1/5,27,FP-tree算法的基本原理进行2次数据库扫描:一次对所有1,生成频繁模式树F

24、P-Tree,min_support=0.5,TIDOriginal Items(ordered)frequent items100f,a,c,d,g,i,m,pf,c,a,m,p200a,b,c,f,l,m,of,c,a,b,m300 b,f,h,j,of,b400 b,c,k,s,pc,b,p500 a,f,c,e,l,p,m,nf,c,a,m,p,2023/1/5,28,生成频繁模式树FP-Treef:4c:1b:1p:1b:,挖掘频集步骤1:生成条件模式库,为每个节点,寻找它的所有前缀路径并记录其频度,形成CPB,CPBitemcond.pattern basecf:3afc:3bfc

25、a:1,f:1,c:1mfca:2,fcab:1pfcam:2,cb:1,2023/1/5,29,挖掘频集步骤1:生成条件模式库为每个节点,寻找它的所有前缀,挖掘频集步骤2:构造C-FP-tree,为每一个节点,通过FP-tree构造一个C-FP-tree例如,m节点的C-FP-tree为:,m-CPB:fca:2,fcab:1,2023/1/5,30,挖掘频集步骤2:构造C-FP-tree为每一个节点,通过FP,挖掘频集步骤3:递归构造C-FP-tree,所有频集:m,fm,cm,am,fcm,fam,cam,fcam,单路径可以形成频集,2023/1/5,31,挖掘频集步骤3:递归构造C-FP-treef:3c:3a,

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 生活休闲 > 在线阅读


备案号:宁ICP备20000045号-2

经营许可证:宁B2-20210002

宁公网安备 64010402000987号