大型数据库中的关联规则挖掘.ppt

上传人:牧羊曲112 文档编号:4970279 上传时间:2023-05-26 格式:PPT 页数:33 大小:294KB
返回 下载 相关 举报
大型数据库中的关联规则挖掘.ppt_第1页
第1页 / 共33页
大型数据库中的关联规则挖掘.ppt_第2页
第2页 / 共33页
大型数据库中的关联规则挖掘.ppt_第3页
第3页 / 共33页
大型数据库中的关联规则挖掘.ppt_第4页
第4页 / 共33页
大型数据库中的关联规则挖掘.ppt_第5页
第5页 / 共33页
点击查看更多>>
资源描述

《大型数据库中的关联规则挖掘.ppt》由会员分享,可在线阅读,更多相关《大型数据库中的关联规则挖掘.ppt(33页珍藏版)》请在三一办公上搜索。

1、第四章 关联规则挖掘,关联规则挖掘:从事务数据库,关系数据库和其他信息存储中的大量数据的项集之间发现有趣的、频繁出现的模式、关联和相关性。应用:购物篮分析、分类设计、捆绑销售等,“尿布与啤酒”典型关联分析案例,采用关联模型比较典型的案例是“尿布与啤酒”的故事。在美国,一些年轻的父亲下班后经常要到超市去买婴儿尿布,超市也因此发现了一个规律,在购买婴儿尿布的年轻父亲们中,有30%40%的人同时要买一些啤酒。超市随后调整了货架的摆放,把尿布和啤酒放在一起,明显增加了销售额。同样的,我们还可以根据关联规则在商品销售方面做各种促销活动。,一、基本概念,给定:项的集合:I=i1,i2,.,inT=t1,t

2、2tn是数据库中事务的集合,每个事务ti则是项的集合,使得则 为T中的关联规则。其中 并且,规则度量:支持度和置信度,Customerbuys diaper,Customerbuys both,Customerbuys beer,对所有满足最小支持度和置信度的关联规则支持度s是指事务集T中包含 的百分比置信度c是指T中包含A同时也包含B的事务占包含A的事务的百分比最小支持度 min_sup最小置信度 min_conf,强关联规则:如果事务集合T中的关联规则AB同时满足support(AB)min_sup,confidence(AB)min_conf,则AB称为T中的强关联规则。关联规则挖掘就是

3、在事务集合中挖掘强关联规则。,k项集:包含k个项的集合牛奶,面包,黄油是个3项集如果K项集的频率(即支持计数)大于最小支持计数(最小支持度T中的事务总数n),则称该项集为频繁K项集,二、关联规则挖掘步骤,大型数据库中的关联规则挖掘包含两个过程:找出所有频繁项集大部分的计算都集中在这一步由频繁项集产生强关联规则即满足最小支持度和最小置信度的规则,Apriori算法定理一 如果某k-项集不是频繁k-项集,则包含IK的(k+1)-项集也不是频繁(k+1)-项集。该性质称为Apriori性质。,由事务数据库挖掘单维布尔关联规则,最简单的关联规则挖掘,即单维、单层、布尔关联规则的挖掘。,最小支持度 50

4、%最小置信度 50%,对规则A C,其支持度 置信度,Apriori算法思想,一.扫描一次事务集合,找出频繁1项集集合L1;二.基于L1,产生候选2项集集合C2,再扫描一次事务集合,比较候选支持计数与最小支持计数,找出频繁2项集L2;三.基于L2,找出C3,作剪枝运算,得到剪枝后的C3,再扫描一次事务集合,确定L3;四.以此类推,直至找出频繁项集为止。最后在所有频繁项集中产生强关联规则。,Apriori算法示例,Database TDB,1st scan,C1,L1,L2,C2,C2,2nd scan,C3,L3,3rd scan,最小支持计数:2,使用Apiori性质由L2产生C3,1 连接

5、:C3=L2 L2=A,C,B,C,B,EC,E A,C,B,C,B,EC,E=A,B,C,A,C,E,B,C,E2使用Apriori性质剪枝:频繁项集的所有子集必须是频繁的,对候选项C3,我们可以删除其子集为非频繁的选项:A,B,C的2项子集是A,B,A,C,B,C,其中A,B不是L2的元素,所以删除这个选项;A,C,E的2项子集是A,C,A,E,C,E,其中A,E 不是L2的元素,所以删除这个选项;B,C,E的2项子集是B,C,B,E,C,E,它的所有2项子集都是L2的元素,因此保留这个选项。3这样,剪枝后得到C3=B,C,E,多层关联规则(1),在适当的等级挖掘出来的数据项间的关联规则可

6、能是非常有用的通常,事务数据库中的数据也是根据维和概念分层来进行储存的这为从事务数据库中挖掘不同层次的关联规则提供了可能。在多个抽象层挖掘关联规则,并在不同的抽象层进行转化,是数据挖掘系统应该提供的能力,挖掘多层关联规则的方法,通常,多层关联规则的挖掘还是使用置信度支持度框架,可以采用自顶向下策略请注意:概念分层中,一个节点的支持度肯定不小于该节点的任何子节点的支持度由概念层1开始向下,到较低的更特定的概念层,对每个概念层的频繁项计算累加计数每一层的关联规则挖掘可以使用Apriori等多种方法例如:先找高层的关联规则:computer-printer 20%,60%再找较低层的关联规则:lap

7、top-color printer 10%,50%,多层关联一致支持度,一致支持度:对所有层都使用一致的最小支持度优点:搜索时容易采用优化策略,即一个项如果不满足最小支持度,它的所有子项都可以不用搜索缺点:最小支持度值设置困难太高:将丢掉出现在较低抽象层中有意义的关联规则太低:会在较高层产生太多的无兴趣的规则,多层关联递减支持度,使用递减支持度,可以解决使用一致支持度时在最小支持度值上设定的困难递减支持度:在较低层使用递减的最小支持度每一层都有自己的一个独立的最小支持度抽象层越低,对应的最小支持度越小,min_sup=5%,min_sup=5%,min_sup=3%,多层关联搜索策略(1),具

8、有递减支持度的多层关联规则的搜索策略逐层独立:完全的宽度搜索,没有频繁项集的背景知识用于剪枝层交叉单项过滤:一个第i层的项被考察,当且仅当它在第(i-1)层的父节点是频繁的(P165,图6-14)(computer)(laptop computer,desktop computer)层交叉k项集过滤:一个第i层的k项集被考察,当且仅当它在第(i-1)层的对应父节点k-项集是频繁的(P165,图6-15)(computer,printer)(laptop computer,color printer),(desktop computer,b/w printer),多层关联搜索策略(2),搜索策略

9、比较逐层独立策略条件松,可能导致底层考察大量非频繁项层交叉k项集过滤策略限制太强,仅允许考察频繁k-项集的子女层交叉单项过滤策略是上述两者的折中,但仍可能丢失低层频繁项(图6-14),受控的层交叉单项过滤策略,层交叉单项过滤策略的改进版本设置一个层传递临界值,用于向较低层传递相对频繁的项。即如果满足层传递临界值,则允许考察不满足最小支持度临界值的项的子女用户对进一步控制多概念层上的挖掘过程有了更多的灵活性,同时减少无意义关联的考察和产生,min_sup=12%level_passage_support=8%,min_sup=3%,检查冗余的多层关联规则,挖掘多层关联规则时,由于项间的“祖先”关

10、系,有些发现的规则将是冗余的例如:desktop computer=b/w printer sup=8%,con=70%(1)IBM desktop computer=b/w printer sup=2%,con=72%(2)上例中,我们说第一个规则是第二个规则的“祖先”如果规则(2)中的项用它在概念分层中的“祖先”代替,能得到(1),而且(1)的支持度和置信度都接近“期望”值,则(1)是冗余的。,多维关联规则概念,单维关联规则:buys(X,“milk”)buys(X,“bread”)多维关联规则:涉及两个或多个维或谓词的关联规则维间关联规则:不包含重复的谓词age(X,”19-25”)oc

11、cupation(X,“student”)=buys(X,“coke”)混合维关联规则:包含某些谓词的多次出现age(X,”19-25”)buys(X,“popcorn”)=buys(X,“coke”)在多维关联规则挖掘中,我们搜索的不是频繁项集,而是频繁谓词集。k-谓词集是包含k个合取谓词的集合。例如:age,occupation,buys是一个3-谓词集,挖掘多维关联规则的技术,数据属性可以分为分类属性和量化属性分类属性具有有限个不同值,值之间无序量化属性数值类型的值,并且值之间有一个隐含的序挖掘多维关联规则的技术可以根据量化属性的处理分为三种基本方法:1.量化属性的静态离散化使用预定义的

12、概念分层对量化属性进行静态地离散化2.量化关联规则根据数据的分布,将量化属性离散化到“箱”3.基于距离的关联规则考虑数据点之间的距离,动态地离散化量化属性,多维关联规则挖掘使用量化属性的静态离散化,量化属性使用预定义的概念分层,在挖掘前进行离散化数值属性的值用区间代替如果任务相关数据存在关系数据库中,则找出所有频繁的k-谓词集将需要k或k+1次表扫描数据立方体技术非常适合挖掘多维关联规则n-维方体的单元用于存放对应n-谓词集的计数或支持度,0-D方体用于存放任务相关数据的事务总数如果包含感兴趣的维的数据立方体已经存在并物化,挖掘将会很快,同时可以利用Apriori性质:频繁谓词集的每个子集也必

13、须是频繁的,挖掘量化关联规则(1),量化关联规则中,数值属性将根据某种挖掘标准,进行动态的离散化例如:最大化挖掘规则的置信度和紧凑性为了简化量化关联规则挖掘的讨论,我们将聚焦于类似以下形式的2-维量化关联规则:Aquan1 Aquan2 Acat(两个量化属性和一个分类属性间的关联)例如:age(X,”30-39”)income(X,”42K-48K”)buys(X,”high resolution TV”),挖掘量化关联规则(2),找出这类2-维量化关联规则的方法:关联规则聚类系统(ARCS)一种源于图像处理的技术,该技术将量化属性对映射到满足给定分类属性条件的2-D栅格上,然后通过搜索栅格

14、点的聚类而产生关联规则,关联规则聚类系统(ARCS)(1),ARCS过程中的步骤包括1.分箱(根据不同分箱方法创建一个2-D数组),本步骤的目的在于减少量化属性相对应的巨大的值个数,使得2-D栅格的大小可控等宽分箱等深分箱基于同质的分箱(每个箱中元组一致分布)2.找出频繁谓词集扫描分箱后形成的2-D数组,找出满足最小支持度和置信度的频繁谓词集,关联规则聚类系统(ARCS)(2),3.关联规则聚类将上一步得到的强关联规则映射到2-D栅格上,使用聚类算法,扫描栅格,搜索规则的矩形聚类,ARCS的局限性,所挖掘的关联规则左手边只能是量化属性规则的左手边只能有两个量化属性(2-D栅格的限制)一种不基于

15、栅格的,可以发现更一般关联规则的技术,其中任意个数的量化属性和分类属性可以出现在规则的两端等深分箱动态划分根据部分完全性的度量进行聚类,挖掘基于距离的关联规则,等宽划分将很近的值分开,并创建没有数据的区间等深划分将很远的值放在一组基于距离的关联规则挖掘考虑属性值的接近性,紧扣区间数据的语义,并允许值的类似基于距离的关联规则挖掘的两遍算法:1.使用聚类找出区间或簇2.搜索频繁的一起出现的簇组,得到基于距离的关联规则,因为未考虑数据点之间或区间的相对距离,分箱方法不是总能紧扣区间数据的语义,关联规则的兴趣度度量,客观度量两个流行的度量指标支持度置信度主观度量最终,只有用户才能确定一个规则是否有趣的

16、,而且这种判断是主观的,因不同的用户而异;通常认为一个规则(模式)是有趣的,如果:它是出人意料的可行动的(用户可以使用该规则做某些事情)挖掘了关联规则后,哪些规则是用户感兴趣的?强关联规则是否就是有趣的?,对强关联规则的批评(1),例1:(Aggarwal&Yu,PODS98)在5000个学生中3000个打篮球3750个喝麦片粥2000个学生既打篮球又喝麦片粥然而,打篮球=喝麦片粥 40%,66.7%是错误的,因为全部学生中喝麦片粥的比率是75%,比打篮球学生的66.7%要高打篮球=不喝麦片粥 20%,33.3%这个规则远比上面那个要精确,尽管支持度和置信度都要低的多,对强关联规则的批评(2)

17、,例1:(书P172,表6-4)上述数据可以得出buys(X,“computer games”)=buys(X,“videos”)40%,60%但其实全部人中购买录像带的人数是75%,比60%多;事实上录像带和游戏是负相关的。由此可见A=B的置信度有欺骗性,它只是给出A,B条件概率的估计,而不度量A,B间蕴涵的实际强度。,由关联分析到相关分析,我们需要一种度量事件间的相关性或者是依赖性的指标当项集A的出现独立于项集B的出现时,P(AB)=P(A)P(B),即corrA,B1,表明A与B无关,corrA,B 1表明A与B正相关,corrA,B 1表明A与B负相关将相关性指标用于前面的例子,可以得出录像带和游戏将的相关性为:P(game,video)/(P(game)P(video)=0.4/(0.750.6)=0.89结论:录像带和游戏之间存在负相关,

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 生活休闲 > 在线阅读


备案号:宁ICP备20000045号-2

经营许可证:宁B2-20210002

宁公网安备 64010402000987号