机器学习中的特征选择ppt课件.pptx

上传人:小飞机 文档编号:1342253 上传时间:2022-11-11 格式:PPTX 页数:30 大小:637.42KB
返回 下载 相关 举报
机器学习中的特征选择ppt课件.pptx_第1页
第1页 / 共30页
机器学习中的特征选择ppt课件.pptx_第2页
第2页 / 共30页
机器学习中的特征选择ppt课件.pptx_第3页
第3页 / 共30页
机器学习中的特征选择ppt课件.pptx_第4页
第4页 / 共30页
机器学习中的特征选择ppt课件.pptx_第5页
第5页 / 共30页
点击查看更多>>
资源描述

《机器学习中的特征选择ppt课件.pptx》由会员分享,可在线阅读,更多相关《机器学习中的特征选择ppt课件.pptx(30页珍藏版)》请在三一办公上搜索。

1、Feature Selection for Classification,李军政2017.5.10,2022/11/11,2,综述,What 从全部特征中选取一个特征子集,使构造出来的模型更好。Why 在机器学习的实际应用中,特征数量往往较多,其中可能存在不相关的特征,特征之间也可能存在相互依赖,容易导致如下的后果:分析特征、训练模型耗时长模型复杂、推广能力差引起维度灾难,2022/11/11,3,维度灾难,随着维数的增加,特征空间的体积指数增加,从而导致各方面的成本指数增加样本数量存储空间计算量,2022/11/11,4,如何从中选出有用的特征?,2022/11/11,5,特征选择流程,20

2、22/11/11,6,Generator,Evaluation,Stop Rule,Validation,Subset,Yes,No,Original Feature Set,两个主要步骤,产生过程特征子集的产生可以看作是一个搜索过程,搜索空间中的每一个状态都是一个可能特征子集。搜索的算法分为完全搜索(Complete),启发式搜索(Heuristic),随机搜索(Random) 3大类。评价函数评价函数是评价一个特征子集好坏的准则特征的评估函数分为五类:相关性,距离,信息增益,一致性和分类错误率。,2022/11/11,7,搜索算法之完全搜索,完全搜索分为穷举搜索与非穷举搜索两类广度优先搜索

3、(BFS )分支限界搜索(BAB) 定向搜索 (BS)最优优先搜索(Best First Search),2022/11/11,8,BS: 首先选择N个得分最高的特征作为特征子集,将其加入一个限制最大长度的优先队列,每次从队列中取出得分最高的子集,然后穷举向该子集加入1个特征后产生的所有特征集,将这些特征集加入队列。,搜索算法之启发式搜索,启发式搜索序列前向选择(SFS)序列后向选择(SBS)双向搜索(BDS)增L去R选择算法 (LRS)L和R的选择是关键序列浮动选择(Sequential Floating Selection)决策树(DTM),2022/11/11,9,LRS两种形式: 算法

4、从空集开始,每轮先加入L个特征,然后从中去除R个特征,使得评价函数值最优。( L R ),在训练样本集上运行C4.5或其他决策树生成算法,待决策树充分生长后,再在树上运行剪枝算法。则最终决策树各分支处的特征就是选出来的特征子集。一般使用信息增益作为评价函数。,L和R怎么确定?,搜索算法之随机算法,随机算法随机产生序列选择算法(RGSS)随机产生一个特征子集,然后在该子集上执行SFS与SBS算法模拟退火算法(SA)以一定的概率来接受一个比当前解要差的解,因此有可能会跳出这个局部的最优解,达到一个全局次最优解遗传算法(GA)共同缺点:依赖于随机因素,有实验结果难以重现,2022/11/11,10,

5、评价函数,作用是评价产生过程所提供的特征子集的好坏按照其工作原理,评价函数可以分为三种模型:过滤模型(Filter Model)封装模型(Wrapper Model )混合模型(Embedded Model )被称为特征选择的经典三刀:飞刀(Filter)弯刀(Wrapper)电刀(Embedded ),2022/11/11,11,评价函数过滤模型,2022/11/11,12,根据特征子集内部的特点来衡量其好坏,如欧氏距离、相关性、信息熵等特征子集在学习算法运行之前就被选定学习算法用于测试最终特征子集的性能特点:简单、效率高,但精度差,评价函数封装模型,学习算法封装在特征选择的过程中,用特征子

6、集在学习算法上得到的挖掘性能作为特征子集优劣的评估准则。与过滤模型相比,精度高、但效率低。根本区别在于对学习算法的使用方式,2022/11/11,13,评价函数混合模型,混合模型把这两种模型进行组合,先用过滤模式进行初选,再用封装模型来获得最佳的特征子集。,2022/11/11,14,2022/11/11,15,常用评价函数,特征的评价函数分为五类:相关性;距离;信息增益;一致性;分类错误率前四种属于过滤模型,分类错误率属于封装模型从概率论的角度 相关系数:值域范围:-1, +1绝对值越大,相关性越大,常用评价函数,从数理统计的角度(假设检验)T检验 检验与相关系数在理论上非常接近,但更偏重于

7、有限样本下的估计T检验统计量:其中,n为样本容量, 、 为样本均值和方差, 为总体方差。,2022/11/11,16,常用评价函数,从信息论角度条件熵与“相关性”负相关信息增益相对信息增益互信息量(Mutual Information),2022/11/11,17,常用评价函数,IR领域的度量(逆)文档词频(inverse document frequency)词强度(term strength)已知一个词(特征)在某文档(实例)中出现,该词在同类(目标函数值相同)文档中出现的概率为词强度,2022/11/11,18,包含词(特征)t的文档数,常用评价函数,学习相关的度量分类准确率 准确率、召

8、回率、F值、AUC等用单一维特征进行分类训练,某种分类准确率指标作为特征的有效性度量复杂度较大不一定有合适的准确率指标,2022/11/11,19,2022/11/11,20,过滤模型Fish Score,Fisher Score:计算两个分布的距离第i个特征的权重公式为: 其中uij和pij分别是第i个特征在第j类中的均值和方差,nj为第j类中实例的个数,ui为第i个特征的均值,K为总类别数。缺点:容易产生冗余特征,f1,f2 忽略组合特征,f1 | f2,2022/11/11,21,过滤模型Chi-Squared test,卡方检验利用统计学中的假设检验思想,利用卡方统计量来衡量特征和类别

9、之间的相关程度。卡方值公式:其中,N是文档总数,A是 包含词t且 属于c类的文档数目B是 包含词t且不属于c类的文档数目C是不包含词t且 属于c类的文档数目D是不包含词t且不属于c类的文档数目sklearn.feature_selection.chi2(X,y),2022/11/11,22,过滤模型Relief,Relief: 根据各个特征和类别的关系赋予特征不同的权重,权重小于某阈值的将被移除。,2022/11/11,23,Relief算法的缺点,Relief算法属于特征权重算法,该算法缺点在于:他们可以捕获特征与目标概念间的相关性,却不能发现特征间的冗余性。Relief-F是Relief的

10、升级版,可用于多分类经验证明除了无关特征对学习任务的影响,冗余特征同样影响学习算法的速度和准确性,也应尽可能消除冗余特征。,2022/11/11,24,封装模型增量法,封装模型首先需要选用较好学习算法,如RF、SVM、LR、KNN等可以使用前面提到的各种缩小搜索空间的尝试,其中最经典的是启发式搜索,概括来说主要分为两大类:增量法(SFS: sequential forward selection)减量法(SBS),2022/11/11,25,增量法试验结果,2022/11/11,26,增/减量法优缺点复杂度关于维数为 或选单个特征采用评价准则排序的方式为一次选单个特征采用测试全部特征的方式为二次本质上是贪心算法某些组合无法遍历可能陷入局部极值,2022/11/11,27,2022/11/11,28,总结,2022/11/11,数据挖掘中的特征选择,29,1,2,3,特征选择是机器学习领域中重要的步骤,具有重要的学术意义和研究价值,根据不同的搜索策略和评价函数,可以组合出多种特征选择方法。主要分三类:过滤、封装、混合模型,在实际应用中各有优缺,我们应从效率、精准度等角度综合考虑对比,选用最优的特征选择方法,先利用过滤模型去除一部分无用或贡献度不大的特征,再利用封装模型进行特征选择,是一个不错的步骤,2022/11/11,30,谢谢!,

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 生活休闲 > 在线阅读


备案号:宁ICP备20000045号-2

经营许可证:宁B2-20210002

宁公网安备 64010402000987号