贝叶斯分类器经典讲解ppt课件.ppt

上传人:牧羊曲112 文档编号:1449329 上传时间:2022-11-26 格式:PPT 页数:38 大小:2.43MB
返回 下载 相关 举报
贝叶斯分类器经典讲解ppt课件.ppt_第1页
第1页 / 共38页
贝叶斯分类器经典讲解ppt课件.ppt_第2页
第2页 / 共38页
贝叶斯分类器经典讲解ppt课件.ppt_第3页
第3页 / 共38页
贝叶斯分类器经典讲解ppt课件.ppt_第4页
第4页 / 共38页
贝叶斯分类器经典讲解ppt课件.ppt_第5页
第5页 / 共38页
点击查看更多>>
资源描述

《贝叶斯分类器经典讲解ppt课件.ppt》由会员分享,可在线阅读,更多相关《贝叶斯分类器经典讲解ppt课件.ppt(38页珍藏版)》请在三一办公上搜索。

1、贝叶斯算法,贝叶斯算法,贝叶斯 ,英国数学家。1702年出生于伦敦,做过神甫。1742年成为英国皇家学会会员。1763年4月7日逝世。贝叶斯在数学方面主要研究概率论。他首先将归纳推理法用于概率论基础理论,并创立了贝叶斯统计理论,对于统计决策函数、统计推断、统计的估算等做出了贡献。,一个医疗诊断问题,有两个可选的假设:病人有癌症、病人无癌症可用数据来自化验结果:正+和负-有先验知识:在所有人口中,患病率是0.008对确实有病的患者的化验准确率为98%,对确实无病的患者的化验准确率为97%总结如下P(cancer)=0.008, P(cancer)=0.992P(+|cancer)=0.98, P

2、(-|cancer)=0.02P(+|cancer)=0.03, P(-|cancer)=0.97,问题:假定有一个新病人,化验结果为正,是否应将病人断定为有癌症?求后验概率P(cancer|+)和P(cancer|+),贝叶斯定理,解决上面的问题:已知某条件概率,如何得到两个事件交换后的概率,也就是在已知P(A|B)的情况下如何求得P(B|A)。,癌症,诊断正确,诊断正确,癌症,贝叶斯定理,这里先解释什么是条件概率,在事情B发生的条件下A发生的条件概率,其求解公式为,贝叶斯定理,贝叶斯定理的意义在于,我们在生活中经常遇到这种情况:我们可以很容易直接得出P(A|B),P(B|A)则很难直接得出

3、,但我们更关心P(B|A),贝叶斯定理就为我们打通从P(A|B)获得P(B|A)的道路。,贝叶斯定理,下面不加证明给出贝叶斯定理公式,机器语言中的定义,表示在没有训练数据前假设A拥有的初始概率。P(A)被称为A的先验概率.,P(A|B)表示假设B成立时A的概率机器学习中我们关心的是P(B|A),即给定A时B的成立的概率,称为B的后验概率,,贝叶斯定理的解释,P(B|A)随着P(B)和P(A|B)的增长而增长,随着P(A)的增长而减少,即如果A独立于B时被观察到的可能性越大,那么B对A的支持度越小.,评分标准,H:假设候选集,表示使P(B|A),最大的B值,P(A)?_,P(A|B)=,朴素贝叶

4、斯分类器,1、条件独立性,给定类标号y,朴素贝叶斯分类器在估计类条件概率时假设属性之间条件独立。条件独立假设可以形式化的表达如下:,其中每个训练样本可用一个属性向量X=(x1,x2,x3,xn)表示,各个属性之间条件独立。,朴素贝叶斯分类器,比如,对于一篇文章“Good good study,Day day up.”,用一个文本特征向量来表示:x=(Good, good, study, Day, day , up)。,一般各个词语之间肯定不是相互独立的,有一定的上下文联系。但在朴素贝叶斯文本分类时,我们假设个单词之间没有联系,可以用一个文本特征向量来表示这篇文章,这就是“朴素”的来历。,朴素贝

5、叶斯如何工作,有了条件独立假设,就不必计算X和Y的每一种组合的类条件概率,只需对给定的Y,计算每个Xi的条件概率。后一种方法更实用,因为它不需要很大的训练集就能获得较好的概率估计。,估计分类属性的条件概率,P(Xi|Y=y)怎么计算呢?它一般根据类别y下包含属性Xi的实例的比例来估计。以文本分类为例,Xi表示一个单词,P(Xi|Y=y)=包含该类别下包含单词的xi的文章总数/ 该类别下的文章总数。,贝叶斯分类器举例,假设给定了如下训练样本数据,我们学习的目标是根据给定的天气状况判断你对PlayTennis这个请求的回答是Yes还是No。,贝叶斯分类器,打网球,我们需要利用训练数据计算后验概率P

6、(Yes|x)和P(No|x),如果P(Yes|x)P(No|x),那么新实例分类为Yes,否则为No。,贝叶斯分类器举例,我们将使用此表的数据,并结合朴素贝叶斯分类器来分类下面的新实例:,贝叶斯分类器举例,P(Outlook = Sunny|No)=3/5,P(Temperature = Cool |No) =1/5,P(Humidity = High |No) =4/5,P(Wind = Strong |No) =3/5,贝叶斯分类器举例,P(Outlook = Sunny|No)=3/5,P(Temperature = Cool |No) =1/5,P(Humidity = High |

7、No) =4/5,P(Wind = Strong |No) =3/5,贝叶斯分类器举例,P(Outlook = Sunny|Yes)=2/9,P(Temprature = Cool |Yes) =3/9,P(Humidity = High |Yes) =3/9,P(Wind = Strong |Yes) =3/9,P(Outlook = Sunny|Yes)=2/9,P(Temprature = Cool |Yes) =3/9,P(Humidity = High |Yes) =3/9,P(Wind = Strong |Yes) =3/9,贝叶斯分类器举例,贝叶斯分类器举例,由于,大于,所以该样

8、本分类为No,朴素贝叶斯分类器的工作流程,条件概率的m估计,假设有来了一个新样本 x1= (Outlook = Cloudy,Temprature = Cool,Humidity = High,Wind = Strong)要求对其分类。我们来开始计算 P(Outlook = Cloudy|Yes)=0/9=0 P(Outlook = Cloudy |No)=0/5=0 计算到这里,大家就会意识到,这里出现了一个新的属性值,在训练样本中所没有的。如果有一个属性的类条件概率为0,则整个类的后验概率就等于0,我们可以直接得到后验概率P(Yes | x1)= P(No | x1)=0,这时二者相等,无

9、法分类。,条件概率的m估计,当训练样本不能覆盖那么多的属性值时,都会出现上述的窘境。简单的使用样本比例来估计类条件概率的方法太脆弱了,尤其是当训练样本少而属性数目又很大时。 解决方法是使用m估计(m-estimate)方法来估计条件概率:,n是Y中的样本总数,nc是Y中取值xi的样本数,m是称为等价样本大小的参数,而p是用户指定的参数。如果没有训练集(即n=0),则P(xi|yj)=p, 因此p可以看作是在Y的样本中观察属性值xi的先验概率。等价样本大小决定先验概率和观测概率nc/n之间的平衡,多项式模型,基本原理 在多项式模型中, 设某文档d=(t1,t2,tk),tk是该文档中出现过的单词

10、,允许重复,则: V是训练样本的单词表(即抽取单词,单词出现多次,只算一个),|V|则表示训练样本包含多少种单词。在这里,m=|V|, p=1/|V|。 P( tk|c)可以看作是单词tk在证明d属于类c上提供了多大的证据,而P(c)则可以认为是类别c在整体上占多大比例(有多大可能性)。,多项式模型举例,给定一个新样本Chinese Chinese Chinese Tokyo Japan,对其进行分类。,该文本用属性向量表示为d=(Chinese, Chinese, Chinese, Tokyo, Japan)类别集合为Y=yes, no。,多项式模型举例,字典里包括六个单词,P(Chines

11、e | yes)=(5+1)/(8+6)=6/14=3/7,P(Japan | yes)=P(Tokyo | yes)= (0+1)/(8+6)=1/14,P(Chinese|no)=(1+1)/(3+6)=2/9,P(Japan|no)=P(Tokyo| no) =(1+1)/(3+6)=2/9,(yes|d)=(3/7)31/141/148/11=108/1848770.00058417P(no|d)= (2/9)32/92/93/11=32/2165130.00014780因此,这个文档属于类别china。,伯努利模型,1、基本原理,在这里,m=2, p=1/2。,p( |c=YES)=

12、 p( |c=yes)(1-p( |c=yes),伯努利模型举例,d=Chinese Chinese Chinese Tokyo Japan,伯努利模型举例,P(Chinese|yes)=(3+1)/(3+2)=4/5,P(Beijing|yes)= P(Macao|yes)= P(Shanghai |yes)=(1+1)/(3+2)=2/5,P(Japan | yes)=P(Tokyo | yes)=(0+1)/(3+2)=1/5,伯努利模型举例,P(Chinese|no)=(1+1)/(1+2)=2/3,P(Japan|no)=P(Tokyo| no) =(1+1)/(1+2)=2/3,P

13、(Beijing|no)= P(Macao|no)= P(Shanghai|no)=(0+1)/(1+2)=1/3,伯努利模型举例,P(yes | d)=P(yes)P(Chinese|yes) P(Japan|yes) P(Tokyo|yes)(1-P(Beijing|yes) (1-P(Shanghai|yes)(1-P(Macao|yes)=3/44/51/51/5(1-2/5) (1-2/5)(1-2/5)=81/156250.005P(no | d)= 1/42/32/32/3(1-1/3)(1-1/3)(1-1/3)=16/7290.022,因此,这个文档不属于类别china。,二者的计算粒度不一样,多项式模型以单词为粒度,伯努利模型以文件为粒度,因此二者的先验概率和类条件概率的计算方法都不同。计算后验概率时,对于一个文档d,多项式模型中,只有在d中出现过的单词,才会参与后验概率计算.伯努利模型中,没有在d中出现,但是在全局单词表中出现的单词,也会参与计算,不过是作为“反方”参与.,模型比较,模板提供者,http:/,500,000 个可下载的 PowerPoint 模板、动态剪贴画、背景和视频,谢谢观赏,WPS Office,Make Presentation much more fun,WPS官方微博kingsoftwps,

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 生活休闲 > 在线阅读


备案号:宁ICP备20000045号-2

经营许可证:宁B2-20210002

宁公网安备 64010402000987号