不确定性推理人工智能原理及其应电子教案.ppt

上传人:小飞机 文档编号:5906912 上传时间:2023-09-02 格式:PPT 页数:104 大小:495KB
返回 下载 相关 举报
不确定性推理人工智能原理及其应电子教案.ppt_第1页
第1页 / 共104页
不确定性推理人工智能原理及其应电子教案.ppt_第2页
第2页 / 共104页
不确定性推理人工智能原理及其应电子教案.ppt_第3页
第3页 / 共104页
不确定性推理人工智能原理及其应电子教案.ppt_第4页
第4页 / 共104页
不确定性推理人工智能原理及其应电子教案.ppt_第5页
第5页 / 共104页
点击查看更多>>
资源描述

《不确定性推理人工智能原理及其应电子教案.ppt》由会员分享,可在线阅读,更多相关《不确定性推理人工智能原理及其应电子教案.ppt(104页珍藏版)》请在三一办公上搜索。

1、1,第6章 不确定性推理,6.1 不确定性推理的基本概念 6.1.1 不确定性推理的含义 6.1.2 不确定性推理的基本问题 6.1.3 不确定性理的类型6.2 不确定性推理的概率论基础6.3 确定性理论6.4 主观Bayes方法6.4 证据理论6.5 模糊推理,现实世界中的大多数问题是不精确、非完备的。对于这些问题,若采用前面所讨论的精确性推理方法显然是无法解决的。为此,人工智能需要研究不精确性的推理方法,以满足客观问题的需求。,2,6.1.1 不确定性推理的含义,1.什么是不确定性推理 不确定性推理泛指除精确推理以外的其它各种推理问题。包括不完备、不精确知识的推理,模糊知识的推理,非单调性

2、推理等。不确定性推理过程实际上是一种从不确定的初始证据出发,通过运用不确定性知识,最终推出具有一定不确定性但却又是合理或基本合理的结论的思维过程。2.为什么要采用不确定性推理 所需知识不完备 不精确所需知识描述模糊 多种原因导致同一结论 问题的背景知识不足 解题方案不唯一,3,1.不确定性的表示2.不确定性的匹配3.组合证据的不确定性的计算4.不确定性的更新5.不确定性结论的合成,6.1.2 不确定性推理的基本问题,4,(1)知识的不确定性的表示 考虑因素:问题的描述能力 推理中不确定性的计算含义:知识的确定性程度,或动态强度表示:用概率,0,1,0接近于假,1接近于真 用可信度,-1,1,大

3、于0接近于真 小于0接近于假,6.1.2 不确定性推理的基本问题1.不确定性的表示,(2)证据的非精确性表示 证据来源:初始证据,中间结论 表示:用概率或可信度,5,含义 不确定的前提条件与不确定的事实匹配问题 前提是不确定的,事实也是不确定的方法 设计一个计算相似程度的算法,给出相似的限度标志 相似度落在规定限度内为匹配,否则为不匹配,6.1.2 不确定性推理的基本问题2.不确定性的匹配,6,含义 知识的前提条件是多个证据的组合方法 最大最小方法,如合取取最小、析取取最大 概率方法,按概率,6.1.2 不确定性推理的基本问题3.组合证据不确定性的计算,7,4.非精确性的更新 主要问题 如何用

4、证据的不确定性去更新结论的不确定性 如何在推理中把初始证据的不确定性传递给最终结论 解决方法 对,不同推理方法的解决方法不同 对,不同推理方法的解决方法基本相同,即把当 前结论及其不确定性作为新的结论放入综合数据库,依次 传递,直到得出最终结论5.非精确性结论的合成 含义:多个不同知识推出同一结论,且不确定性程度不同 方法:视不同推理方法而定,6.1.2 不确定性推理的基本问题4.不确定性的更新 5.不确定性结论的合成,8,6.1.2 不确定性推理的类型,9,6.1 不确定性推理的基本概念6.2 不确定性推理的概率论基础 6.2.1 样本空间和随机事件 6.3.2 事件的概率 6.3.3 全概

5、率公式和Bayes公式6.3 确定性理论6.4 主观Bayes方法6.5 证据理论6.6 模糊推,第6章 不确定性推理,10,概念 在概率论中,把试验中每一个可能出现的结果称为试验的一个样本点,由全体样本点构成的集合称为样本空间。表示 通常,用D表示样本空间,d表示样本点。例子 在掷币试验中,若用d1表示硬币的正面向上,用d2表示硬币的反面向上,则该试验的样本空间为:D=d1,d2,6.2.1 样本空间和随机事件1.样本空间,11,概念 由样本点构成的集合称为随机事件 例子:在掷币试验中,若用A表示硬币正面向上这一事件,则有 A=d1 运算 并事件 事件A与事件B至少有一个发生 记为AB 交事

6、件 事件A与事件B同时发生 记为AB 互逆事件 事件A与B之间满足“AB=,AB=D”,6.2.1 样本空间和随机事件2.随机事件,12,频率的概念 统计概率是通过某一事件出现的频率定义的。频率:fn(A)=m/n式中,A所讨论的事件,n是试验的总次数,m是实验中A发生的次数 统计概率的定义 定义6.1 在同一组条件下所进行大量重复试验时,如果事件A出现的频率总是在区间0,1上的一个确定常数p附近摆动,并且稳定于p,则称p为事件A的统计概率。即 P(A)=p 统计概率例子 在掷币试验中,当掷币次数足够多时有 fn(正面向上)=0.5则称正面向上的概率为0.5,即 P(正面向上)=0.5,6.2

7、.2 事件的概率1.统计概率(1/2),13,统计概率的性质(1)对任一事件A,有 0P(A)=1(2)必然事件D的概率P(D)=1,不可能事件的概率P()=0。(3)对任一事件A,有 P(A)=1-P(A)(4)设事件A1,A2,Ak(kn)是两两互不相容的事件,即有AiAj=(ij),则(5)设A、B是两个事件,则 P(AB)=P(A)+P(B)-P(AB),6.2.2 事件的概率1.统计概率(2/2),14,概念 定义6.2 设A与B是两个随机事件,P(B)0,则称:P(A|B)=P(AB)/P(B)为在事件B发生的条件下事件A 的条件概率。例子 设样本空间D是扑克牌中的54张牌,即D=

8、红桃A,方块A,黑桃A,梅花A,红桃2,方块2,小王,大王,且有以下两个事件 A=取花脸牌,B=取红桃牌,求在事件B发生的条件下事件A发生的概率P(A|B)。解:由于事件B已经发生,因此以下事件取到红桃A;取到红桃2;取到红桃3;取到红桃K中必有一个出现。而对事件A,在事件B发生的前提下,只有以下事件取到红桃J;取到红桃Q;取到红桃K中的一个发生时事件A才能发生。因此,在事件B发生的条件下事件A发生的概率是3/13。,6.2.2 事件的概率2.条件概率,15,定理6.1 设事件A1,A2,An满足:(1)任意两个事件都互不相容,即当ij时,有AiAj=(i=1,2,n;j=1,2,n);(2)

9、P(Ai)0(i=1,2,n);(3)D=则对任何事件B由下式成立:该公式称为全概率公式,它提供了一种计算P(B)的方法。,6.2.3 全概率公式和Bayes公式1.全概率公式,16,定理6.2 设事件A1,A2,An满足定理6.1规定的条件,则对任何事件B有下式成立:该定理称为Bayes定理,上式称为Bayes公式。其中,P(Ai)是事件Ai的先验概率,P(B|Ai)是在事件Ai发生条件下事件B的条件概率;P(Ai|B)是在事件B发生条件下事件Ai的条件概率。如果把全概率公式代入Bayes公式,则有:即这是Bayes公式的另一种形式。Bayes定理给处了用逆概率P(B|Ai)求原概率P(Ai

10、|B)的方法。,6.2.3 全概率公式和Bayes公式2.Bayes公式,17,6.1 不确定性推理的基本概念6.2 不确定性推理的概率论基础6.3 确定性理论 6.3.1 可信度的概念 6.3.2 CF模型6.4 主观Bayes方法6.5 证据理论6.6 模糊推理,第6章 不确定性推理,18,可信度是指人们根据以往经验对某个事物或现象为真的程度的一个判断,或者说是人们对某个事物或现象为真的相信程度。例如,沈强昨天没来上课,理由是头疼。就此理由,只有以下两种可能:一是真的头疼了,理由为真;二是没有头疼,理由为假。但就听话人而言,因不能确切知道,就只能某种程度上相信,即可信度。可信度具有一定的主

11、观性,较难把握。但对某一特定领域,让该领域专家给出可信度还是可行的。,6.3.1 可信度的概念,19,6.3.2 CF模型1.知识不确定性的表示,表示形式:在C-F模型中,知识是用产生式规则表示的,其一般形式为:IF E THEN H(CF(H,E)其中,E是知识的前提条件;H是知识的结论;CF(H,E)是知识的可信度。说明:(1)E可以是单一条件,也可以是复合条件。例如:E=(E1 OR E2)AND E3 AND E4(2)H可以是单一结论,也可以是多个结论(3)CF是知识的静态强度,CF(H,E)的取值为-1,1,表示当E为真时,证据对H的支持程度,其值越大,支持程度越大。例子:IF 发

12、烧 AND 流鼻涕 THEN 感冒(0.8)表示当某人确实有“发烧”及“流鼻涕”症状时,则有80%的把握是患了感冒。,20,可信度的定义 在CF模型中,把CF(H,E)定义为 CF(H,E)=MB(H,E)-MD(H,E)式中MB称为信任增长度,MB(H,E)定义为MD称为不信任增长度,MB(H,E)定义为,6.3.2 CF模型2.可信度的定义与性质(1/5),21,MB和MD的关系 当MB(H,E)0时,有P(H|E)P(H),即E的出现增加了H的概率 当MD(H,E)0时,有P(H|E)0,CF(H,E)=0,CF(H,E)0,=,-,-,=,-,-,-,=,-,=,),(,),|,(,)

13、,(,),|,(,),(,),|,(,),(,),|,(,),(,),(,0,0,),(,1,),(,),|,(,0,),(,),(,H,P,E,H,P,H,P,E,H,P,H,P,E,H,P,H,P,E,H,P,H,P,E,H,MD,H,P,H,P,E,H,P,E,H,MB,E,H,CF,若,若,若,6.3.2 CF模型2.可信度的定义与性质(2/5),22,可信度的性质(1)互斥性对同一证据,它不可能既增加对H的信任程度,又同时增加对H的不信任程度,这说明MB与MD是互斥的。即有如下互斥性:当MB(H,E)0时,MD(H,E)=0 当MD(H,E)0时,MB(H,E)=0(2)值域(3)典

14、型值 当CF(H,E)=1时,有P(H/E)=1,它说明由于E所对应证据的出现使H为真。此时,MB(H,E)=1,MD(H,E)=0。当CF(H,E)=-1时,有P(H/E)=0,说明由于E所对应证据的出现使H为假。此时,MB(H,E)=0,MD(H,E)=1。当CF(H,E)=0时,有MB(H,E)=0、MD(H,E)=0。前者说明E所对应证据的出现不证实H;后者说明E所对应证据的出现不否认H。,6.3.2 CF模型2.可信度的定义与性质(3/5),23,(4)对H的信任增长度等于对非H的不信任增长度 根据MB、MD的定义及概率的性质有:再根据CF的定义和MB、MD的互斥性有 CF(H,E)

15、+CF(H,E)=(MB(H,E)-MD(H,E)+(MB(H,E)-MD(H,E)=(MB(H,E)-0)+(0-MD(H,E)(由互斥性)=MB(H,E)-MD(H,E)=0 它说明:(1)对H的信任增长度等于对非H的不信任增长度(2)对H的可信度与非H的可信度之和等于0(3)可信度不是概率,不满足 P(H)+P(H)=1 和 0P(H),P(H)1,6.3.2 CF模型2.可信度的定义与性质(4/5),24,(5)对同一前提E,若支持若干个不同的结论Hi(i=1,2,n),则因此,如果发现专家给出的知识有如下情况 CF(H1,E)=0.7,CF(H2,E)=0.4则因0.7+0.4=1.

16、11为非法,应进行调整或规范化。,6.3.2 CF模型2.可信度的定义与性质(5/5),25,不确定性的表示:证据的不确定性也是用可信度来表示的,其取值范围也为-1,1 若E为初始证据,其值由用户给出。若E为中间结论,其值可通过计算得到。不确定性的含义:对E,其可信度CF(E)的含义如下:CF(E)=1,证据E肯定它为真 CF(E)=-1,证据E肯定它为假 CF(E)=0,对证据E一无所知 0CF(E)1,证据E以CF(E)程度为真-1CF(E)0,证据E以CF(E)程度为假,6.3.2 CF模型3.证据不确定性的表示,26,4.否定证据不确定性的计算 CF(E)=-CF(E)5.组合证据不确

17、定性的计算 对证据的组合形式可分为“合取”与“析取”两种基本情况。合取 当组合证据是多个单一证据的组合时,即 E=E1 AND E2 AND AND En时,若已知CF(E1),CF(E2),CF(En),则 CF(E)=minCF(E1),CF(E2),CF(En)析取当组合证据是多个单一证据的析取时,即E=E1 OR E2 OR OR En时,若已知CF(E1),CF(E2),CF(En),则 CF(E)=maxCF(E1),CF(E2),CF(En),6.3.2 CF模型4、5.否定、不确定证据的计算,27,CF模型中的不确定性推理实际上是从不确定的初始证据出发,不断运用相关的不确性知识

18、,逐步推出最终结论和该结论可信度的过程。而每一次运用不确定性知识,都需要由证据的不确定性和知识的不确定性去计算结论的不确定性。不确定性的更新公式 CF(H)=CF(H,E)max0,CF(E)若CF(E)0,则 CF(H)=0即该模型没考虑E为假对H的影响。若CF(E)=1,则 CF(H)=CF(H,E)即规则强度CF(H,E)实际上是在E为真时,H的可信度,6.3.2 CF模型6.不确定性的更新,28,当有多条知识支持同一个结论,且这些知识的前提相互独立,结论的可信度又不相同时,可利用不确定性的合成算法求出结论的综合可信度。设有知识:IF E1 THEN H(CF(H,E1)IF E2 TH

19、EN H(CF(H,E2)则结论H 的综合可信度可分以下两步计算:(1)分别对每条知识求出其CF(H)。即 CF1(H)=CF(H,E1)max0,CF(E1)CF2(H)=CF(H,E2)max0,CF(E2)(2)用如下公式求E1与E2对H的综合可信度,6.3.2 CF模型7.结论不确定性的合成,29,例6.2 设有如下一组知识:r1:IF E1 THEN H(0.9)r2:IF E2 THEN H(0.6)r3:IF E3 THEN H(-0.5)r4:IF E4 AND(E5 OR E6)THEN E1(0.8)已知:CF(E2)=0.8,CF(E3)=0.6,CF(E4)=0.5,C

20、F(E5)=0.6,CF(E6)=0.8 求:CF(H)=?解:由r4得到:CF(E1)=0.8max0,CF(E4 AND(E5 OR E6)=0.8max0,minCF(E4),CF(E5 OR E6)=0.8max0,minCF(E4),maxCF(E5),CF(E6)=0.8max0,minCF(E4),max0.6,0.8=0.8max0,min0.5,0.8=0.8max0,0.5=0.4,6.3.2 CF模型例子,30,由r1得到:CF1(H)=CF(H,E1)max0,CF(E1)=0.9max0,0.4=0.36 由r2得到:CF2(H)=CF(H,E2)max0,CF(E2

21、)=0.6max0,0.8=0.48 由r3得到:CF3(H)=CF(H,E3)max0,CF(E3)=-0.5max0,0.6=-0.3 根据结论不精确性的合成算法,CF1(H)和CF2(H)同号,有:CF12(H)和CF3(H)异号,有:即综合可信度为CF(H)=0.53,31,6.1 不确定性推理的基本概念6.2 不确定性推理的概率论基础6.3 确定性理论6.4 主观Bayes方法 6.4.1 知识不确定性的表示 6.4.2 证据不确定性的表示 6.4.3 组合证据不确定性的计算 6.4.4 不确定性的更新 6.4.5 结论不确定性的合成6.5 证据理论6.6 模糊推理,第6章 不确定性

22、推理,32,在主观Bayes方法中,知识是用产生式表示的,其形式为:IF E THEN(LS,LN)H 其中,(LS,LN)用来表示该知识的知识强度,LS(充分性度量)和LN(必要性度量)的表示形式分别为:,6.4.1 知识不确定性的表示1.知识表示方式,下面进一步讨论LS和LN的含义。由本章第2节的Bayes公式可知:,两式相除得:,33,为讨论方便,下面引入几率函数 可见,X的几率等于X出现的概率与X不出现的概率之比,P(X)与O(X)的变化一致,且有:P(X)=0 时有 O(X)=0 P(X)=1 时有 O(X)=+即把取值为0,1的P(X)放大为取值为0,+的O(X)把(6.2)式代入

23、(6.1)式有:再把LS代入此式,可得:同理可得到关于LN的公式:式(6.3)和(6.4)就是修改的Bayes公式。,34,(1)LS 当LS1时,O(H|E)O(H),说明E支持H,LS越大,O(H|E)比O(H)大得越多,即LS越大,E对H的支持越充分。当LS时,O(H|E),即P(H/E)1,表示由于E的存在,将导致H为真。当LS=1时,O(H|E)=O(H),说明E对H没有影响。当LS1时,O(H|E)O(H),说明E支持H,即由于E的不出现,增大了H为真的概率。并且,LN得越大,P(H|E)就越大,即E对H为真的支持就越强。当LN时,O(H|E),即P(H|E)1,表示由于E的存在,

24、将导致H为真。当LN=1时,O(H|E)=O(H),说明E对H没有影响。当LN1时,O(H|E)O(H),说明E不支持H,即由于E的存在,使H为真的可能性下降,或者说由于E不存在,将反对H为真。当LN0时O(H|E)0,即LN越小,E的不出现就越反对H为真,这说明H越需要E的出现。当LN=0时,O(H|E)=0,说明E的存在(即E不存在)将导致H为假。,6.4.1 知识不确定性的表示2.LS和LN的性质(1/2),35,6.4.1 知识不确定性的表示2.LS和LN的性质(2/2),(3)LS与LN的关系由于E和E不会同时支持或同时排斥H,因此只有下述三种情况存在:LS1且LN1 LS=LN=1

25、 证:LS1 P(E|H)/P(E|H)1 P(E|H)P(E|H)1-P(E|H)1-P(E|H)P(E|H)P(E|H)P(E|H)/P(E|H)1 LN 1 同理可证、,证明略,36,在主观Bayes方法中,证据E的不精确性是用其概率或几率来表示的。概率与几率之间的关系为:,6.4.2 证据不确定性的表示,在实际应用中,除了需要考虑证据E的先验概率与先验几率外,往往还需要考虑在当前观察下证据E的后验概率或后验几率。以概率情况为例,对初始证据E,用户可以根据当前观察S将其先验概率P(E)更改为后验概率P(E|S),即相当于给出证据E的动态强度。,37,证据的基本组合方式只有合取和析取两种。

26、当组合证据是多个单一证据的合取时,例 E=E1 AND E2 AND AND En如果已知在当前观察S下,每个单一证据Ei有概率P(E1|S),P(E2|S),P(En|S),则 P(E|S)=min P(E1|S),P(E2|S),P(En|S)当组合证据是多个单一证据的析取时,例 E=E1 OR E2 OR OR En 如果已知在当前观察S下,每个单一证据Ei有概率P(E1|S),P(E2|S),P(En|S),则P(E|S)=max P(E1|S),P(E2|S),P(En|S),6.4.3 组合证据不确定性的计算,38,6.4.4 不确定性的更新,根据E的概率P(E)及LS和LN的值,

27、把H的先验概率P(H)或先验几率O(H)更新为后验概率或后验几率。分以下3种情况讨论:1.证据肯定为真 2.证据肯定为假 3.证据既非为真有非为假,39,1.证据肯定为真时当证据E肯定为真时,P(E)=P(E|S)=1。将H的先验几率更新为后验几率的公式为(6.3),即 O(H|E)=LSO(H)把H的先验概率P(H)更新为后验概率P(H|E)的计算公式,可将(6.2)代入(6.4)而得到:2.当证据E肯定为假时 当证据E肯定为假时,P(E)=P(E|S)=0,P(E)=1。将H的先验几率更新为后验几率的公式为(6.4),即 O(H|E)=LNO(H)把先验概率P(H)更新为后验概率P(H|E

28、)的计算公式,可将(6.2)代入(6.4)而得到:,6.4.4 不确定性的更新1、2.证据肯定为真、为假,40,当证据既非真假时,需要使用杜达等人给出的公式:P(H|E)=P(H|E)P(E|S)+P(H|E)P(E|S)(6.7)下面分四种情况讨论:(1)P(E|S)=1 当P(E|S)=1时,P(E|S)=0。由(6.7)式和(6.5)式可得 这实际是证据肯定存在的情况(2)P(E|S)=0 当P(E|S)=0时,P(E|S)=1。由(6.7)式和(6.6)式可得(3)P(E|S)=P(E)当P(E|S)=P(E)时,表示E与S无关。由(6.7)式和全概率公式可得,6.4.4 不确定性的更

29、新3.证据既非为真有非为假,41,0,P(E),1,P(E|S),P(H|E),P(H),P(H|E),P(H|S),(4)P(E/S)为其它值 上面已经得到了P(E|S)的3个特殊值:0,P(E),1;它们分别对应的3个值为P(H|E),P(H),P(H|E)。由此构造的分段线性插值函数为:,(6.8),42,假设有n条知识都支持同一结论H,并且这些知识的前提条件分别是n个相互独立的证据E1、E2、En,而每个证据所对应的观察又分别是S1、S2、Sn。在这些观察下,求H的后验概率的方法是:首先对每条知识分别求出H的后验几率O(H|Si),然后利用这些后验几率并按下述公式求出在所有观察下H的后

30、验几率:,6.4.5 结论不确定性的合成,43,6.4.4 不确定性的更新例子,例6.3 设有规则 r1:IF E1 THEN(2,0.0001)H1 r2:IF E1 AND E2 THEN(100,0.001)H1 r3:IF H1 THEN(200,0.01)H2 已知:P(E1)=P(E2)=0.6 P(H1)=0.091,P(H2)=0.01 用户回答:P(E1|S1)=0.76,P(E2|S2)=0.68 求:P(H2|S1,S2)=?,44,解:由已知知识得到的推理网络如下图所示。,0.091,45,(1)计算O(H1|S1)先把P(H1)更新为E1下的后验概率P(H1|E1),

31、由于P(E1|S1)=0.76P(E),使用(6.8)式的后半部分,得P(H1|S1)为:,46,(2)计算O(H1|(S1 AND S2)由于r2的前件是E1、E2的合取关系,且已知 P(E1|S1)=0.76,P(E2|S2)=0.68,即P(E2|S2)P(E1|S1)。按合取取最小的原则,这里仅考虑E2对H1的影响,即把计算P(H1|(S1 AND S2)的问题转化为计算O(H1|S2)的问题。把H1的先验概率P(H1)更新为在E2下的后验概率P(H1/E2),又由于P(E2|S2)=0.68P(E2),还使用(6.8)式的后半部分,得P(H1|S2)为:,47,(3)计算O(H1|S

32、1,S2)先将H1的先验概率转换为先验几率,再根据合成公式计算H1的后验几率,然后再将后验几率转换为后验概率,48,(4)计算P(H2|S1,S2)对r3,H1相当于已知事实,H2为结论。将H2的先验概率P(H2)更新为在H1下的后验概率P(H2|H1),由于P(H1|S1,S2)=0.321 P(H1),仍使用(6.8)式的后半部分,得到在当前观察S1、S2下H2的后验概率P(H2|S1,S2),可以看出,H2的先验概率是0.01,通过r1、r2、r3及初始证据进行推理,最后推出H2的后验概率为0.177,相当于概率增加了16倍多。主观Bayes方法的主要优点是理论模型精确,灵敏度高,不仅考

33、虑了证据间的关系,而且考虑了证据存在与否对假设的影响,因此是一种较好的方法。其主要缺点是所需要的主观概率太多,专家不易给出。,49,6.1 不确定性推理的基本概念6.2 不确定性推理的概率论基础6.3 确定性理论6.4 主观Bayes方法6.5 证据理论 证据理论是由德普斯特()首先提出,并有沙佛(G.Shafer)进一步发展起来的用于处理不确定性的一种理论,也称DS(Dempster-Shafer)理论。它将概率论中的单点赋值扩展为集合赋值,可以处理由“不知道”所引起的不确定性,比主观Bayes方法有着更大的灵活性。在DS理论中,可以分别用信任函数、似然函数及类概率函数来描述知识的精确信任度

34、、不可驳斥信任度及估计信任度。6.5.1 DS理论的形式描述 6.5.2 证据理论的推理模型 6.5.3 推理实例6.6 模糊推理,第6章 不确定性推理,50,6.5.1 DS理论的形式描述 1.概率分配函数(1/3),DS理论处理的是集合上的不确定性问题,为此需要先建立命题与集合之间的一一对应关系,以把命题的不确定性问题转化为集合的不确定性问题,。设为样本空间,且中的每个元素都相互独立,则由的所有子集构成的幂集记为2。当中的元素个数为N时,则其幂集2的元素个数为2N,且其中的每一个元素都对应于一个关于x取值情况的命题。例6.4 设=红,黄,白,求的幂集2。解:的幂集可包括如下子集:A0=,A

35、1=红,A2=黄,A3=白,A4=红,黄,A5=红,白,A6=黄,白,A7=红,黄,白其中,表示空集,空集也可表示为。上述子集的个数正好是23=8,51,6.5.1 DS理论的形式描述 1.概率分配函数(2/3),定义6.3 设函数m:20,1,且满足则称m是2上的概率分配函数,m(A)称为A的基本概率数。对例6.4,若定义2上的一个基本函数m:m(,红,黄,白,红,黄,红,白,黄,白,红,黄,白)=(0,0.3,0,0.1,0.2,0.2,0,0.2)其中,(0,0.3,0,0.1,0.2,0.2,0,0.2)分别是幂集2中各个子集的基本概率数。显然m满足概率分配函数的定义。,52,6.5.

36、1 DS理论的形式描述 1.概率分配函数(3/3),对概率分配函数的说明(1)概率分配函数的作用是把的任一子集映射为0,1上的一个数m(A)当A,且A由单个元素组成时,则m(A)表示对A的精确信任度;当A、A,且A由多个元素组成时,m(A)也表示对A的精确信任度,但却不知道这部分信任度该分给A中哪些元素;当A=时,则m(A)也表示不知道该如何分配的部分。例如,对上例所给出的有限集及基本函数m,当 A=红时,有m(A)=0.3,它表示对命题“x是红色”的精确信任度为0.3。B=红,黄时,有m(B)=0.2,它表示对命题“x或者是红色,或者是黄色”的精确信任度为0.2,却不知道该把这0.2分给红还

37、是分给黄。C=红,黄,白时,有m()=0.2,表示不知道该对这0.2如何分配,但知道它不属于红,就一定属于黄或白。(2)概率分配函数不是概率 例如,在例6.5中,m符合概率分配函数的定义,但 m(红)+m(黄)+m(白)=0.3+0+0.1=0.41因此m不是概率,因为概率P要求:P(红)+P(黄)+P(白)=1,53,定义6.4 信任函数Bel:2 0,1为,其中,2是的幂集。Bel又称为下限函数,Bel(A)表示对A的总的信任度。例如,对例6.5有 Bel(红)=0.3 Bel(红,白)=m(红)+m(白)+m(红,白)=0.3+0.1+0.2=0.6 根据定义还可以得到:例如,对例6.5

38、有 Bel()=m()=0 Bel(红,黄,白)=m()+m(红)+m(黄)+m(白)+m(红,黄)+(红,白)+(黄,白)+(红,黄,白)=0+0.3+0+0.1+0.2+0.2+0+0.2=1,6.5.1 D-S理论的形式描述 2.信任函数,54,6.5.1 D-S理论的形式描述 3.似然函数(1/2),定义6.5 似然函数Pl:20,1为 Pl(A)=1-Bel(A)对所有的A 其中,A=-A。似然函数又称为不可驳斥函数或上限函数。由于Bel(A)表示对A的信任度,即A为假的信任度,因此,Pl(A)表示对A为非假的信任度。以例6.5为例:Pl(红)=1-Bel(红)=1-Bel(黄,白)

39、=1-(m黄+m白+m黄,白)=1-(0+0.1+0)=0.9 这里的0.9是“红”为非假的信任度。由于“红”为真的精确信任度为0.3,而剩下的0.9-0.3=0.6,则是知道非假,但却不能肯定为真的那部分。再如:Pl(黄,白)=1-Bel(黄,白)=1-Bel(红)=1-0.3=0.7 这里的0.7的含义与上面分析类似。,55,6.5.1 D-S理论的形式描述 3.似然函数(2/2),似然函数的另外一种计算办法:由于可见,Pl(红),Pl(黄,白)亦可分别用下式计算:如果把它推广到一般可得公式:其证明见教材,56,6.5.1 D-S理论的形式描述 4.信任函数与似然函数的关系(1/3),信任

40、函数和似然函数之间存在关系:Pl(A)Bel(A)证明:由于Bel(A)和Pl(A)分别表示A为真的信任度和A为非假的信任度,因此,可分别称Bel(A)和Pl(A)为对A信任程度的下限和上限,记为:ABel(A),Pl(A),57,例如,在前面的例子中 Bel(红)=0.3 Pl(红)=0.9即:红0.3,0.9 它表示对红的精确信任度为0.3,不可驳斥部分为0.9,肯定不是红的为0.1。同理可以求得 黄0,0.4 白0.1,0.5 红,黄0.5,0.9 红,白0.6,1 黄,白0.1,0.7 红,黄,白1,1 0,0,6.5.1 D-S理论的形式描述 4.信任函数与似然函数的关系(2/3),

41、58,一些典型值的含义:A0,1:说明对A 一无所知。其中,Bel(A)=0,说明对A无信任;再由Pl(A)=1-Bel(A)=1,可知Bel(A)=0,说明对A也没有信任。A0,0:说明A为假。即Bel(A)=0,Bel(A)=1。A1,1:说明A为真。即Bel(A)=1,Bel(A)=0。A0.6,1:说明对A部分信任。即Bel(A)=0.6,Bel(A)=0。A0,0.4:说明对A部分信任。即Bel(A)=0,Bel(A)=0.6。A0.3,0.9:说明对A和A都有部分信任。其中,Bel(A)=0.3,说明对A 为真有0.3的信任度;Bel(A)=1-0.9=0.1,说明对A为假有0.1

42、的信任度。因此,A0.3,0.9表示对A为真的信任度比A为假的信任度稍高一些。,6.5.1 D-S理论的形式描述 4.信任函数与似然函数的关系(3/3),59,6.5.1 D-S理论的形式描述 5.概率分配函数的正交和(1/3),当证据来源不同时,可能会得到不同的概率分配函数。例如,对=红,黄假设从不同知识源得到的两个概率分配函数分别为:m1(,红,黄,红,黄)=(0,0.4,0.5,0.1)m2(,红,黄,红,黄)=(0,0.6,0.2,0.2)可采用德普斯特提出的求正交和的方法来组合这些函数 定义6.6 设m1和m2是两个不同的概率分配函数,则其正交和m=m1 m2满足其中:如果K0,则正

43、交和也是一个概率分配函数;如果K=0,则不存在正交和m,称m1与m2矛盾。,60,6.5.1 D-S理论的形式描述 5.概率分配函数的正交和(2/3),例6.5 设=a,b,且从不同知识源得到的概率分配函数分别为 m1(,a,b,a,b)=(0,0.3,0.5,0.2)m2(,a,b,a,b)=(0,0.6,0.3,0.1)求正交和m=m1 m2。解:先求K,61,6.5.1 D-S理论的形式描述 5.概率分配函数的正交和(3/3),再求m(,a,b,a,b),由于 同理可求得 m(b)=0.43 m(a,b)=0.03故有 m(,a,b,a,b)=0,0.54,0.43,0.03 对于多个概

44、率分配函数的组合,方法类似。,62,6.5.2 证据理论的推理模型,Bel(A)和Pl(A)分别表示命题A的信任度的下限和上限,同时也可用来表示知识强度的下限和上限。从信任函数和似然函数的定义看,它们都是建立在概率分配函数之上的,可见不同的概率分配函数将得到不同的推理模型。下面就给出一个特殊的概率分配函数,并在其上建立推理模型。,63,6.5.2 证据理论的推理模型1.一个特殊的概率分配函数(1/4),设=s1,s2,sn,m为定义在2上的概率分配函数,且m满足其中,A表示命题A所对应的集合中的元素个数。该概率分配函数的特殊性:只有当子集中的元素个数为1时,其概率分配数才有可能大于0;当子集中

45、有多个或0个元素,且不等于全集时,其概率分配数均为0;全集的概率分配数按(3)计算。,64,6.5.2 证据理论的推理模型1.一个特殊的概率分配函数(2/4),例6.6 设=红,黄,白,有如下概率分配函数 m(,红,黄,白,红,黄,白)=(0,0.6,0.2,0.1,0.1)其中:m(红,黄)=m(红,白)=m(黄,白)=0,可见,m符合上述概率分配函数的定义。定义6.8 对任何命题A,其信任函数为,65,6.5.2 证据理论的推理模型1.一个特殊的概率分配函数(3/4),定义6.9 对任何命题A,其似然函数为 可以看出,对任意命题A 和B 均有:Pl(A)-Bel(A)=Pl(B)-Bel(

46、B)=m()它表示对A(或B)不知道的程度。,66,6.5.2 证据理论的推理模型1.一个特殊的概率分配函数(4/4),例6.7 设=红,黄,白,概率分配函数 m(,红,黄,白,红,黄,白)=(0,0.6,0.2,0.1,0.1)A=红,黄,求m()、Bel(A)和Pl(A)的值。解:m()=1-m(红)+m(黄)+m(白)=1-(0.6+0.2+0.1)=0.1 Bel(红,黄)=m(红)+m(黄)=0.6+0.2=0.8 Pl(红,黄)=m()+Bel(红,黄)=0.1+0.8=0.9或 Pl(红,黄)=1-Bel(红,黄)=1-Bel(白)=1-0.1=0.9 定义6.10 设m1和m2

47、是2上的基本概率分配函数,它们的正交和定义为 其中,,67,类概率函数的定义 定义6.11 设为有限域,对任何命题A,命题A的类概率函数为,其中,|A|和|分别是A及中元素的个数。,类概率函数f(A)的性质,证明:,6.5.2 证据理论的推理模型2.类概率函数(1/4),68,(2)对任何,有Bel(A)f(A)Pl(A),证明:,6.5.2 证据理论的推理模型2.类概率函数(2/4),69,(3)对任何,有f(A)=1-f(A),证明:,6.5.2 证据理论的推理模型2.类概率函数(3/4),70,(1)f()=0(2)f()=1(3)对任何,有0f(A)1,推论,例子 例6.8 设=红,黄

48、,白,概率分配函数 m(,红,黄,白,红,黄,白)=(0,0.6,0.2,0.1,0.1)若A=红,黄,求f(A)的值。解:,6.5.2 证据理论的推理模型2.类概率函数(4/4),71,6.5.2 证据理论的推理模型3.知识不确定性的表示,表示形式:IF E THEN H=h1,h2,hn CF=c1,c2,cn其中:E为前提条件,它既可以是简单条件,也可以是用合取或析取词连接起来的复合条件;H是结论,它用样本空间中的子集表示,h1,h2,hn 是该子集中的元素;CF是可信度因子,用集合形式表示。该集合中的元素c1,c2,cn 用来指出h1,h2,hn 的可信度,ci与hi一一对应。并且,c

49、i应满足如下条件:,72,定义6.12 设A是规则条件部分的命题,E是外部输入的证据和已证实的命题,在证据E的条件下,命题A与证据E的匹配程度为,定义6.13 条件部分命题A的确定性为 CER(A)=MD(A/E)f(A)其中f(A)为类概率函数。由于f(A)0,1,因此CER(A)0,1,6.5.2 证据理论的推理模型4.证据不确定性的表示,73,当组合证据是多个证据的合取时:E=E1 AND E2 AND AND En则 CER(E)=minCER(E1),CER(E2),CER(En)当组合证据是多个证据的析取时:E=E1 OR E2 OR OR En则 CER(E)=maxCER(E1

50、),CER(E2),.CER(En),6.5.2 证据理论的推理模型5.组合证据不确定性的表示,74,(1)求H的概率分配函数,如果有两条或多条知识支持同一结论H,例:IF E THEN H=h1,h2,hn CF=c11,c12,c1n IF E THEN H=h1,h2,hn CF=c21,c22,c2n则按正交和求CER(H),即先求出:m1=m(h1,h2,hn)m2=m(h1,h2,hn)然后再用公式 求m1和m2的正交和,最后求得H的m。,设有知识 IF E THEN H=h1,h2,hn CF=c1,c2,cn则求结论H的确定性CER(H)的方法如下:,6.5.2 证据理论的推理

展开阅读全文
相关资源
猜你喜欢
相关搜索
资源标签

当前位置:首页 > 生活休闲 > 在线阅读


备案号:宁ICP备20000045号-2

经营许可证:宁B2-20210002

宁公网安备 64010402000987号