人工智能4 不确定性推理 人工智能课程课件.ppt

上传人:小飞机 文档编号:1622005 上传时间:2022-12-11 格式:PPT 页数:140 大小:945KB
返回 下载 相关 举报
人工智能4 不确定性推理 人工智能课程课件.ppt_第1页
第1页 / 共140页
人工智能4 不确定性推理 人工智能课程课件.ppt_第2页
第2页 / 共140页
人工智能4 不确定性推理 人工智能课程课件.ppt_第3页
第3页 / 共140页
人工智能4 不确定性推理 人工智能课程课件.ppt_第4页
第4页 / 共140页
人工智能4 不确定性推理 人工智能课程课件.ppt_第5页
第5页 / 共140页
点击查看更多>>
资源描述

《人工智能4 不确定性推理 人工智能课程课件.ppt》由会员分享,可在线阅读,更多相关《人工智能4 不确定性推理 人工智能课程课件.ppt(140页珍藏版)》请在三一办公上搜索。

1、1,第四章 不确定性推理4.1 基本概念 1. 为什么要研究不确定性推理问题 现实世界的问题求解大部分是不良结构; 对不良结构的知识描述具有不确定性: 1) 问题证据的不确定性; 2) 专门知识的不确定性。 2. 什么是不确定性推理 不确定性推理是建立在非经典逻辑基础上的一种推理,它是对 不确定性知识的运用和处理。 不确定性推理就是从不确定性的初始证据出发,通过运用不确 定性的知识,最终推出具有一定程度的不确定性但却合理或者近 乎合理的结论的思维过程。,2,3. 不确定性推理中的基本问题 在不确定性推理中,知识和证据都具有某种程度的不确定性, 这就为推理机的设计与实现增加了复杂性和难度。它除了

2、必须解 决推理方向、推理方法、控制策略等基本问题外,一般还需要解 决不确定性的表示和量度、不确定性匹配、不确定性的传递算法 以及不确定性的合成等重要问题。 (1) 不确定性的表示与量度 知识不确定性的表示 在确立其表示方法时,有两个直接相关的因素需要考虑: 1) 要能根据领域问题的特征把其不确定性比较准确地描述出 来,满足问题求解的需要; 2) 要便于推理过程中对不确定性的推算。,3,目前在专家系统中,知识的不确定性一般由领域专家给出,通常是一 个数值,它表示相应知识的不确定性程度,称为知识的静态强度。 证据不确定性的表示 在推理中,有两种来源不同的证据: 1) 一种是用户在求解问题时提供的初

3、始证据; 2) 另一种是在推理中用前面推出的结论作为当前推理的证据。 证据的不确定性表示方法应与知识的不确定性表示方法保持一致,以便于推理过程中对不确定性进行统一处理。 证据的不确定性通常也用一个数值表示,它代表相应证据的不确定性程度,称为动态强度。 对于初始证据,其值由用户给出; 对推理所得证据,其值由推理中不确定性的传递算法通过计算得到。,4, 不确定性的量度 对于不同的知识和不同的证据,其不确定性的程度一般是不相同的,需要用不同的数据表示其不确定性的程度,同时还要事先规定它的取值范围。例如,在专家系统 MYCIN 中,用可信度表示知识与证据的不确定性,取值范围为 -1, 1。 在确定一种

4、量度及其范围时,应注意以下几点: 1) 量度能充分表达相应知识及证据不确定性的程度。 2) 量度范围的指定应便于领域专家及用户对不确定性的估计的程度。 3) 量度要便于对不确定性的传递进行计算,而且对结论算出的不确定性量 度不能超出量度规定的范围。 4) 量度的确定应是直观的。,5,(2) 不确定性匹配算法及阈值的选择 对于不确定性推理,由于知识和证据都具有不确定性,而且知识所 要求的不确定性与证据实际具有的不确定性程度不一定相同,因而就出 现了“怎样才算匹配成功”的问题。 对于这个问题,目前常用的解决方法是: 设计一个算法用来计算匹配双方相似的程度,另外再指定一个相似 的“限度”,用来衡量匹

5、配双方相似的程度是否落在指定的限度内。如果 落在指定的限度内,就称它们是可匹配的,相应知识可被应用。 用来计算匹配双方相似程度的算法称为不确定性匹配算法。 用来指出相似的“限度”称为阈值。,6,(3) 不确定性的传递算法 不确定性推理的根本目的是根据用户提供的初始证据,通过运用不确定性知识,最终推出不确定性的结论,并推算出结论的不确定性程度。为达到这一目的,除了需要解决前面提到的问题外,还需要解决推理过程中不确定性的传递问题,它包括两个子问题: 在每一步推理中,如何把证据及知识的不确定性传递给结论; 在多步推理中,如何把初始证据的不确定性传递给最终结论。 对前一个问题,在不同的不确定推理方法中

6、所采用的处理方法各不相同, 这将在以后讨论。 对第二个问题,各种推理方法所采用的处理方法基本相同,即: 把当前推出的结论及其不确定性程度作为证据放入数据库中,在以后的推理中,它又作为证据推出进一步的结论,由此一步步进行推理,必然会把初始证据的不确定性传递给最终结论。,7,(4) 结论不确定性的合成 推理时有时会出现这样的情况: 用不同的知识进行推理得到了相同的结论,但不确定性的程度却不同。 此时,需要用合适的算法对它们进行合成。 在不同的不确定推理方法中所采用的处理方法各不相同,这将在以后讨论。,8,4.2 不确定性推理方法的分类及常用不确定性推理方法简介 1. 不确定性推理方法的研究分类 不

7、确定性推理方法的研究分为两大类: (1) 在推理一级上扩展确定性推理 特点: 把不确定的证据和不确定的知识分别与某种量度标准对应起来,并且给出 更新结论不确定性的算法,从而构成了相应的不确定性推理的模型。 一般来说,这类方法与控制策略无关,即无论用何种控制策略,推理的结 果都是唯一的,我们把这一类方法称为模型方法。,9,(2) 在控制策略一级处理不确定性 特点: 通过识别领域中引起不确定的某些特征及相应的控制策略来限制或减少不 确定性对系统产生的影响。 这类方法没有处理不确定性的统一模型,其效果极大的依赖于控制策略, 这类方法称为控制方法。 控制方法: 包括相关性制导回溯、机缘控制、启发式搜索

8、等方法。 (在此不讨论),10,2 常用的不确定性推理方法介绍 (1) 主观 Bayes 方法 利用新的信息将先验概率P(H)更新为后验概率P(H|E)的一种计算方法. 主观 Bayes方法由 Duda 等人于 1976 年提出,其首先在Prospector专 家系统中使用,它以概率论中的 Bayes公式为基础。 其核心思想是: .根据证据的概率P(E); .利用规则的(LS,LN);LS:E 的出现对 H 的支持程度, LN:E 的出现对 H 的不支持程度。 .把结论 H 的先验概率更新为后验概率 P(H|E); .循环,11,(2) 可信度方法 可信度方法是由E.H.Shortliffe等

9、人在确定性理论的基础上,结合概率 提出的一种不确定性推理方法,首先在Mycin系统中得到了成功的应用。 其核心思想是: 利用确定性因子CF(值) . 联系于具体的断言 . 联系于每条规则 . 通过CF的计算传播不确定性 (3)证据理论法 由Dempstan和 Shafen提出并发展,其基于一系列理论和描述。由于该理论满足比概率论更弱的公理,能够区分“不确定”与“不知道”的差异,并能处理由“不知道”产生的不确定性,具有较大的灵活性。 在证据理论的基础上已经发展了多种不确定性推理模型。,12,(4) 模糊推理 模糊推理与前三种不确定性推理方法有着实质性的区别,前三种方法的 理论基础是概率论,它所研

10、究的事件本身有明确的含义,只是由于发生的 条件不充分,使得在条件与事件之间不能出现确定的因果关系,从而在事 件的出现与否上出现不确定性,那些推理模型是对这种不确定性,即随机 性的表示与处理。 模糊推理是利用模糊性知识进行的一种不确定性推理。 模糊推理的理论基础是模糊集理论以及在此基础上发展起来的模糊逻辑。 它所处理的事物自身是模糊的,概念本身没有明确的外延,一个对象是否 符合这个概念难以明确的确定,模糊推理是对这种不确定性,即模糊性的 表示与处理。 在人工智能领域内,知识及信息的不确定性大多是由模糊性引起的,这 就使得对模糊理论的研究显得格外重要。,13,4.3 概率方法 1. 经典概率方法

11、设有如下产生式规则: IF E THEN H (其中,E为前提条件,H为结论。) 如果我们在实践中能得出在E发生的条件下H的条件概率P(H/E),那么就可把它 作为在证据E出现时结论H的确定性程度。 对于复合条件 E = E1 AND E2 ANDAND En 也是这样,当已知条件概率P(H/E1,E2,En),就可把它作为在证据E1,E2,En 出现时结论H的确定性程度。 优点:显然这是一种很简单的方法,只能用于简单的不确定性推理。 缺点:由于它只考虑证据为真或为假两种极端情况,因而使其应用受到限制。,14,2. 逆概率方法 经典概率方法要求给出在证据E出现情况下结论H的条件概率P(H/E)

12、,这在实 际应用中是相当困难的。 例: 若以E代表咳嗽,以H代表支气管炎,如欲得到在咳嗽的人中有多少是患 支气管炎的,就需要作大量的统计工作; 但是如果在患支气管炎的人中统计有多少人是咳嗽的,就相对容易一些, 因为患支气管炎的人毕竟比咳嗽的人少得多。 解决方法:可用逆概率P(E/H)来求原概率P(H/E)。( Bayes定理给出了解决这 个问题的方法。) (1) Bayes定理: 若A1,A2,An是彼此独立的事件,则对任何事件B有如下Bayes公式成立: P(Ai/B)= i=1,2,.n,15,其中,P(Ai)是事件Ai的先验概率; P(B/Ai)是事件在Ai发生条件下的事件B的条件概率;

13、 P(Ai/B)是事件在B发生条件下的事件Ai的条件概率。(2) 单个证据时 如果用产生式规则: IF E THEN Hi (IF 咳嗽 THEN 气管炎) 中的前提条件E代替Bayes公式中的B,用Hi代替公式中的Ai,就可得到 P(Hi/E)= i=1,2,.n 这就是说,当已知结论Hi的先验概率P(Hi),并且已知结论Hi(i=1,2,.n)成立时前提条件E所对应的证据所出现的条件概率P(E/Hi),就可用上式求出相应证据出现时结论Hi的条件概率P(Hi/E)。,16,例:设H1,H2,H3分别是三个结论,E是支持这些结论的证据,且已知: P(H1)=0.3 P(H2)=0.4, P(H

14、3)=0.5 P(E/H1)=0.5 P(E/H2)=0.3 P(E/H3)=0.4 求 P(H1/E), P(H2/E), P(H3/E),的值各是多少。解:根据上面的公式 P(H1/E)= = = 0.32 同理可得: P(H2/E)=0.26 P(H3/E)=0.43 由此可见,证据E的出现,H1成立的可能性略有增加,H2、H3略有下降。,17,(3) 有多个证据时 对于有多个证据E1, E2, , Em和多个结论H1, , H2, Hn,并且每个证据都以 一定的程度支持结论的情况,上面的式子可进一步扩充为: P(Hi/E1 E2Em)= i=1,2,3,n(4) 小结 优点:有较强的理

15、论背景和良好的数学特性,当证据及结论都彼此独立时计 算的复杂度较低; 缺点:它要求给出结论Hi的先验概率P(Hi)及证据Ej的条件概率P(Ej/Hi),尽 管有些时候P(Ej/Hi)比 P(Hi/Ej)相对容易得到,但总的来说,想得到 这些数据是相当困难的; 另外,Bayes公式的应用条件很严格,它要求各事件相互独立。,18,4.4 主观 Bayes 方法 鉴于上节所述的直接使用Bayes公式带来的诸多不便,1976年杜达 (R.O.Duda)、哈特(P.E.Hart) 等人在 Bayes 公式的基础上经适当改进提出了主观 Bayes 方法,建立了相应的不确定推理模型,并在地矿勘探专家系统 P

16、ROSPECTOR 中得到了成功的应用。 1. 知识不确定性的表示 在主观 Bayes 方法中,知识是用产生式规则表示的,具体形式为: if E then (LS, LN) H ( P(H) ) 其中 E 是该条知识的前提条件,它既可以是一个简单条件, 也可以是用 and 、or 把单个条件连接起来的复合条件。 H 是结论。 P(H) 是 H 的先验概率,它指出在没有任何专门证据的情况 下,结论为真的概率,其值由领域专家根据以往的实 践及经验给出。,19, LS 称为充分性量度,用于指出 E 对 H 的支持程度,取值范围 为 0, ),其定义为: LS = LS 的值由领域专家给出,具体情况在

17、下面论述。 LN 称为必要性量度,用于指出 E 对 H 的支持程度,取值范 围为 0, ),其定义为: LN = = LN 的值也由领域专家给出,具体情况在下面论述。 LS, LN 相当于知识的静态强度。,20,2. 证据不确定性的表示 在主观 Bayes 方法中,证据的不确定性也是用概率表示的。 例如,对于初始证据 E ,由用户根据观察 S 给出 P(E/S), 它相当于动态强度。 但由于 P(E/S) 的给出相当困难,因而在具体的应用系统中 往往采用适当的变通方法,如在 PROSPECTOR 中引进了可信 度的概念,让用户在 5 至 5 之间的 11 个整数中选一个数作为 初始证据的可信度

18、。 可信度 C(E/S) 与 概率 P(E/S) 的对应关系如下: C(E/S)= 5 ,表示在观察 S 下证据 E 肯定不存在,即 P(E/S)=0; C(E/S)= 0 , 表示 S 与 E 无关,即 P(E/S) =P(E) ; C(E/S)= 5 , 表示在观察 S 下证据 E 肯定存在,即 P(E/S)=1;,21,C(E/S) = 其它数值时与 P(E/S) 的对应关系,可通过对上述三点进行分段线性 插值得到,如下图。,由上图可得到 C(E/S) 与 P(E/S) 的关系式:,这样,用户只要对初始证据给出相应的可信度 C(E/S),就可将其转换为P(E/S) 。,22,3. 组合证

19、据不确定性的算法 当组合证据是多个单一证据的合取时,即 E=E1 AND E2 AND AND En,如果已知P(E1/S),P(E2/S),P(En/S), 则: P(E/S) = min P(E1/S), P(E2/S), , P(En/S) 当组合证据是多个单一证据的析取时,即 E=E1 OR E2 OROR En , 如果已知P(E1/S),P(E2/S),P(En/S), 则: P(E/S) = max P(E1/S), P(E2/S), , P(En/S) 对“非”运算,则: P( E/S) = 1 P(E/S),23,4. 不确定性的传递算法 在主观 Bayes 方法的知识表示中

20、,P(H) 是专家对结论 H 给出的先验概率, 它是在没有考虑任何证据的情况下根据经验给出的。随着新证据的获得,对 H 的信任程度应该有所改变。主观 Bayes 方法推理的任务就是根据证据 E 的概率 P(E)及 LS , LN 的值,把 H的先验概率 P(H) ,更新为后验概率 P(H/E) 或 P(H/ E)。 即: P(H) P(H/E) 或 P(H/E) 下面分三种情况讨论。 (1) 证据肯定存在的情况 证据肯定存在时,P(E) = P(E/S) = 1,24,由 Bayes 公式得: P(H/E) = P(E/H) P(H) / P(E) 同理有: P(H/E) = P(E/H) P

21、(H) / P(E) 除以,得: P(H/E) P(E/H) P(H) P(H/E) P(E/H) P(H) 由 式 及 “非”运算 P(H/E) = 1 P(H/E) , 得:,=,25,充分性量度LS: 当 LS 1 时,P(H/E) P(H),这表明由于证据 E 的存在,将增大 结论 H 为真的概率,且 LS 越大,P(H/E) 就越大,即 E 对 H 为真的支持越强。当 LS ,P(H/E) 1, E 的存在对 H 为真是充分的,故称 LS 为充分性量度。 当 LS = 1 时,P(H/E) = P(H) ,这表明 E 与 H 无关。 当 LS 1 时, P(H/E) P(H),表明由

22、于证据 E 的存在,将导致 H 为真的可能性下降。 当 LS = 0 时,P(H/E) = 0 ,这表明证据 E 的存在,导致 H 为假。 上述 LS 的讨论,可作为领域专家为 LS 赋值的依据,当证据E 越是支持 H 为真时,则应使 LS 的值越大。,26,(2) 证据肯定不存在的情况 证据肯定不存在时, P(E) = P(E/S) = 0 ,P(E)= 1 。 由 Bayes 公式得: P(H/E) = P(E/ H) P(H) / P(E) 同理有: P(H/E) = P(E/H) P(H) / P(E) 除以,得: P(H/E) P(E/H) P(H) P(H/E) P(E/H) P(

23、H) 由 式 及 “非”运算 P(H/E) = 1 P(H/E) , 得:,27,必要性量度LN: 当 LN 1 时,由上式得:P(H/E) P(H) 这表明由于证据 E 的不存在,将增大 结论 H 为真 的概率,且 LN 越大,P(H/E) 就越大,即 E 对 H 为真的支持越强。当 LN ,P(H/E) 1 。 当 LN = 1 时,P(H/E) = P(H) ,这表明 E 与 H 无关。 当 LN 1 时, P(H/E) P(H),表明由于证据 E 的不存在,将导 致 H 为真的可能性下降。 当 LN = 0 时,P(H/E) = 0 ,这表明证据 E 的不存在,导致 H 为 假。 由此

24、也可看出 E 对 H 为真的必要性,故称 LN 为必要性量度。 上述 LN 的讨论,可作为领域专家为 LN 赋值的依据,当证据E 对 H 愈是必要,则相应 LN 的值愈小。,28,另外,由于 E 和 E 不可能同时支持 H 或反对 H ,所以在一条知识中,LS 和 LN 不应该出现下列情况中的任何一种: LS 1,LN 1 LS 1,LN 1 (3) 证据不确定的情况 在现实中,证据肯定存在或肯定不存在的极端情况是不多的, 更多的是介于两者之间的不确定情况。 现在要在 0 P(E/S) 1 的情况下确定 H 的后验概率 P(H/S) 。 在证据不确定的情况下,不能再用上面的公式计算后验概率,

25、而需使用 R.O.Duda 等人1976年证明的如下公式: P(H/S) = P(H/E) P(E/S) + P(H/E) P(E/S) ,29,下面分四种情况讨论: 1) P(E/S) = 1 当 P(E/S) = 1 时, P(E/S) = 0,此时公式 变为: P(H/S) = P(H/E) = 这是证据肯定存在的情况。 2) P(E/S) = 0 当 P(E/S) = 0 时, P(E/S) = 1,此时公式 变为: P(H/S) = P(H/E) = 这是证据肯定不存在的情况。,30,3) P(E/S) = P(E) 当 P(E/S) = P(E) 时,此时公式 变为: P(H/S)

26、 = P(H/E) P(E) + P(H/E) P(E) = P(H) 表示 H 与 S 无关。 4) 当 P(E/S) = 其它值时,通过分段线性插值可得到计算P(H/S) 的公式。,全概率公式,31,该公式称为EH公式。,32,(4) 对初始证据,用可信度 C(E/S) 计算 P(H/S) 对于初始证据,由于其不确定性是用可信度 C(E/S) 给出的,此时只要把 C(E/S) 与 P(E/S) 的对应关系带入上式,便可得到下述公式:,该公式称为CP公式。,33,5. 结论不确定性的合成算法 若有n条知识都支持相同的结论,而且每条知识的前提条件所对应的证据Ei(i =1,2,n)都有相应的观

27、察Si 与之对应, 此时只要先求出每条知识的 O(H/Si),然后就可运用下述公式求出 O(H/S1,S2,Sn)。,其中,O为几率函数,它与概率的关系为:,34,例:设有如下知识: r1: if E1 then (2, 0.001) H1 r2: if E2 then (100, 0.001) H1 r3: if H1 then (200, 0.01) H2 已知: P(H1)=0.09 P(H2)=0.01 C(E1/S1)=2 C(E2/S2)=1 求: P(H2/S1,S2)=? ( 或 O(H2/S1,S2)=? ),解:,35,(1) 计算 P(H1/S1) ( O(H1/S1)

28、),对于初始证据, 使用CP公式, C(E1/S1)=2 0 使用CP公式的后半部。,36,(2) 计算 P(H1/S2) ( O(H1/S2) ),对于初始证据,使用CP公式, C(E2/S2)=1 0 使用CP公式的后半部。,37,(3) 计算 P(H1/S1,S2) ( O(H1/S1,S2) ),38,(4) 计算 P(H2/S1,S2) ( O(H2/S1,S2) ),使用EH公式 P(H1/S1,S2) P(H1) 使用EH公式的后半部。,H2的先验概率为0.01,而最后算出的后验概率为0.198,增加了近20倍。,39,例2,例 PROSPECTOR专家系统中的部分推理网络如下图

29、所示。图中各结点的先验概率标在结点的右上方,规则的LS和LN值标在该规则连线的一侧。用户给出的各原始证据在各自的观察之下概率为:,P(FMGS|S1)=0.7,P(FMGS AND PT|S2)=0.6,P(SMIR |S3)=0.02现要求计算假设HYPE的后验概率P(HYPE|S1 AND S2 AND S3)。,40,41,42,43,44,45,46,以上计算表明,经推理后假设HYPE的概率已从先验概率0.01增大到后验概率0.1245264。,47,6. 主观 Bayes 方法的主要由缺点: 主要优点: 其计算公式大多是在概率论的基础上推导出来的,具有较坚实的理论基 础; 知识的静态

30、强度LS、LN 由领域专家根据实际经验得到,避免了大量的 数据统计工作; 给出了在证据不确定情况下更新先验概率为后验概率的方法,且从推理 过程中看,确实是实现了不确定性的传递; 主要缺点: 它要求领域专家在给出知识时,同时给出 H 的先验概率,这是比较困难 的。 Bayes定理中要求事件间相互独立,限制了该方法的应用。,48,4.5 可信度方法 可信度方法是肖特里菲(E.H.Shortliffe)等人在确定性理论(Theory of Comfirmation)的基础上,结合概率论等提出的一种不确定性推理方法,首先在专家系统 MYCIN 中得到了成功的应用。由于该方法比较直观、简单,而且效果也比

31、较好,因而受到人们的重视。目前,许多专家系统都是基于这一方法建造起来的。 1. 可信度 根据经验对一个事物或现象为真的相信程度称为可信度。 显然,可信度带有较大的主观性和经验性,其准确性难以把握。但出于人工智能所面向的多是结构不良的复杂问题,难以给出精确的数学模型,先验概率及条件概率的确定又比较困难,因而用可信度来表示知识及证据的不确性仍不失为一种可行的方法。另外,由于领域专家都是所在领域的行家里手,有丰富的专业知识及实践经验,也不难对领域内的知识给出其可信度。,49,2. C-F模型 C-F 模型是基于可信度表示的不确定性推理的基本方法。其它可信度 方法都是在此基础上发展起来的。 (1) 知

32、识不确定性的表示 在C-F模型中,知识是用产生式规则表示的,其一般形式是: if E then H (CF(H, E) 其中,E:是知识的前提条件,它既可以是一个单个条件,也可 以是用 and 及 or 连接起来的复合条件; H:是结论,它可以是一个单一结论,也可以是多个结论。 CF(H,E):是该条知识的可信度,称为可信度因子或规则强度, 也就是前面所说的静态强度。 CH(H,E) 在-1,1上取值,它指出当前提条件 E 所 对应的证据为真时,它对结论为真的支持程度。,50,例如: if 头痛 and 流涕 then 感冒 (0.7) 表示当病人确有“头痛”及“流涕”症状时,则有7成的把握认

33、为 他患了感冒。 1) 在 C-F 模型中,把CF(H,E)定义为: CF(H,E)=MB(H,E) MD(H,E) MB:称为信任增长度,它表示因与前提条件 E 匹配的证据的出现, 使结论H为真的信任增长度。 MB定义为: MB(H,E)=,51,MD:称为不信任增长度,它表示因与前提条件E匹配的证据的出现, 使结论H为真的不信任增长度。 MD定义为: MD(H,E)= P(H) 表示H的先验概率; P(H/E) 表示在前提条件E对应的证据出现的情况下,结论H的条 件概率。 2) CF(H,E)的计算公式 由MB和MD的定义看出:当MB(H,E)0时,有P(H/E)P(H); 当MD(H,E

34、)0时,有P(H/E)P(H);,52, 因为一个证据不可能既增加对H 的信任程度,又增加对H的不信任程 度,因此MB(H,E) ,MD(H,E)是互斥的, 即: 当 MB(H,E)0 时, MD(H,E)=0 当 MD(H,E)0 时 MB(H,E)=0 综合上述可得到CF(H,E)的计算公式: MB(H,E) 0 = , 若P(H/E)P(H) CF(H,E) = 0 , 若P(H/E)=P(H) 0 MD(H,E) = , 若P(H/E)P(H,53,由CF(H,E)的计算公式可直观地看出它的意义: 1) 若 CF(H,E)0,则 P(H/E)P(H)。这说明由于前提条件E所对应的证据出

35、 现增加了H为真的概率,即增加了H为真的可信度,CF(H,E)的值越大,增加 H为真的可信度就越大。若 CF(H,E)=1,可推出 P(H/E)1,即由于E所对应 的证据出现使H为真。 2) 若 CF(H,E)0,则P(H/E)P(H)。这说明由于E所对应的证据出现减少了H 为真的概率,即增加了H为假的可信度,CF(H,F)的值越小,增加H为假的可 信度就越大。若CF(H,E)=-1,可推出 P(H/E)0,即E所对应的证据出现使H 为假。 3) 若CF(H,E)=0,则 P(H/E)=P(H),表示H与E独立,即E所对应的证据出现 对H没有影响。,54,当已知 P(H) 和 P(H/E) 的

36、值时,通过运用上述公式,可以求出CF(H,E)。但是,在实际应用中, P(H) 和 P(H/E) 的值是难以获得的。 因此,CF(H,E) 的值要求领域专家直接给出。其原则是: 若由于相应证据的出现增加结论 H 为真的可信度,则使CF(H,E)0,证据的 出现越是支持 H 为真,就使CF(H,E)的值越大; 反之,使CF(H,E)0,证据的出现越是支持 H 为假,就使CF(H,E)的值越小; 若证据的出现与否与 H 无关,则使 CF(H,E)=0。(2) 证据不确定的表示 在该模型中,证据的不确定性也用可信度因子表示。如: CF(E)=0.6 表示证据 E 的可信度为 0.6。 证据可信度值的

37、来源分为两种情况: 对于初始证据,其可信度的值由提供证据的用户给出;,55, 对于用先前推出的结论作为当前推理的证据,其可信度值在推 出该结论时通过不确定性传递算法计算得到。 证据 E 的可信度 CF(E) 也是在-1,1之间取值。 对于初始证据: 若对它的所有观察S能肯定它为真则使CF(E)=1; 若肯定它为假,则使CF(E)=-1; 若它以某种程度为真,则使CF(E) 为(0, 1)中的某一个值,即0CF(E)1; 若它以某种程度为假,则使CF(E)为(-1, 0)中的某一个值,即-1CF(E)0; 若对它还未获得任何相关的观察,此时可看作观察S与它无关,则使CF(E)=0。,56,(3)

38、 组合证据不确定性的算法 当组合证据是多个单一证据的合取时,即: E = E1 and E2 and and En 若已知 CF(E1), CF(E2), CF(En),则 CF(E) = min CF(E1), CF(E2), CF(En) 当组合证据是多个单一证据的析取时,即: E = E1 or E2 or or En 若已知 CF(E1), CF(E2), CF(En),则 CF(E) = max CF(E1), CF(E2), CF(En) ,57,(4) 不确定性的传递算法 C-F 模型中的不确定性推理是从不确定的初始证据出发,通过运用相关的不确定性知识,最终推出结论并求出结论的可

39、信度值。 结论 H 的可信度由下式计算: CF(H) = CF(H,E) max 0, CF(E) (5) 结论不确定性的合成算法 若由多条不同知识推出了相同的结论,但可信度不同,则可 用合成算法求出综合可信度。 设有如下知识: if E1 then H (CF(H, E1) if E2 then H (CF(H, E2),当CF(E)0时,CF(H)=0,说明该模型中没有考虑证据为假时对结论H所产生的影响。,58,则结论 H 的综合可信度可分如下两步算出: 首先分别对每一条知识求出 CF(H): CF1(H) = CF(H, E1) max 0, CF(E1) CF2(H) = CF(H,

40、E2) max 0, CF(E2) 然后用下述公式求出 E1 与 E2 对 H 的综合影响所形成的可信度: CF1(H) + CF2(H) CF1(H) CF2(H) 若 CF1(H) 0, CF2(H) 0 CF1(H) + CF2(H) + CF1(H) CF2(H) 若 CF1(H) 0, CF2(H) 0 CF1(H) + CF2(H) 1 min | CF1(H) | , | CF2(H) | 若 CF1(H) 与 CF2(H) 异号,CF1,2(H) =,59,例:有下列一组知识: r1: if E1 then H ( 0.8 ) r2: if E2 then H ( 0.6 )

41、r3: if E3 then H ( - 0.5 ) r4: if E4 and ( E5 or E6 ) then E1 ( 0.7 ) r5: if E7 and E8 then E3 ( 0.9 ) 已知: CH ( E2 ) = 0.8, CH ( E4 ) = 0.5,CH ( E5 ) = 0.6, CH ( E6 ) = 0.7, CH ( E7 ) = 0.6, CH ( E8 ) = 0.9, 求: CF ( H ) = ? 解:由已知知识得到推理网络:,H,E2,E3,E7,E8,E1,E4,E5,E6,60,结论不确定性传递算法 由 r4 得到: CF( E1 ) = 0

42、.7 max 0, CF E4 and (E5 or E6 ) = 0.7 max 0, min CF(E4) ,CF (E5 or E6 ) = 0.7 max 0, min CF(E4) , max CF ( E5 ) , CF( E6 ) = 0.7 max 0, min 0.5 , max 0.6 , 0.7 = 0.7 0.5 = 0.35 由 r5 得到: CF( E3 ) = 0.9 max 0, CF ( E7 and E8 ) = 0.9 0.6 = 0.54 由 r1 得到: CF1( H ) = 0.8 max 0, CF ( E1 ) = 0.8 0.35 = 0.28

43、,61,由 r2 得到: CF2( H ) = 0.6 max 0, CF ( E2 ) = 0.6 0.8 = 0.48 由 r3 得到: CF3( H ) = - 0.5 max 0, CF ( E3 ) = - 0.5 0.54 = - 0.27 结论不确定性的合成算法 CF1,2( H ) = CF1 ( H ) + CF2 ( H ) CF1 ( H ) CF2 ( H ) = 0.28 + 0.48 0.28 0.48 = 0.63 CF1,2,3 ( H ) = = 0.49 即:CF( H ) = 0.49,62,例:有如下的推理规则:,63,64,规则形成的推理网络如上图所示

44、。图中,E3、E4、E5、E6、E7和E8为原始证据,其确定性因子由用户给出,假定它们的值为: CF(E3)=0.3, CF(E4)=0.9, CF(E5)=0.6, CF(E6)=0.7, CF(E7)=-0.3, CF(E8)=0.8系统的求值顺序是先求出CF(E1)、CF(E2)和CF(E3),然后再求CF(H)。,65,66,67,3. 可信度方法的进一步发展 C-F 模型给出了用可信度表示不确定性时进行推理的基本方法,为基于可信度表示的不确定性推理奠定了基础。但现实世界中的问题是复杂、多样的,为了用可信度方法求解更多的问题,人们在C-F 模型的基础上又提出了更具有一般性的处理方法:

45、(1) 带有阈值限度的不确定性推理 知识表示为: if E then H (CF(H, E), ) 其中 是阈值,它对相应知识的可应用性规定了一个限度: 0 1 (2) 加权的不确定性推理 知识表示为: if E1(1) and E2(2) and then H (CF(H,E), ) 其中 1, 1 , n 为加权因子。 (3) 前提条件中带有可信度因子的不确定性推理 知识表示为: if E1(cf1) and E2(cf2) and then H (CF(H,E), ),68,4.6 证据理论 证据理论是由德普斯特(A.P.Dempster)首先提出,并由沙佛(G.Shafer)进一步发展

46、起来的一种处理不确定性的理论,因此又称为D-S理论。1981年巴纳持(J.A.Barnett)把该理论引入专家系统中,同年卡威(J.Garvey)等人用它实现了不 确定性推理。由于该理论满足比概率论弱的公理,能够区分“不确定”与“不知道”的差异,并能处理由“不知道”引起的不确定性,具有较大的灵活性,因而受到了人们的重视。 1.D-S理论 证据理论是用集合表示命题的。 设D是变量x所有可能取值的集合,且D中的元素是互斥的,在任一时刻x都 取且只能取D中的某一个元素为值,则称D为x的样本空间。 在证据理论中,D的任何一个子集A都对应于一个关于x的命题,称该命题为“x的值在A中”。,69,例1: 用

47、x代表打靶时所击中的环数,D1,2,10 则 A5 表示 “x的值是5” 或者 “击中的环数为5”; A5,6,7,8 表示 “击中的环数是5,6,7,8中的某一个”。 例2: 用x代表所看到的颜色,D红,黄,蓝 则 A=红 表示 “x是红色”; A红,蓝,则它表示 “x或者是红色,或者是蓝色”。 证据理论中,为了描述和处理不确定性,引入了概率分配函数,信任函数及似然函数等概念。,70,(1) 概率分配函数 设D为样本空间,领域内的命题都用D的子集表示,则概率分配函数定义如下: 定义4.1 设函数 M:2D0,1,且满足 则称M是2D上的概率分配函数,M(A)称为A的基本概率数。 设样本空间D

48、中有n个元素,则D中子集的个数为2n个,定义中的2D就是表示 这些子集的。例如,设D=红,黄,蓝,则子集的个数为23=8个。 概率分配函数的作用是把D的任意一个子集都映射为0,1上的一个数M(A), 当 AD时,M(A)表示对相应命题的精确信任度。 例如:A=红, M(A)=0.3 ; A=红,黄 M(A)=0.2 ; M(黄)=0 ; M(蓝)=0.1 ; M(黄,蓝)=0.1 ; 概率分配函数不是概率。,71,(2) 信任函数 定义4.2 命题的信任函数 Bel(A):2D0,1,且 对所有的AD 其中2D表示D的所有子集。 Bel(A)函数又称为下限函数。Bel(A)表尔对命题A为真的信

49、任程度。 由信任函数及概率分配函数的定义容易推出: 例:根据上面例中给出的数据,可以求得: Bel(红)=M(红)=0.3 Bel(红,黄)=M(红)+ M(黄)+ M(红,黄)= 0.3+0+0.2=0.5,72,(3) 似然函数 似然的数又称为不可驳斥函数或上限函数。 定义4.3 似然函数 Pl:2D0,1,旦 Pl(A)=1- Bel(A) 对所有的AD 似然函数的含义: 由于 Bel(A)表示对A为真的信任程度,所以Bel(A)就表示对A为真, 即A为假的信任程度,由此可推出Pl(A)表示对A为非假的信任程度。 例: Pl(红)=1- Bel(红) =1- Bel(黄,蓝) =1-M(

50、黄)+ M(蓝)+ M(黄,蓝) =1-0+ 0.1+ 0.1) =0.8,73,(4) 概率分配函数的正交和 有时对同样的证据会得到两个不同的概率分配函数,例如,对样本空间: Da,b 从不同的来源分别得到如下两个概率分配函数: Ml(a)0.3, Ml(b)0.6 Ml(a,b)0.1, Ml()0 M2(a)0.4, M2(b)0.4 M2(a,b)0.2, M2()0 此时需要对它们进行组合。 定义4.4 设M1和M2是两个概率分配函数,则其正交和 M=M1M2为:,其中,如果K0,则正交和M也是一个概率分配函数;如果K0,则不存在正交和M,称Ml与M2矛盾。,74,对于多个概率分配函

展开阅读全文
相关资源
猜你喜欢
相关搜索
资源标签

当前位置:首页 > 生活休闲 > 在线阅读


备案号:宁ICP备20000045号-2

经营许可证:宁B2-20210002

宁公网安备 64010402000987号