第5章不确定性推理
5.1概述
在现实生活中遇到的问题通常都具有不确定性,能够进行精确描述的问题只占较少的一部分。对于这些不确定性的问题,若采用前述确定性推理方法显然是无法解决的。因此,为满足现实世界问题求解的需求,人工智能需要研究不确定性推理方法。可以将知识分成确定性知识和不确定性知识,不确定性是智能问题的一个本质特征,是建立在不确定性知识和证据基础上的推理。而知识的不确定性主要体现在两个方面: 随机性和模糊性。
随机性主要由概率知识体现,因此研究随机性即通过概率和马尔可夫链等知识进行。模糊性与随机性一样,在生活中几乎无处不在,我们常说的“高、矮、长、短、大、小”都体现了一种模糊性现象,研究模糊性则通过模糊集理论,该理论以及模糊推理将在5.6节阐述。
5.1.1为什么要采用不确定性推理
采用不确定性推理是客观问题的需求,其原因主要包括以下几个方面。
(1) 所需知识不完备、不精确。在很多情况下,解决问题所需要的知识往往是不完备、不精确的。所谓知识的不完备是指在解决某一问题时,不具备解决该问题所需要的全部知识。例如,医生在看病时,一般是从病人的部分症状开始诊断的。所谓知识的不精确是指既不能完全确定知识为真,又不能确定知识为假。例如,专家系统中的知识多为专家经验,而专家经验又多为不确定性知识。
(2) 所需知识描述模糊。知识描述模糊是指知识的边界不明确。例如,平常人们所说的“很好”“好”“比较好”“不很好”“不好”“很不好”等概念,其边界都是比较模糊的。那么,当用这类概念描述知识时,所描述的知识当然也是模糊的。例如,“如果王刚这个人比较好,那么我就把他当作好朋友”描述的就是比较模糊的知识。
(3) 多种原因导致同一个结论。在现实世界中,可由多种不同原因导出同一结论的情况有很多。例如,引起人体低烧的原因至少有几十种,医生在看病时,只能根据病人的症状、低烧的持续时间以及病人的体质、病史等做出猜测性的推断。
(4) 解决方案不唯一。现实生活中存在的问题一般都存在多种不同的解决方案,并且这些方案之间又很难绝对地判断其优劣。对于这种情况,人们往往是优先选择主观上认为相对较优的方案,这也是一种不确定性推理。
总之,在人类的知识和思维行为中,确定性只是相对的,而不确定性才是绝对的。人工智能要解决这些不确定性问题,必须采用不确定性的知识表示和推理方法。




5.1.2不确定性推理要解决的问题
可将不确定性推理要解决的问题概括为以下5类。
1. 如何进行知识和证据表示的问题
不确定性表示要解决的问题包括知识的不确定性表示和证据的不确定性表示。
不确定性推理中,知识是否能够很好地被表示将直接影响推理的运行效率。一般地,用数值刻画知识的不确定性,该数值称为知识的静态强度或者知识的可信度,描述了知识的不确定性程度。静态强度可以用概率、可信度或者隶属度表示,如果用概率或者隶属度表示,其取值范围是[0,1]。取值越接近1,说明确定性程度越高; 反之,取值越接近0,说明确定性程度越低。通常情况下,静态强度是由领域专家给出的或是由实验统计方法得到的。
证据通常包括两部分,其一是求解问题时已有的初始证据; 其二是将求解问题中得到的中间结果放入综合数据库,作为后续推理的证据。为了使推理能对不确定性进行处理,证据的不确定性表示通常与知识的不确定性表示一致,即证据的不确定性表示也是用数值表示,代表相应事实的不确定性程度,称为动态强度。

2. 如何进行匹配的问题
在确定性推理中,当从规则库中取出的某规则的前提与综合数据库中的已知事实相一致时,便认为是匹配成功。只有当匹配成功时,相关的规则才会被激活使用。在不确定性推理过程中,同样要解决匹配问题,但由于知识和证据都是不确定的,所以确定性匹配方式不能采用。目前,常用的方法是事先设定一个阈值,用来衡量知识和证据的相似程度,如果知识和证据的不确定性程度在阈值限度内,则认为可以进行匹配,否则不能匹配。这里比较关键的是如何计算出相似程度,往往要视实际具体情况的不同而采用不同的算法。
3. 如何进行证据组合的问题

在不确定性推理过程中,证据可以是复杂的组合条件。此时则需要有合适的算法计算证据组合的不确定性。即已知证据E1和E2的不确定性值C(E1)和C(E2),求证据E1和E2的析取和合取的不确定性。即定义函数f1和f2,使得


C(E1∧E2)=f1(C(E1),C(E2))

C(E1∨E2)=f2(C(E1),C(E2))


具体常用来计算证据组合不确定性的方法有以下3种: 
(1) 最大最小方法: 


C(E1∧E2)=min(C(E1),C(E2))

C(E1∨E2)=max(C(E1),C(E2))


(2) 概率方法: 


C(E1∧E2)=C(E1)×C(E2)

C(E1∨E2)=C(E1)+C(E2)-C(E1)×C(E2)


(3) 有界方法。
4. 不确定性的遗传问题
在不确定性推理中,存在两个主要的问题: 一是如何用证据的不确定性得到结论的不确定性; 二是如何在推理中把初始证据的不确定性传递给最终结论。
一方面,按照某种算法由证据和知识的不确定性计算出结论的不确定性,至于不确定性推理方法的处理方式各有不同; 另一方面,不同不确定性推理方法的处理方式基本相同,都是把当前推出的结论及其不确定性作为新的证据放入综合数据库,方便以后推理使用,这样就实现了将不确定性传递给结论。重复这样的过程,可以将不确定性传递给最终结论。
5. 如何合成结论的问题
在不确定性推理过程中,可能出现由多个不同知识推出相同的结论,且不确定性程度不同的情况,需要采用相应算法对这些不同的不确定性进行合成,求出该结论的综合不确定性。
5.1.3不确定性推理类型
不确定推理方法的研究主要沿着两条不同的路线发展: 模型方法和控制方法。
模型方法是对确定性推理框架的一种扩展。模型方法把不确定性证据和不确定性知识分别与某种度量标准对应起来,并且给出了更新结论不确定性的算法,从而构成相应不确定性推理的模型。一般来说,模型方法与控制策略无关,即无论使用何种控制策略,推理的结果都是唯一的。
模型方法又分为数值方法和非数值方法两大类。数值方法是对不确定性的一种定量表示和处理方法。对于该类情况下,根据其所依据的理论可以将其分为两种不同的类型。一类是基于概率的方法,如确定性推理、主观贝叶斯方法、证据理论等; 另一种是基于扎德提出的模糊集理论及其在此基础上发展的可能性理论。非数值方法是指除数值方法外的处理不确定性的方法,如框架推理、语义网络推理、常识推理等。
控制方法主要在控制策略一级处理不确定性。其特点是通过识别领域中引起不确定性的某些特征及相应的控制策略限制或者减少不确定性对系统的影响。这类方法没有处理不确定性的统一模型,其效果极大地依赖于控制策略。目前,常用的控制方法有启发式搜索和相关性制导回溯等。
本章只对模型方法展开讨论,有兴趣的读者可自行查阅文献了解控制方法。
5.2概率基础
概率论的对象是随机现象。在概率中,把随机现象的某些样本点组成的集合称为随机事件,简称事件。而概率描述的就是随机事件发生的可能性。下面给出概率的公理化定义。
定义5.1设Ω为一个样本空间,F为Ω的某子集组成的一个事件域,P(A)是F上的一个实值函数,对于任意一事件A∈F,称P(A)为事件A的概率,如果满足以下3条性质: 
(1) 非负性。对于任意A∈F,都有P(A)≥0。
(2) 正则性。P(Ω)=1。
(3) 可列可加性。若A1,A2,…,An,…互不相容,有


P∪+∞i=1Ai=∑+∞i=1P(Ai)


在概率的学习中,通常还会给出概率的具体定义形式,包括统计概率、古典概率、集合概率、条件概率等。
定义5.2(统计概率)若在大量重复实验中,事件A发生的频率稳定地接近于一个固定的常数p,它表明事件A出现的可能性,则称此常数p为事件A发生的概率,记为P(A),即


p=P(A)


定义5.3(古典概率)设一种实验有且仅有有限的N个等可能结果,即N个基本事件,而A事件包含着其中的L个可能结果,则称LN为事件A的概率,记为P(A),即


P(A)=LN


定义5.4(集合概率)假设Ω是集合型随机实验的基本事件空间,F是Ω中一切可测集的集合,则对于F中的任意事件A的概率P(A)为A与Ω的体积之比,即


P(A)=V(A)V(Ω)


定义5.5(条件概率)把事件B已经出现的条件下事件A发生的概率记作P(A|B),并称为在B出现的条件下A出现的条件概率。
定理5.1(加法定理)两个不相容(互斥)事件之和的概率等于两个事件概率之和,即


P(A+B)=P(A)+P(B)


两个互逆事件A和A-1的概率之和为1。即当A+A-1=Ω,且A与A-1互斥,则P(A)+P(A-1)=1,或P(A)=1-P(A-1)。
若A、B为两个任意事件,则P(A+B)=P(A)+P(B)-P(AB)成立。此定理可推广到3个以上事件的情形: 


P(A+B+C)=P(A)+P(B)+P(C)-P(AB)-P(BC)-P(CA)+P(ABC)


定理5.2(乘法定理)设A、B为两个不相容的非零事件,则其乘积的概率等于A和B概率的乘积,即


P(AB)=P(A)P(B)或P(AB)=P(B)P(A)


设A、B为两个任意的非零事件,则其乘积的概率等于A(或B)的概率与在A(或B)出现的条件下B(或A)出现的条件概率的乘积。


P(AB)=P(A)P(B|A)或P(AB)=P(B)P(A|B)


此定理可以推广到3个以上事件的乘积情形,即当z个事件的乘积P(A1A2…Az-1)>0时,则乘积的概率为


P(A1A2…Az)=P(A1)P(A2|A1)P(A3|A1A2)…P(Az|A1A2…Az-1)


当事件独立时,则有


P(A1A2…Az)=P(A1)P(A2)P(A3)…P(Az)


下面给出还需要了解的其他概率知识。
(1) 先验概率。指根据历史资料或主观判断所确定的各事件发生的概率,该类概率没能经过实验证实,属于检验前的概率,所以称为先验概率。先验概率一般分为两类,一是客观先验概率,是指利用历史资料计算得到的概率; 二是主观先验概率,是指在无历史资料或历史资料不全的时候,只能凭借人们的主观经验判断取得的概率。
(2) 后验概率。一般是指利用贝叶斯公式,结合调查等方式获取了新的附加信息,对先验概率进行修正后得到的更符合实际的概率。
(3) 全概率公式。如果影响事件A的所有因素B1,B2,…,Bn满足: BiBj=,(i≠j,i=1,2,…,n,j=1,2,…,n),且∑ti=1P(Bi)=1,则必有


P(A)=∑ti=1P(Bi)P(A|Bi)


(4) 贝叶斯公式。也称后验概率公式或逆概率公式。设先验概率为P(Bi),调查所获的新附加信息为P(Aj|Bi),其中i=1,2,…,z,j=1,2,…,z。则贝叶斯公式计算的后验概率为


P(Bi|Aj)=P(Bi)P(Aj|Bi)∑zt=1P(Bt)P(Aj|Bt)


5.3主观贝叶斯方法
5.3.1不确定性的表示

下面介绍在主观贝叶斯方法中如何进行知识和证据的不确定性表示。
1. 知识的不确定性表示
在主观贝叶斯方法中,采用产生式表示知识,其规则为


IF E THEN (LS,LN)H


其中,E是知识的前提条件,可以是简单条件,也可以是复合条件; H是结论;  (LS,LN)表示知识的静态强度; LS表示充分性度量,即表示E对H的支持度量; LN表示必要性度量,即表示�瘙綈E对H的支持度量。它们的表现形式分别为


LS=P(E|H)P(E|�瘙綈H)

LN=P(�瘙綈E|H)P(�瘙綈E|�瘙綈H)=1-P(E|H)1-P(E|�瘙綈H)


LS和LN的取值范围均为[0,+∞)。
2. 证据的不确定性表示
在主观贝叶斯方法中,证据的不确定性是用概率或几率表示的,二者之间的关系为


O(E)=P(E)1-P(E)=0,E为假
+∞,E为真
(0,+∞),其他


5.3.2组合证据不确定性的计算
组合证据包括合取和析取两种基本情形。
当组合证据是多个单一证据的合取时,即


E=E1 AND E2 AND … AND En


如果已知


P(E1|S),P(E2|S),…,P(En|S)


则


P(E|S)=min{P(E1|S),P(E2|S),…,P(En|S)}


当组合证据是多个单一证据的析取时,即


E=E1 OR E2 OR … OR En


如果已知


P(E1|S),P(E2|S),…,P(En|S)


则


P(E|S)=max{P(E1|S),P(E2|S),…,P(En|S)}


5.3.3不确定性的传递算法
主观贝叶斯方法推理的任务就是根据E的概率P(E)及LS和LN的值,把H的先验概率P(H)或先验几率O(H)更新为后验概率或后验几率。由于一条知识所对应的证据可能为真,也可能为假,还可能既非为真又非为假,因此,把H的先验概率或先验几率更新为后验概率或后验几率时,需要根据证据的不同情况去计算其后验概率或后验几率。
1. 证据肯定为真
当证据E肯定为真时,有P(E)=P(E|S)=1。将H的先验几率更新为后验几率的公式为


O(H|E)=LS·O(H)


如果把H的先验概率P(H)更新为后验概率P(H|E),则可以得到几率和概率的对应关系: 


P(H|E)=LS·P(H)(LS-1)·P(H)+1


2. 证据肯定为假
当证据E肯定为假时,有P(E)=P(E|S)=0,P(�瘙綈E)=1。将H的先验几率更新为后验几率的公式为


O(H|�瘙綈E)=LN×O(H)


如果把H的先验概率P(H)更新为后验概率P(H|E),则可以得到几率和概率的对应关系: 


P(H|�瘙綈E)=LN×P(H)(LN-1)×P(H)+1


3. 证据既非为真又非为假

当证据既非为真又非为假时,这时因为H依赖于证据E,而E基于部分证据S,则H依赖于S的似然性。根据下面公式来计算证据不确定性的传递问题: 


P(H|S)=P(H|E)×P(E|S)+P(H|�瘙綈E)×P(�瘙綈E|S)



这里不再讨论P(E|S)=1和P(E|S)=0两种情况,只讨论剩下的两种情况: 
(1) P(E|S)=P(E)。此时E与S无关,根据全概率公式可得


P(H|S)=P(H|E)×P(E|S)+P(H|�瘙綈E)×P(�瘙綈E|S)

=P(H|E)×P(E)+P(H|�瘙綈E)×P(�瘙綈E)=P(H)


(2) P(E|S)为其余情况。在此种情况下,依据3个特殊值(0,P(E),1)的分段线性插值函数求得。该分段线性插值函数P(H|S)如图5.1所示,函数的解析表达式为


P(H|S)=P(H|�瘙綈E)+P(H)-P(H|�瘙綈E)P(E)×P(E|S),0≤P(E|S)<P(E)

P(H)+P(H|E)-P(H)1-P(E)×[P(E|S)-P(E)],P(E)≤P(E|S)≤1




图5.1分段性插值函数



5.3.4结论不确定性的合成
现有n条知识都支持同一结论H,且每条知识的前提条件分别是n个相互独立的证据E1,E2,….En,而这些证据所对应的观察分别为S1,S2,…,Sn。此时,可以对每条知识分别求出H的后验几率O(H|Si),然后利用这些后验几率并按照下列公式可以求出所有观察下H的后验几率。


O(H|S1,S2,…,Sn)=O(H|S1)O(H)×O(H|S2)O(H)×…×O(H|Sn)O(H)×O(H)


下面通过实例进一步说明主观贝叶斯方法的推理过程。
例5.1设有下列规则: 
r1: IF E1 THEN (2,0.0001) H1
r2: IF E1 AND E2 THEN (100,0.0001) H1
r3: IF H1 THEN (200,0.001) H2
已知P(E1)=P(E2)=0.5,P(H1)=0.092,P(H2)=0.01,用户提供的证据如下: P(E1|S1)=0.76,P(E2|S2)=0.68。求P(H2|S1,S2)。



图5.2推理网络


解: 由已知知识得到的推理网络如图5.2所示。
(1) 计算O(H1|S1)。
先把H1的先验概率P(H1)更新为在E1下的后验概率P(H1|E1): 


P(H1|E1)=LS1×P(H1)(LS1-1)×P(H1)+1

=2×0.092(2-1)×0.092+1

=0.1685


由于P(E1|S1)=0.76>P(E1),所以在当前观察S1下H1的后验概率P(H1|S1)为


P(H1|S1)=P(H1)+P(H1|E1)-P(H1)1-P(E1)×(P(E1|S1)-P(E1))

=0.092+0.1685-0.0921-0.5×(0.76-0.5)

=0.1318

O(H1|S1)=P(H1|S1)1-P(H1|S1)=0.13181-0.1318=0.1518


(2) 计算O(H1|(S1 AND S2))。
由于r2的前件是E1、E2合取关系,且已知P(E1|S1)=0.76,P(E2|S2)=0.68,即P(E2|S2)<P(E1|S1)。按合取取最小的原则,这里仅考虑E2对H1的影响,即把计算P(H1|(S1 AND S2))的问题转化为计算O(H1|S2)的问题。
把H1的先验概率P(H1)更新为在E2下的后验概率P(H1|E2): 



P(H1|E2)=LS2×P(H1)(LS2-1)×P(H1)+1=100×0.092(100-1)×0.092+1=0.9102


又由于P(E2|S2)>P(E2),得到在当前观察S2下H1的后验概率P(H1|S2): 


P(H1|S2)=P(H1)+P(H1|E2)-P(H1)1-P(E2)×(P(E2|S2)-P(E2))

=0.092+0.9102-0.0921-0.5×(0.68-0.5)=0.3866

O(H1|S2)=P(H1|S2)1-P(H1|S2)=0.38661-0.3866=0.6306


(3) 计算O(H1|S1,S2)。
先将H1的先验概率转换为先验几率: 



O(H1)=P(H1)1-P(H1)=0.0921-0.092=0.1013


然后根据合成公式计算H1的后验几率: 


O(H1|S1,S2)=O(H1|S1)O(H1)×O(H1|S2)O(H1)×O(H1)

=0.15180.1013×0.63030.1013×0.1013=0.9445


再将后验几率转换为后验概率: 


P(H1|S1,S2)=O(H1|S1,S2)1+O(H1|S1,S2)=0.94451+0.9445=0.4857


(4) 计算P(H2|S1,S2)。
对r3,H1相当于已知事实,H2为结论。将H2的先验概率P(H2)更新为在H1下的后验概率P(H2|H1): 


P(H2|H1)=LS3×P(H2)(LS3-1)×P(H2)+1=200×0.001(200-1)×0.001+1=0.1668


由于P(H1|S1,S2)=0.4857>P(H1),得到在当前观察S1、S2下H2的后验概率P(H2|S1,S2): 


P(H2|S1,S2)=P(H2)+P(H2|H1)-P(H2)1-P(H1)×(P(H1|S1,S2)-P(H1))

=0.01+0.1668-0.011-0.092×(0.4857-0.092)=0.0780


从上例可以看出,H2先验概率是0.01,通过运用知识r1、r2、r3及初始证据的概率进行推理,最后推出的H2的后验概率为0.0780,相当于概率增加到7倍多。
主观贝叶斯方法的主要优点是理论模型精确,灵敏度高,不仅考虑了证据间的关系,而且考虑了证据存在与否对假设的影响,因此是一种较好的方法。其主要缺点是所需要的主观概率太多,专家不易给出。
5.4可信度方法
可信度方法是肖特里菲(Shortliffe)等人于1975年在确定性理论上结合概率论等理论提出的一种不确定性推理模型。在专家系统等领域有广泛的应用。
本节主要介绍CF模型,它是基于可信度概念和产生式规则构建的不确定性推理模型。
5.4.1不确定性的表示
下面介绍在CF模型中如何进行知识和证据的不确定性表示。
1. 知识的不确定性表示
在CF模型中,不确定性推理规则的一般形式为

IF E THEN H (CF(H,E))

其中,E表示前提条件; H表示知识的结论; CF(H,E)表示该规则的可信度,也称可信度因子或规则强度。可信度是指人们根据以往经验对某个事物或现象为真的程度的一个判断,其值为[-1,1],CF(H,E)>0表示该证据对结论为真的支持度,CF值越趋近1,则该证据对结论为真的支持度就越大,CF(H,E)=1则表示该证据使结论成立为真; CF(H,E)<0表示该证据对结论为假的支持度,CF值越趋近-1,则该证据对结论为假的支持度就越大,CF(H,E)=-1则表示该证据使结论成立为假; CF(H,E)=0则表示证据和结论没有关系。
2. 证据的不确定性表示
证据的不确定性也是用可信度CF(E)表示的。CF(E)所描述的是证据的动态强度。区别于知识的静态强度CF(H,E)表示的是规则的强度。证据的可信度来源有以下两种情况: 如果是初始证据,其可信度是由提供证据的用户给出的; 如果是先前推出的中间结论又作为当前推理的证据,则其可信度是原来在推出该结论时由不确定性的更新算法计算得到的。
可信度取值范围是[-1,1]。其典型取值如下: 
 当证据E肯定为真时,CF(E)=1。
 当证据E肯定为假时,CF(E)=-1。
 当证据E一无所知时,CF(E)=0。
5.4.2组合证据不确定性的计算
组合证据包括合取和析取两种情形。
(1) 当组合证据是多个单一证据的合取时,即
E=E1 AND E2 AND … AND En

若已知CF(E1),CF(E2),…,CF(En),则


CF(E)=min{CF(E1),CF(E2),…,CF(En)}


(2) 当组合证据是多个单一证据的析取时,即
E=E1 OR E2 OR … OR En

若已知CF(E1),CF(E2),…,CF(En),则


CF(E)=max{CF(E1),CF(E2),…,CF(En)}


5.4.3不确定性的传递算法
CF模型中的不确定性推理实际上是从不确定性的初始证据出发,运用相关的不确定性知识,逐步推出最终结论和该结论的可信度的过程。而每一次的不确定性推理都需要由证据的不确定性和知识的不确定性计算结论的不确定性,其计算公式为


CF(H)=CF(H,E)·max{0,CF(E)}


从上式可以看出,当CF(E)=1时,有CF(H)=CF(H,E),这表明,规则强度CF(E)实际上就是在前提条件对应的证据为真时结论H的可信度。而当CF(E)<0时,则相应的证据以某种程度为假,若CF(H)=0,则表明在该模型中没有考虑证据为假时对结论H所产生的影响。
5.4.4结论不确定性的合成
设有如下两条规则: 

IF E1 THEN H (CF(H,E1))

IF E2 THEN H (CF(H,E2))

则结论H的综合可信度可按照如下步骤求得: 
(1) 分别求出CF1(H)、CF2(H)


CF1(H)=CF(H,E1)×max{0,CF(E1)}

CF2(H)=CF(H,E2)×max{0,CF(E2)}


(2) 求出E1和E2的综合可信度CF(H): 


CF(H)=CF1(H)+CF2(H)-CF1(H)×CF2(H),CF1(H)≥0,CF2(H)≥0

CF1(H)+CF2(H)+CF1(H)×CF2(H),CF1(H)<0,CF2(H)<0

1-min{|CF1 (H)|,|CF2 (H)|}CF1(H)×CF2(H)<0


例5.2设有如下一组知识: 
r1: IF E1 THEN H (0.95)
r2: IF E2 THEN H (0.65)
r3: IF E3 THEN H (-0.51)
r4: IF E4 AND (E5 OR E6) THEN E1(0.81)
已知: CF(E2)=0.81,CF(E3)=0.65,CF(E4)=0.51,CF(E5)=0.65,CF(E6)=0.81,求CF(H)。
解: 由r4得


CF(E1)=0.81×max{0,CF(E4 AND (E5 OR E6))}

=0.81×max{0,min{CF(E4),CF(E5 OR E6)}}

=0.81×max{0,min{CF(E4),max{CF(E5),CF(E6)}}}

=0.81×max{0,min{CF(E4),max{0,65,0.81}}}

=0.81×max{0,min{0.51,0.81}}

=0.81×max{0,0.51}

=0.4131


由r1得


CF1(H)=CF(H,E1)×max{0,CF(E1)}

=0.95×max{0,0.4131}=0.392445


由r2得


CF2(H)=CF(H,E2)×max{0,CF(E2)}

=0.65×max{0,0.81}=0.5265


由r3得


CF3(H)=CF(H,E3)×max{0,CF(E3)}

=-0.51×max{0,0.65}=-0.3315


根据结论不确定性的合成算法,得


CF1,2(H)=CF1(H)+CF2(H)-CF1(H)×CF2(H)

=0.392445+0.5265-0.392445×0.5265=0.712323

CF1,2,3(H)=CF1,2(H)+CF3(H)1-min{|CF1,2(H)|,|CF3(H)|}

=0.712323-0.33151-min{0.712323,0.3315}=0.569668


这就是所求的综合可信度,即CF(H)=0.569668。
5.5证据理论
证据理论是由G.Shafer拓展了A.P.Dempster的工作而来的,因此也称为DS理论,该理论实则是对简单概率的一种推广,称为广义概率。广义概率能够处理由“不知道”所引起的不确定性,并且由于辨别框的子集可以是多个元素的集合,因而知识的结论部分不必限制在由单个元素表示的最明显的层次上,而可以是一个更一般的不明确的假设,这样更有利于领域专家在不同细节、不同层次上进行知识表示。
5.5.1理论基础
在证据理论中,常用的概念有概率分配函数、信任函数、似然函数以及类概率函数等。下面一一介绍这些概念。
1. 概率分配函数
定义5.6设函数m: 2Ω→[0,1],且满足


m()=0

∑AΩm(A)=1


则称m是2Ω上的概率分配函数,m(A)称为A的基本概率数。其中,2Ω表示由Ω的所有子集构成的集合(下同)。
对概率分配函数有以下两点说明: 
其一,概率分配函数的作用是把Ω的任意一个子集A都映射为[0,1]上的一个数m(A)。当A由单元素组成时,m(A)表示对A的精确信任度; 当A由多元素组成,且不为全集时,m(A)也表示对A的精确信任度,但不知道这部分信任度该分配给A中的哪些元素; 当A是全集时,则m(A)是对全集的各个子集进行信任分配后剩余的部分,表示不知道该如何对它进行分配。
其二,概率分配函数不是概率。
2. 信任函数
定义5.7信任函数(Belief Function,Bel函数)如下: 


Bel: 2Ω→[0,1]

对AΩ,Bel(A)=∑BAm(B)


Bel函数又称为下限函数,表示当前环境下对假设集A的信任度,其值为A的所有子集的基本概率之和,表示对A的总信任度。
3. 似然函数
定义5.8似然函数(Plausibility Function,Pl函数)如下: 


Pl: 2Ω→[0,1]

对AΩ,Pl(A)=1-Bel(�瘙綈A)


其中,�瘙綈A=Ω-A。
似然函数又称为上限函数或不可驳斥函数。由于Bel(A)表示对A为真的信任度,Bel(�瘙綈A)表示对�瘙綈A的信任度,即对A为假的信任度,因此,Pl(A)表示对A为非假的信任度。
信任函数与似然函数有如下性质: 
(1) Bel()=0,Bel(Ω)=1,Pl()=0,Pl(Ω)=1。
(2) IF AB,THEN Bel(A)≤Bel(B),Pl(A)≤Pl(B)。
(3) AΩ,Pl(A)≥Bel(A)。
(4) AΩ,Bel(A)+Bel(�瘙綈A)≤1,Pl(A)+Pl(�瘙綈A)≥1。
另外,Pl(A)-Bel(A)表示既不信任A也不信任�瘙綈A的程度,即是真是假不知道的程度。
5.5.2不确定性表示
下面介绍在证据理论下如何进行知识和证据的不确定性表示。
1. 知识的不确定性表示
在证据理论中,不确定性知识的表示形式为

IF E THEN H{h1,h2,…,hn}(CF={c1,c2,…,cn})

其中,E为前提条件,它既可以是简单条件,也可以是用合取或析取词联结起来的复合条件; H是结论,它用样本空间中的子集表示,h1,h2,…,hn是该子集中的元素; CF是可信度因子,用集合形式表示,该集合中的元素c1,c2,…,cn用来表示h1,h2,…,hn的可信度,ci与hi一一对应,并且ci应满足如下条件: 


ci≥0,
∑ni=1ci≤1,i=1,2,…,n


2. 证据的不确定性表示
证据A的不确定性用类概率函数f(A)表示,类概率函数的定义可以由信任函数和似然函数得到,原始证据的f(A)是由用户给出的,如果是推理过程中得到的中间结论,则其确定性是由推理得到的。
下面给出类概率函数的概念。
定义5.9设Ω是有限域,对AΩ,A的类概率函数为


f(A)=Bel(A)+|A||Ω|·(Pl(A)-Bel(A))


其中,|A|和|Ω|分别是A和Ω中元素的个数。
类概率函数f(A)具有以下性质: 
(1) ∑ni=1f({si})=1。
(2) 对AΩ,有Bel(A)≤f(A)≤Pl(A)。
(3) 对AΩ,有f(�瘙綈A)=1-f(A)。
5.5.3组合证据不确定性的计算
组合证据包括合取和析取两种情形。当组合证据是多个单一证据的合取时,即


E=E1 AND E2 AND … AND En


若已知f(E1),f(E2),…,f(En),则


f(E)=min{f(E1),f(E2),…,f(En)}


当组合证据是多个单一证据的析取时,即


E=E1 OR E2 OR … OR En


若已知f(E1),f(E2),…,f(En),则


f(E)=max{f(E1),f(E2),…,f(En)}


当有多条规则支持同一结论时,如果A={a1,a2,…,an},则


IF Ei THEN H CFi(CFi{ci1,ci2,…,cin}),i=1,2,…,m


如果这些规则相互独立地支持结论H的成立,可以先计算


mi({a1},{a2},…,{an})=(f(Ei)·ci1,f(Ei)·ci2,…,f(Ei)·cim),i=1,2,…,m


然后可以根据求解正交和的方法,对mi求正交和,以组合所有规则对结论H的支持。一旦组合的正交和m(H)计算出来,就可以计算Bel(H)、Pl(H)、f(H)。
下面介绍求正交和的方法。
定义5.10设m1和m2是两个不同的概率分配函数,则其正交和m=m1m2满足


m()=0

m(A)=K-1·∑x∩y=m1(x)m2(y)


其中,K=1-∑x∩y=m1(x)m2(y)=∑x∩y≠m1(x)m2(y)。
如果K≠0,则正交和m也是一个概率分配函数; 如果K=0,则不存在正交和m,称m1和m2矛盾。
5.5.4不确定性的更新
设有知识IF E THEN H{h1,h2,…,hn}(CF={c1,c2,…,cn})定义


m({ai})=f(E)·cii=1,2,…,m


或表示为


m({a1},{a2},…,{am})=(f(E)·c1,f(E)·c2,…,f(E)·cm)


规定


m(Ω)=1-∑mi=1m({ai})


而对于Ω的所有其他子集H,均有m(H)=0。
当H为Ω的真子集时,有


Bel(H)=∑BHm(B)=∑mi=1m({ai})


进一步可以计算Pl(H)和f(H)。
例5.3有如下规则: 
r1: IF E1 AND E2 THEN A={a1,a2},CF={0.3,0.5}
r2: IF E3 AND (E4 OR E5)THEN B={b1},CF={0.7}
r3: IF A THEN H={h1,h2,h3},CF={0.1,0.5,0.3}
r4: IF B THEN H={h1,h2,h3},CF={0.4,0.2,0.1}
已知用户对初始证据给出的确定性为: CER(E1)=0.8,CER(E2)=0.6,CER(E3)=0.9,CER(E4)=0.5,CER(E5)=0.7,并假设Ω中的元素个数|Ω|=10,求CER(H)。
解: 由给定知识形成的推理网络如图5.3所示。


图5.3推理网络



(1) 求CER(A)。
因为


CER(E1 AND E2)=min{CER(E1),CER(E2)}=min{0.8,0.6}=0.6
m({a1},{a2})={0.6×0.3,0.6×0.5}={0.18,0.3}
Bel(A)=m({a1})+m({a2})=0.18+0.3=0.48
Pl(A)=1-Bel(�瘙綈A)=1-0=1
f(A)=Bel(A)+|A|/|Ω|×(Pl(A)-Bel(A))

=0.48+2/10×(1-0.48)=0.584


所以,CER(A)=MD(A/E′)×f(A)=0.584。
(2) 求CER(B)。
因为

CER(E3 AND (E4 OR E5))
=min{CER(E3),max{CER(E4),CER(E5)}}
=min{0.9,max{0.5,0.7}} =min{0.9,0.7}=0.7
m({b1})=0.7×0.7=0.49
Bel(B)=m({b1})=0.49
Pl(B)=1-Bel(�瘙綈B)=1-0=1
f(B)=Bel(B)+|B|/|Ω|×(Pl(B)-Bel(B))

=0.49+1/10×(1-0.49)=0.541


所以,CER(B)=MD(B/E′)×f(B)=0.541。
(3) 求CER(H)。
由r3可得:


m1({h1},{h2},{h3})={CER(A)×0.1,CER(A)×0.5,CER(A)×0.3}

={0.584×0.1,0.584×0.5,0.584×0.3}

={0.058,0.292,0.175}

m1(Ω)=1-[m1({h1})+m1({h2})+m1({h3})]

=1-[0.058+0.292+0.175]=0.475


再由r4可得:


m2({h1},{h2},{h3})={CER(B)×0.4,CER(B)×0.2,CER(B)×0.1}

={0.541×0.4,0.541×0.2,0.541×0.1}

={0.216,0.108,0.054}

m2(Ω)=1-[m2({h1})+m2({h2})+m2({h3})]

=1-[0.216+0.108+0.054]=0.622


求正交和m=m1m2。


K=m1(Ω)×m2(Ω)

+m1({h1})×m2({h1})+m1({h1})×m2(Ω)+m1(Ω)×m2({h1})

+m1({h2})×m2({h2})+m1({h2})×m2(Ω)+m1(Ω)×m2({h2})

+m1({h3})×m2({h3})+m1({h3})×m2(Ω)+m1(Ω)×m2({h3})

=0.475×0.622

+0.058×0.216+0.058×0.622+0.475×0.216

+0.292×0.108+0.292×0.622+0.475×0.108

+0.175×0.054+0.175×0.622+0.475×0.054

=0.855

m(h1)=1K×(m1({h1})×m2({h1})+m1({h1})×m2(Ω)+m1(Ω)×m2({h1}))

=10.855×(0.058×0.216+0.058×0.622+0.475×0.216)

=0.178

m(h2)=1K×(m1({h2})×m2({h2})+m1({h2})×m2(Ω)+m1(Ω)×m2({h2}))

=10.855×(0.292×0.108+0.292×0.622+0.475×0.108)

=0.309

m(h3)=1K×(m1({h3})×m2({h3})+m1({h3})×m2(Ω)+m1(Ω)×m2({h3}))

=10.855×(0.175×0.054+0.175×0.622+0.475×0.054)

=0.168

m(Ω)=1-(m({h1})+m({h2})+m{(h3)})

=1-(0.178+0.309+0.168)

=0.345


再根据m可得:


Bel(H)=m({h1})+m({h2})+m({h3}) =0.178+0.309+0.168 =0.655

Pl(H)=m(Ω)+Bel(H)=0.345+0.655=1

CER(H)=MD(H/E′)×f(H)=0.759


尽管该理论运用较为广泛,但由于要求Ω中的元素满足互斥条件,这在系统中不容易实现,并且概率分配数构成的维数空间很大,计算比较复杂。
5.6模糊知识与模糊推理
5.6.1模糊知识的表示
1. 语言变量


模糊逻辑使用的变量可以是语言变量,所谓语言变量是指用自然语言中的词表示并可以取语言值的变量。例如,变量“年龄”在普通集合中一般取0~150的数值,而在模糊集合中可以使用语言值“年轻、很年轻、不很年轻、老、很老、不很老”等。这些语言值可看成是论域U∈[0,150]上模糊集的集合名。
通常,语言变量的值可以由一个或多个原始值再加上一组修饰词和连词组成。例如,上面给出的语言变量“年龄”,其原始词为“年轻”“老”,若加上修饰词“不很”可得到“不很年轻”“不很老”,若再加上连词“且”,则可得到“不很年轻且不很老”。
2. 模糊命题的描述
模糊逻辑是通过模糊谓词、模糊量词、模糊概率、模糊可能性、模糊真值、模糊修饰语等对命题的模糊性描述的。
1) 模糊谓词
设x为在U中取值的变量,F为模糊谓词,即U中的一个模糊关系,则命题可表示为


x is F


其中的模糊谓词可以是“大、小、年轻、老、冷、暖、长、短”等。
2) 模糊量词
模糊逻辑中使用了大量的模糊量词,如“极少、很少、几个、少数、很少、多数、大多数、几乎所有”等。这些模糊量词可以很方便地描述类似下面的命题: 
大多数成绩好的学生学习都很刻苦。
很少有成绩好的学生特别贪玩。
3) 模糊概率、模糊可能性和模糊真值
设λ为模糊概率,π为模糊可能性,τ为模糊真值,则对命题还可以附加概率限定、可能性限定和真值限定: 


(x is F) is λ

(x is F) is π

(x is F) is τ


式中,λ可以是“或许、必须”等,π可以是“非常可能、很不可能”等,τ可以是“非常真、有些假”等。
4) 模糊修饰语
模糊修饰语有以下4种: 
(1) 求补。表示否定,如“不、非”等。
(2) 集中。表示“很、非常”等,其效果是减少隶属函数的值。
(3) 扩张。表示“有些、稍微”等,其效果是增加0.5以上隶属函数的值。
(4) 加强对比。表示“明确、确定”等,其效果是增加0.5以上隶属函数的值,减少0.5以下隶属函数的值。
3. 模糊知识的表示方法
在扎德的推理模型中,产生式规则的表示形式是
IF x is F THEN y is G

其中,x和y是变量,表示对象; F和G分别是论域U及V上的模糊集,表示概念。条件部分(IF)可以是多个xi is Fi的逻辑组合,此时,诸隶属函数间的运算按照模糊集的运算进行。
模糊推理中所用的证据都是用模糊命题表示的,其一般形式为
X is F′

其中,F′是论域U上的模糊集。
5.6.2模糊概念的匹配
模糊概念的匹配是指对两个模糊概念相似程度的比较与判断,而两个模糊概念的相似程度又称为匹配度。本节主要讨论语义距离和贴近度这两种计算匹配度的方法。
1. 语义距离
语义距离刻画的实际上是两个模糊概念之间的差异,常用的计算语义距离的方法有多种,这里主要介绍汉明(Hamming)距离。
设U={u1,u2,…,un}是一个离散有限论域,F和G分别是论域U上的两个模糊概念的模糊集,则F和G的汉明距离定义为


d(F,G)=1n∑ni-1|μF(ui)-μG(ui)|


例5.4设论域U={-10,0,10,20,30}表示温度,模糊集


F=0.8/-10+0.5/0+0.1/10

G=0.9/-10+0.6/0+0.2/10


分别表示“冷”和“比较冷”,则


d(F,G)=0.2×(|0.8-0.9|+|0.5-0.6|+|0.1-0.2|)

=0.2×0.3=0.06


即F和G的汉明距离为0.06。
对求出的汉明距离,可通过下式


1-d(F,G)


将其转换为匹配度。当匹配度大于某个事先给定的阈值时,认为两个模糊概念是相匹配的。当然,也可以直接用语义距离判断两个模糊概念是否匹配。这时,需要检查语义距离是否小于某个给定的阈值,距离越小,两者越相似。
2. 贴近度
贴近度是指两个概念的贴近程度,可直接用来作为匹配度。
设F和G分别是论域


U={u1,u2,…,un}


上的两个模糊概念的模糊集,则它们的贴近度定义为


(F,G)=12[F·G+(1-F⊙G)]


式中,F·G为F与G的内积; F⊙G为F与G的外积。
5.6.3模糊推理
模糊推理是按照给定的推理模式通过模糊集的合成来实现的。而模糊集的合成实际上又是通过模糊集与模糊关系的合成实现的。可见,模糊关系在模糊推理中占有重要的位置。为此,在讨论模糊推理方法之前,先对模糊关系的构造问题进行简单的介绍。
1. 模糊关系的构造
前面曾经介绍过模糊关系的概念,这里主要讨论由模糊集构造模糊关系的方法。目前已有多种构造模糊集关系的方法,下面仅介绍其中最常用的几种。
1) 模糊关系Rm
模糊关系Rm是由扎德提出的一种构造模糊关系的方法。设F和G分别是论域U和V上的两个模糊集,则Rm定义为


Rm=∫U×V(μF(u)∧μG(v))∨(1-μF(u))/(u,v)


其中,×号表示模糊集的笛卡儿乘积。
例5.5设U=V={1,2,3},F和G分别是U和V上的两个模糊集,并设


F=1/1+0.6/2+0.1/3

G=0.1/1+0.6/2+1/3


则Rm为


Rm=0.10.61
0.40.60.6
0.90.90.9


下面以Rm(2,3)为例说明Rm中元素的求法。


Rm(2,3)=(μF(u2)∧μG(v3))∨(1-μF(u2))

=(0.6∧1)∨(1-0.6)=0.6∨0.4=0.6


2) 模糊关系Rc
模糊关系Rc是由麦姆徳尼(Mamdani)提出的一种构造模糊关系的方法。设F和G分别为论域U和V上的两个模糊集,则Rc定义为


Rc=∫U×V(μF(u)∧μG(v))/(u,v)


对例5.5所给出的模糊集,其Rc为


Rc=0.10.61
0.10.60.6
0.10.10.1


下面以Rc(3,2)为例说明Rc中元素的求法: 


Rc(3,2)=μF(u3)∧μG(v2)=0.1∧0.6=0.1


3) 模糊关系Rg
模糊关系Rg是米祖莫托(Mizumoto)提出的一种构造模糊关系的方法。设F和G分别是论域U和V上的两个模糊集,定义为


Rg=∫U×V(μF(u)→μG(v))/(u,v)


对例5.5给出的模糊集,其Rg为


Rg=0.10.61
0.111
111


2. 模糊推理的基本方法
与自然演绎推理相对应,模糊推理也有相应的3种基本模式,即模糊假言推理、拒取式推理及模糊三段论推理。
1) 模糊假言推理
设F和G分别是U和V上的两个模糊集,且有知识


IF x is F THEN y is G


若有U上的一个模糊集F′,且F可以和F′匹配,则可以推出y is G′,且G′是V上的一个模糊集。这种推理模式称为模糊假言推理,其表示形式为
知识: IF x is F THEN y is G
证据: x is F′
结论: y is G′
在这种推理模式下,模糊知识


IF x is F THEN y is G


表示在F与G之间存在确定的模糊关系,设此模糊关系为R。那么,当已知的模糊事实F′可以与F匹配时,则可通过F′与R的合成得到G′。
例5.6对例5.5 所给出的F、G以及所求出的Rm,设有已知事实


x is 较小


并设“较小”的模糊集为


较小=1/1+0.7/2+0.2/3


求在此已知事实下的模糊结论。
解: 本例的模糊关系在前文中已求出,设已知模糊事实“较小”为F′,F′与Rm的合成即为所求G′。


G′=F′Rm={1,0.7,0.2}0.10.61
0.40.60.6
0.90.90.9={0.4,0.6,1}


即所求出的模糊结论G′为


G′=0.4/1+0.6/2+1/3


2) 模糊拒取式推理
设F和G分别是U和V上的两个模糊集,且有知识


IF x is F THEN y is G


若有V上的一个模糊集G′,且G′可以与G的补集匹配,则可以推出x is F′,且F′是U上的一个模糊集。这种推理模式称为模糊拒取式推理。它可以表示为
知识: IF x is F THEN y is G
证据: y is G′
结论: x is F′
在这种推理模式下,模糊知识


IF x is F THEN y is G


也表示在F与G之间存在确定的模糊关系,设此模糊关系为R。那么,当已知的模糊事实G′可以与�瘙綈G匹配时,则可以通过R与G′的合成得到F′,即


F′=RG′


式中的模糊关系R可以是Rm、Rc或Rg中的任何一种。
例5.7设F、G如例5.5所示,已知事实为


y is 较大


且模糊概念“较大”的模糊集G′为


G′=0.2/1+0.7/2+1/3


若G′与�瘙綈G匹配,以模糊关系Rc为例,推出F′。
解: 本例中的模糊关系Rc已在前面求出,通过Rc与G′的合成即可得到所求的F′。


F′=RcG′=0.10.61
0.10.60.6
0.10.10.10.2
0.7
1=1
0.6
0.1


即所求出的F′为


F′=1/1+0.6/2+0.1/3


模糊拒取式推理和模糊假言推理类似,也可以把计算Rm、Rc的公式代入求F′的公式中,得到求F′的一般公式。对Rm有


F′=RmG′∫u∈U∨{[(μF(u)∧μG(v))∨(1-μF(u))]∧μG(v)}/u


同理,对模糊关系Rc也可推出求F′的一般公式 


F′=RcG=∫u∈U∨{[μF(u)∧μG(u)]∧μG(v)}/v


在实际应用中,也可以直接利用这些公式由F、G和G′求出F′。

3) 模糊三段论推理
设F、G、H分别是U、V、W上的3个模糊集,且由知识


IF x is F THEN y is G

IF y is G THEN z is H


则可推出


IF x is F THEN z is H


这种推理模式称为模糊假言三段论,可以表示为
知识: IF x is F THEN y is G
证据: IF y is G THEN z is H
结论: IF x is F THEN z is H
在这种推理模式下,模糊知识


r1: IF x is F THEN y is G


表示在F和G之间存在确定的模糊关系,设此模糊关系为R1。模糊知识


r2: IF y is G THEN z is H


表示在G和H之间存在确定的模糊关系,设此模糊关系为R2。
若模糊假言三段论成立,则r3的模糊关系R3可由R1与R2的合成得到,即


R3=R1R2


这里的关系R1、R2、R3可以是前面所讨论过的Rm、Rc与Rg中的任何一种。为说明这种方法,下面讨论一个例子。
例5.8设U=W=V={1,2,3}。


E=1/1+0.6/2+0.2/3

F=0.8/1+0.5/2+0.1/3

G=0.2/1+0.6/2+1/3


按Rg求E×F×G上的关系R。
解: 先求E×F上的关系Rg1:


Rg1=0.80.50.1
10.50.1
110.1


再求F×G上的关系Rg2: 


Rg2=0.20.61
0.211
111


最后求E×F×G上的关系R: 


R=Rg1Rg2=0.20.60.8
0.20.61
0.211





在线视频


5.7实践: 基于TS模型的模糊推理
模糊推理是一种基于行为的仿生推理方法,主要用来解决带有模糊现象的复杂推理问题。由于模糊现象的普遍存在,
模糊推理系统被广泛的应用。模糊推理系统主要由模糊化、模糊规则库、模糊推理方法以及去模糊化组成,其基本流程如图5.4所示。


图5.4模糊推理流程图


传统的模糊推理是一种基于规则的控制,它通过语言表达的模糊性控制规则实现对难以精确描述系统的控制,在设计中不需要建立被控对象的精确数学模型。TS模糊推理模型是将正常的模糊推理规则及其推理转换成一种数学表达形式。TS模型本质上是将全局非线性系统通过模糊划分建立多个简单的线性关系,对多个模型的输出再进行模糊推理和判决,可以表示复杂的非线性关系。
5.7.1TS模型的模糊推理过程
TS模糊模型基本思想是用线性状态空间模型作为后件表达每条语句对应所表证的局部动态特征,则全局的模糊模型就由这些线性模型通过隶属度函数综合而成,全局模型是一个非线性模型,利用模糊逻辑系统的非线性映射能力,就可以逼近一个复杂的非线性系统,而且能够对定义在一个致密集上的非线性系统做到任意精度上的一致逼近。
(1) 多输入多规则模糊推理系统的工作原理: 
① 通过模糊化模块将输入的精确量进行模糊化处理,转换成给定论域上的模糊集合。
② 激活规则库中对应的模糊规则。
③ 选用合适的模糊推理方法,根据模糊事实推理出结果。
④ 对模糊结果进行去模糊化处理。
(2) 模糊化的原则及方法: 
原则1: 在精确值处模糊集合的隶属度最大。
原则2: 当输入有干扰时,模糊化的结果具有一定的抗干扰能力。
原则3: 模糊化运算应尽可能简单。
各约束的隶属函数为(本实验采用)

Fun(a,b,x):if x<a return 0;

 if a<x<=b return ((x-a)/(b-a))^2;

 if x>b return 1;

当隶属度函数为f(x)时,模糊化隶属度函数准则(本实验采用): 
高: f(x)^(0.5)
中: min(f(x),1-f(x))
低: (1-f(x))^0.5
(3) 模糊规则库(本实验采用): 
IF科研经费低AND人数高AND作品数低AND获奖数低THEN评价差
IF科研经费高AND人数低AND作品数低AND获奖数高THEN评价高
IF科研经费中AND人数中AND作品数中AND获奖数中THEN评价中
IF科研经费高AND人数高AND作品数低AND获奖数低THEN评价差
对于评价的等级高中差分别用3、2、1表示。
约束等级划分标准: 





约束与等级高中低

科研经费>205~20<5
人数>105~10<5
作品数>3010~30<10
获奖数>155~15<5

(4) 去模糊化的原则与方法: 
原则1: 所得到的精确值,能够直观地表达该模糊集合。
原则2: 去模糊化运算要足够简单,保证模糊推理系统实时使用。
原则3: 模糊集合的微小变化不会使精确值发生大幅变化。
采用最小法和乘积法进行去模糊化处理(本实验采用)。
5.7.2TS模型的模糊推理实验
具体实现及主要代码如下(详细代码参见附录),实验结果如图5.5所示。
1. 科研经费隶属度函数

def fun1(m):#科研经费隶属度函数

if m<=5:

return 0

if m>5 and m<=20:

return ((m-5)/15)*((m-5)/15)

if m>20:

return 1

2. 规则1

def rule1(self):

W[0]=math.sqrt(1-T_S.fun1(jf))

W[1] = math.sqrt(T_S.fun2(rs))

W[2] = math.sqrt(1 - T_S.fun3(zp))

W[3] = math.sqrt(1 - T_S.fun4(hj))

pj[0]=1

for i in range(4):

if(W[i]<0.0000000001):

W[i]=0

minTemp=999#取小法

fori in range(4):

if(W[i]!=999):

minTemp=min(minTemp,W[i])

MIN[0]=minTemp

mulTemp=1#乘积法

fori in range(4):

if(W[i]!=999):

mulTemp=mulTemp*W[i]

MUL[0]=mulTemp

3. 实现结果


图5.5实验结果


实践示例程序参考附录D。
5.7.4思考与练习
现给出农业生产中评价经济指标的模糊推理规则: 
IF亩产低AND费用高AND用工高AND收入低AND肥力低THEN评价差
IF亩产中AND费用低AND用工低AND收入中AND肥力高THEN评价中
IF亩产高AND费用低AND用工低AND收入高AND肥力高THEN评价高
IF亩产中AND费用中AND用工中AND收入中AND肥力高THEN评价中
IF亩产高AND费用高AND用工高AND收入低AND肥力低THEN评价差
请自行设计评价等级区间数据以及不同隶属度函数,例如: 采用上梯形隶属函数。去模糊化时也请自行选择去模糊化方法,例如: 中心平均法、最大隶属度法等。
5.8习题
1. 什么是不确定性推理?有哪几类不确定性推理方法?不确定性推理中需要解决的基本问题有哪些?

2. 什么是可信度?
3. 设有如下一组推理规则: 
r1: IF E1 THEN E2 (0.6)
r2: IF E2 AND E3 THEN E4 (0.7)
r3: IF E4 THEN H (0.8)
r4: IF E5 THEN H (0.9)
且已知CF(E1)=0.5,CF(E3)=0.6,CF(E5)=0.7。求CF(H)。
4. 设有如下推理规则: 
r1: IF E1 THEN(2,0.00001)H1
r2: IF E2 THEN(100,0.0001)H1
r3: IF E3 THEN(200,0.001)H2
r4: IF H1 THEN(50,0.1)H2
且已知P(E1)=P(E2)=P(H3)=0.6,P(H1)=0.091,P(H2)=0.01,又由提供证据的用户告知P(E1|S1)=0.84,P(E2|S2)=0.68,P(E3|S3)=0.36。
用主观贝叶斯方法求P(H2|S1,S2,S3)。
5. 设有如下一组推理规则: 
r1: IF E1 AND E2 THEN A={a}(CF={0.9})
r2: IF E2 AND (E3 OR E4) THEN B={b1,b2}(CF={0.5,0.4})
r3: IF A THEN H={h1,h2,h3}(CF={0.2,0.3,0.4})
r4: IF B THEN H={h1,h2,h3}(CF={0.3,0.2,0.1})
且已知初始证据的确定性分别为: CER(E1)=0.6,CER(E2)=0.7,CER(E3)=0.8,CER(E4)=0.9。
假设|Ω|=10,求CER(H)。
6. 简述模糊概念、模糊集和隶属函数三者之间的关系。
7. 设U=V={1,2,3,4},且有如下推理规则: 


IF x is 少 THEN y is 多


其中,“少”与“多”分别是U与V上的模糊集,设


少=0.9/1+0.7/2+0.4/3

多=0.3/2+0.7/3+0.9/4


已知事实为


x is 较少


“较少”的模糊集为


较少=0.8/1+0.5/2+0.2/3


试用模糊关系Rm求出模糊结论。
8. 设有论域U={u1,u2,u3,u4,u5},并设F、G是U上的两个模糊集,且有


F=0.9/u1+0.7/u2+0.5/u3+0.3/u4

G=0.6/u3+0.8/u4+1/u5


请分别计算 F∩G、F∪G、�瘙綈F。
9. 设有如下两个模糊关系: 


R1=0.30.70.2
100.4
00.51R2=0.20.8
0.60.4
0.90.1


请写出R1与R2的合成R1R2。
10. 设F是论域U上的模糊集,R是U×V上的模糊关系,F和R分别为


F={0.4,0.6,0.8}

R=0.10.30.5
0.40.60.8
0.60.30


求模糊变换FR。