第五章模糊不确定性和模糊信息

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
%
来 量 度 该 不 确 定 性 。 当 μ ( xi ) = 1/ 2 时 , S ( μ A ( xi )) 为 最 大 值 , 当
%
μ ( xi ) = 0 或 1 时 ,
S ( μ A ( xi )) = 0 ;总的平均不确定性为 d ( μ ) =
%
∑ S (μ N
i =1
1
N
A %
( xi )) 。
模糊信息处理——理论与应用
第五章 模糊不确定性和模糊信息
5.1 模糊集的模糊度
模糊集由于集内元素隶属度结构的不同而呈现出不同的模糊性。为了建立能够合理的测 度模糊集的模糊性的函数,首先,必须确定若干条模糊性测度函数的性质。 如果模糊集 A 中某一元素 xi 的隶属度 μ A ( xi ) = 1 ,则说明 xi 完全隶属于 A ,此时没有丝 毫的模糊性。所以对于 μ A ( xi ) = 1 的情况,模糊性测度应该为 0。类似地,若 μ A ( xi ) = 0 ,则 说明 xi 完全不隶属于 A ,也没有丝毫的模糊性。对于 μ A ( xi ) = 0 的情况,模糊性测度也应该 为 0。因此,模糊性测度(以 d ( μ ) 表示)的第 1 个性质应该是: (P1) d ( μ ) = 0 ,当且仅当 μ = 1 或 μ = 0 。
* *
当 μ < 1 2 时,若 μ > μ ,则 d ( μ ) ≥ d ( μ ) 。
* *
我们知道, A 的补集 A 定义为
c
%
%
μ A ( xi ) = 1 − μ A ( xi )
c
%
%
如果 μ A ( xi ) < 1 2 ,μ A ( xi ) 离 0 和 μ Ac ( xi ) 离 1 同样远; 类似地, 如果 μ A ( xi ) > 1 2 ,
μ ∈ [0,1]
(5.7)
d (μ ) = K ∑ ⎡ ⎣ − μ A ( xi ) ln μ A ( xi ) − (1 − μ A ( xi ) ln(1 − u A ( xi )) ⎤ ⎦
i =1 % % % %
N
(5.8)
5.2 模 糊 信 息 量
一、模糊熵
式(5.8)可写为
d ( μ ) = K ∑ S ( μ A ( xi ))
H s ( pi ) = − pi ln pi − (1 − pi ) ln(1 − pi )
对于 N 个独立的香农信息源,香农熵的平均值是
(5.15)
1 H s ( pi ) = N
∑H (p )
i =1 s i
N
(5.16)
在式(5.15)和式(5.16)中, pi 是第 i 个二元源的两个事件其中之一出现的概率。在以上表 达式中,对数均以 2 为底。
5.3 模糊信息处理的塔形结构
一、引言
在人的思维中,通常并不是单纯使用二值逻辑,更多的是使用模糊逻辑。模糊逻辑使得 人具有聚集信息的能力,能够从进入大脑的大量数据中抽出那些只与目前的任务有关的子集。 这种聚集信息的能力对于处理的问题能够做出合理的近似和简化。由人操作的许多基本任务
下面给出 d ( μ ) 的几种主要形式。 1. 模糊集的海明距离 在式(5.1)中,取 F ( Z ) = Z ; 对 ∀i, ci = 1, 且
⎧ μ ⎪ ⎪ fi ( μ ) = ⎨ ⎪1 − μ ⎪ ⎩
我们得到
μ ∈ [0, )
1 μ ∈ [ ,1] 2
(5.2)
1 2
d ( μ ) = ∑ μ A ( xi ) − μ A1/( xi) 2
% % % % %
(5.13)
我们有
H f (μ ) =
1 N
∑H
i =1
N
f
( μi )
(5.14)
H f ( μi ) 表示由一个单一的模糊事件所产生的信息量,而 H f ( μ ) 表示由模糊集的模糊度
所产生的信息量。 对于一个二元的香农信息源,香农熵的方程式为
76
模糊信息处理——理论与应用
% %
%
%
μ A ( xi )
%
离 1 和 μ Ac ( xi ) 离 0 同样远。根据这一对称性,我们归纳出模糊性测度的性质 4:
%
(P4) d ( μ A ) = d ( μ Ac ) 。
% %
性质 4 说明, A 和 A 具有同等的模糊性。 对于有限集的情况,能满足上述 4 条基本性质的数学形式是

%
%
%
d A∗ ( μ ) < d A ( μ )
% % % %
以这样的方法,我们获得了用 d A ( μ ) − d A∗ ( μ ) 来量度的信息量。
二、模糊信息和香农信息的等效关系
记式(5.11)给出的归一化模糊熵为 H f ( μ ) ,即
H f (μ ) =
1 N
∑ S (μ
i =1
N
A %
i =1 % %
N
(5.3)
式中 A1/ 2 是 A 的 λ 截集且 λ = 1 2 。
%
%
此时, d ( μ ) 表达了 A 到它的最贴近普通集 A 的海明距离。最贴近普通集 A 的定义为
%
1 ⎧ 0 当μ A ( xi ) < ⎪ % ⎪ 2 μ A ( xi ) = ⎨ ⎪1 当μ ( x ) ≥ 1 A i ⎪ % 2 ⎩
( xi ))
(5.12)
我们设 A 中的 xi 对应于一个模糊事件,这个单一的模糊事件 xi 的模糊熵为 H f ( μi ) ,且
%
H f ( μi ) = S ( μ A ( xi )) H f ( μi )
%
= − μ A ( xi ) ln A ( xi ) − (1 − μ A ( xi ) ln A (1 − μ A ( xi ))
H s ( pi ) 表示由一个二元香农信息源产生的香农平均信息量,而 H s ( p) 表示由 N 个独立
的二元香农信息源产生的平均信息量。 在图 5.2.1 中, 画出了模糊熵 H f ( μi ) 和 μ A ( xi ) 的关系曲线, 同时也画出了香农熵 H s ( pi ) 和 pi 的关系曲线。 注意到, 两条曲线形状完全相同, 最大值分别出现在 μ A ( xi ) = 1 2 ,pi = 1 2
1
(5.6)
此时, d ( μ ) 表示 A 到它的最贴近普通集 A 的欧氏距离。
%
3. 模糊集的熵 在式(5.1)对 ∀i ,取 f i ( μ ) 为香农函数:
74
模糊信息处理——理论与应用
fi ( μ ) = − μ ln μ − (1 − μ ) ln(1 − μ )
并取 ci = 1 , F ( Z ) = KZ , K > 0 。我们得到
75
第五章 模糊不确定性和模糊信息
个模糊集 A 来描述视觉网络上的图形。用 A 来描述的图形已和原来的不同了,相对于那种只
%
%
能区分“白”或“黑”的“人”或“设备”来说,这个图形看起来是模糊的,模糊熵 d ( μ ) 就 是对该模糊性的测度。上述模糊的实质是起因于“不确定性”——该不确定性存在于当我们 观察第 i 个单元体的灰度时, 我们必须决定它究竟是白还是黑。 我们可以用香农函数 S ( μ A ( xi ))
xi (i = 1, 2,L,N ) 。这些阵元分布在一个二维阵列的视觉网络中。假定我们仅仅将这样一类
图形透射于这个视觉网络中, 使得任何单元体只感受白色或黑色——对应于光电器件的 1 或 0 状态。我们可以认为单元体 xi 对应于变量 μ ( xi ) 且 μ ( xi ) 只为 1(白色)或 0(黑色)二值。 以这种方法,上述的任意图形都将是该视觉网络中的一个由 μ ( xi ) = 1 或 0 的单元体组成的子 集 A。 现在我们来设想,由于某种原因,任意的第 i 个单元体的状态 μ ( xi ) 可能在[0,1]上变化, 而不再仅仅是{0,1}二值;也就是说,这些单元体感受到连续的灰度变化。这些中间灰度值对 应的由光电器件产生的量值可以解释为“白的程度”或“黑的程度” 。这样一来,就可以用一
i =1 %
N
(5.9)
式中 S ( μ A ( xi )) 为香农函数:
%
S ( μ A ( xi )) = − μ A ( xi ) ln μ A ( xi ) − (1 − μ A ( xi ) ln(1 − μ A ( xi ))
% % % % %
(5.10)
称 d ( μ ) 为模糊集 A 的熵,或称为 A 的模糊熵。
%
%对数以 2 为底时,
d (μ ) =
1 N
∑ S (μ
i =1
N
A %
( xi ))
(5.11)
此时称 d ( μ ) 为归一化的熵,在这种情况下, 0 ≤ d ( μ ) ≤ 1 。 模糊熵的意义和传统的熵的意义不同,在定义它时并没有使用概率的概念。模糊熵表示 了模糊集的平均内部信息量——该信息量是当为了对用模糊集来描述的对象进行分类而必须 做出决策时(例如在模式识别中)所获得的。我们可以把模糊熵看作为起因于内部不确定性 的信息量的测度。当然,这里所述的信息量和香农信息理论中信息量的含义是不同的。 让我们来考虑如下的例子。设在传感器(比如是光电器件)中有 N 个单元体
% %
%
%
%
%
%
μ A ( xi ) 越靠近 1 或 0,模糊性就越小; μ A ( xi ) 越远离 1 或 0,模糊性就越大。因此,一
个合理的推理是,最大模糊性应发生在 μ A ( xi ) = 1 2 处,此处 μ A ( xi ) 离 1 和 0 同样远。从而,
% % % %
模糊性测度的第 2 个性质是: (P2)当且仅当 μ = 1 2 , d ( μ ) 获得唯一的最大值。 性质 2 说明 μ ≠ 1 2 时的模糊性必小于 μ = 1 2 时的模糊性。我们直观地可以看到, μ 的 值离 1/2 越远,模糊性越小,由此得到性质 3: (P3)当 μ ≥ 1 2 时,若 μ < μ ,则 d ( μ ) ≥ d ( μ ) ;
%
%
处,且以最大值为对称点。
1
H s (P 1 )orH f ( μ i )
0
p
图 5.2.1
i
1/ 2
1
μi
or
H s ( p i ) ~ p i 及 H f ( μ i ) ~ μ i的 关 系 曲 线
式(5.13)和(5.15)有着实质上相同的形式,同时式(5.14)和式(5.16)也有着实质 上相同的形式。由此我们推断,如果 pi = μ A ( xi ) ,则由单个模糊事件产生的模糊信息量等效
%
于由对应的二元香农信息源产生的平均香农信息量;而且,由一个 N 元的模糊集产生的平均 信息量等效于 N 个独立的二元香农信息源产生的平均信息量。 单色图像的灰度级别可以用控制微细黑白点的密度的方法来等效,这可以说是上述模糊 信息和香农信息等效关系的有力例证。对此可详见参考文献[22](Xie and Bedrosian) 。
c
%
%
d ( μ ) = F [∑ ci f i ( μ A ( xi ))]
i =1 %
N
(5.1)
73
第五章 模糊不确定性和模糊信息
上式中, F 是非负的递增函数; ci 是正实数, i = 1, 2,L , N ;对所有的 i , f i 是实函数且
fi (0) = f i (1) = 0 , fi (1 2) 是 fi 唯一的最大值, fi 在 [0,1 2] 单递增,在 [1/ 2,1] 单递减,对 ∀μ ∈ [0,1] 有 fi ( μ ) = f i (1 − μ ) 。
如果我们能够借助于某些实验去除或减小上述模糊性,我们就可以说我们获得了信息。 我们假定,上述实验是对视觉网络的全部 N 个单元体的颜色(白或黑)进行决策。这种实验 能够完全去掉实验前在单元体中的不确定性,从而使得最终的图形的模糊性等于 0。很自然地 我们认为,在实验中我们获得了正比于(或等与,取决于所选择的单位)初始不确定性 d ( μ ) 的平均信息量。可以认为, d ( μ ) 也是关于图形颜色的平均信息量的测度——该信息量是从二 值图形 A 变为模糊图形 A 的过程中失去的。 当然,也可能在实验中只是部分地去除了“不确定性” ,通过实验我们把模糊图形 A 变为 新的模糊图形 A ,而且有
2. 模糊集的欧氏距离 在式(5.1)中,对 ∀i ,取
(5.4)
⎧ μ2 ⎪ ⎪ fi ( μ ) = ⎨ ⎪(1 − μ ) 2 ⎪ ⎩
并取 ci = 1 ,以及 F ( Z ) = Z 。我们得到
1 2
μ ∈ [0,)
1 μ = [ ,1] 2
(5.5)
1 2
2 ⎫2 ⎧N ⎤ d ( μ ) = ⎨∑ ⎡ μ ( x ) μ ( x ) − A1/ 2 i ⎦ ⎬ ⎣ A i % ⎩ i =1 % ⎭
相关文档
最新文档