自组织特征映射网络(SOM)课件

合集下载

自组织竞争神经网络SOM65页PPT

自组织竞争神经网络SOM65页PPT

40.5 -90
13
43 -90
14
43 -81
15
47.5 -81
16
42
-81
x2
x4
17
42 -80.5
18
43.5 -80.5
19
43.5
-75
20
48.5
-75
28
x5
训练 次数
1
W1
W2
18.43 -180
x3
2
-30.8 -180
3
7 -180
X3
00..770077
X4
00..3943297 X5


0.6 0.8

解:为作图方便,将上述模式转换成极坐标形式 :
X1136.89o X2180oX314.45X4170oX5153.13o
竞争层设两个权向量,随机初始化为单位向量:
cos XT Xi
X Xi
类1

类2


T


(b)基于余弦法的相似性测量
的夹角小于a,两类模式向量的
夹角大于a。余弦法适合模式向
量长度相同和模式特征只与向量
方向相关的相似性测量。
11
§4.2 竞争学习的概念与原理 竞争学习原理
竞争学习规则——Winner-Take-All
网络的输出神经元之间相互竞争以求被激活, 结果在每一时刻只有一个输出神经元被激活。 这个被激活的神经元称为竞争获胜神经元,而
其它神经元的状态被抑制,故称为Winner Take All。
12
1.向量归一化 首先将当前输入模式向量
X和竞争层中各神经元对应的内星向量Wj 全部进行归一化处理; (j=1,2,…,m)

自组织特征映射网络(SOM)课件

自组织特征映射网络(SOM)课件

人工神经网络自组织特征映射网络简介二〇一二年十二月目录:1. 由自组织竞争神经网络谈起2. 自组织特征映射网基本概念3. 自组织特征映射网拓扑结构4. 自组织特征映射网学习算法5. 自组织特征映射网的应用从自组织竞争神经网络谈起:此类网络是模拟生物神经系统“侧抑制”现象的一类人工神经网络。

自组织特征映射网是此类网络的主要类型之一。

在生物神经系统中,存在着一种“侧抑制”现象,即当一个神经细胞兴奋后,会对其周围的神经细胞产生抑制作用。

这种“侧抑制”使神经细胞之间呈现出竞争。

开始时可能多个细胞同时兴奋,但一个兴奋程度最强的神经细胞会逐渐抑制周围神经细胞,其结果使其周围神经细胞兴奋度减弱,从而兴奋度最高的细胞是这次竞争的“胜者”,而其他神经细胞在竞争中失败。

自组织竞争神经网络就是模拟上述生物神经系统功能的人工神经网络。

如右图所示,输出层各神经元之间都有双向连接线,各连接线被赋予相应的权值。

从而实现对生物网络神经元相互竞争和抑制现象的模拟。

x1x2x i ············自组织竞争神经网络通过对“侧抑制”现象的模拟,具备自组织功能,能无导师学习。

自组织功能无导师学习 自组织竞争神经网络的一大特点是:具有自组织功能,能够自适应地改变网络参数和结构,从而实现无导师学习。

自组织竞争网络无导师学习方式更类似于人类大脑神经网络的学习,大大拓宽了神经网络在模式识别和和分类上的应用。

无导师指导的分类称为聚类,由于无导师学习的训练样本中不含有期望输出,因此没有任何先验的知识。

特殊网络结构 自组织竞争网的无导师指导学习是通过其特殊的网络结构实现的。

自组织竞争网在结构上属于层次型网络,共同特点是都具有竞争层。

自组织竞争网络的竞争层,各神经元之间存在横向连接,各连接被赋予权值。

通过竞争学习规则,达到自组织,实现对输入样本的自动分类。

自组织竞争神经网络SOM

自组织竞争神经网络SOM
第四章 自组织竞争型神经网络
本章主要介绍自组织竞争型神经网络的结构 学习算法;及相关理论
1
第四章自组织竞争型神经网络
§4 1 前言 §4 2 竞争学习的概念和原理 §4 3自组织特征映射神经网络 §4 4自组织特征映射神经网络的设计 §4 5 对偶传播神经网络 §4 6小结
2
§4 1 前言
在生物神经系统中;存在着一种侧抑制现象;即一 个神经细胞兴奋以后;会对周围其他神经细胞产生 抑制作用 这种抑制作用会使神经细胞之间出现竞 争;其结果是某些获胜;而另一些则失败 表现形式 是获胜神经细胞兴奋;失败神经细胞抑制
在网络结构上;它一般是由输入层和竞争层构成的 两层网络 两层之间各神经元实现双向连接;而且网 络没有隐含层 有时竞争层各神经元之间还存在横 向连接
4
在学习算法上;它模拟生物神经元之间的兴奋 协调 与抑制 竞争作用的信息处理的动力学原理来指导 网络的学习与工作;而不像大多数神经网络那样是 以网络的误差或能量函数作为算法的准则
X1
0.8 0.6
X2
00.1.9783468
X3
00..770077
X4
00..3943297
X5
0.6 0.8
解:为作图方便;将上述模式转换成极坐标形式 :
X113.68o9X2180oX314.4 5X4170oX515.31o3
竞争层设两个权向量;随机初始化为单位向量:
W1(0)1010o W2(0)01118o0
7
24 -130
8
34 -130
w2
9
34 -100
10
44 -100
11
40.5 -100
12
40.5 -90

SOM1

SOM1

=20expτηηnn,然后按下式对邻域内的所有神经元进行权值修正:()()()()()()
nnnnnijjjjwxww−Λ+=+,1η;
(6)如果已形成稳定的特征映射,则结束学习;否则令1+=nn,转(2)。
(6.7)
于是神经元j权系数的调整公式简化为
()()()()()()nnnnnijjjjwxww−Λ+=+,1η
(6.8)
综上所述,SOFM的学习算法如下:
(1)权值初始化:可令各权矢量jw,lj,,2,1L=,初始值取小的各不相同的随机数,或干脆随机选择样本输入作为初始权值。令叠代次数1=n。(2)在样本集中随机选择一个模式x作为SOFM的输入;
最大等价于向量x和jw之间的距离jwx−最小,因此可根据该最小矩离准则确定最优匹配的神经元i,即寻找满足下式的神经元:
()jwxxБайду номын сангаас=j
iminarg,lj,,2,1L=
(6.1)
该式子即匹配规则。
上面式子说明:局部化区域的中心就是神经元()xi,该神经元的权系数向量iw与输入模式x产生最优匹配。(2)合作过程

()()jjwx∆wjjygyn−=η
(6.4)
其中()nη为时变的学习率,x为输入模式。()nη可取为
()

=20expτηηnn,L,2,1,0=n(6.5)
其中0η为()nη的初始值,2τ为指数衰减时间常数。为简单起见,如果令()
jyg和jy分别为
()()jjynygη=(6.6)
()nyijj,Λ=
每执行一次学习,SOFM网络中就会对外部输入模式执行一次自组织适应过程,其结果是强化现行模式的映射形态,弱化以往模式的映射形态。下面分别对自组织特征映射SOFM的学习算法两个过程进行介绍。(1)竞争过程

SOM神经网络

SOM神经网络

SOM神经网络第4章 SOM自组织特征映射神经网络生物学研究表明,在人脑的感觉通道上,神经元的组织原理是有序排列的。

当外界的特定时空信息输入时,大脑皮层的特定区域兴奋,而且类似的外界信息在对应的区域是连续映像的。

生物视网膜中有许多特定的细胞对特定的图形比较敏感,当视网膜中有若干个接收单元同时受特定模式刺激时,就使大脑皮层中的特定神经元开始兴奋,输入模式接近,与之对应的兴奋神经元也接近;在听觉通道上,神经元在结构排列上与频率的关系十分密切,对于某个频率,特定的神经元具有最大的响应,位置相邻的神经元具有相近的频率特征,而远离的神经元具有的频率特征差别也较大。

大脑皮层中神经元的这种响应特点不是先天安排好的,而是通过后天的学习自组织形成的。

据此芬兰Helsinki大学的Kohonen T.教授提出了一种自组织特征映射网络(Self-organizing feature Map,SOM),又称Kohonen网络[1-5]。

Kohonen认为,一个神经网络接受外界输入模式时,将会分为不同的对应区域,各区域对输入模式有不同的响应特征,而这个过程是自动完成的。

SOM网络正是根据这一看法提出的,其特点与人脑的自组织特性相类似。

4.1 竞争学习算法基础[6]4.1.1 自组织神经网络结构1.定义自组织神经网络是无导师学习网络。

它通过自动寻找样本中的内在规律和本质属性,自组织、自适应地改变网络参数与结构。

2.结构层次型结构,具有竞争层。

典型结构:输入层+竞争层。

如图4-1所示。

…竞争层…图4-1 自组织神经网络结构·输入层:接受外界信息,将输入模式向竞争层传递,起“观察”作用。

竞争层:负责对输入模式进行“分析比较”,寻找规律,并归类。

4.1.2 自组织神经网络的原理1.分类与输入模式的相似性分类是在类别知识等导师信号的指导下,将待识别的输入模式分配到各自的模式类中,无导师指导的分类称为聚类,聚类的目的是将相似的模式样本划归一类,而将不相似的分离开来,实现模式样本的类内相似性和类间分离性。

自组织特征映射神经网络(SOM)

自组织特征映射神经网络(SOM)

二、学习算法
1 算法 I: (i) 初始化:
- 各权矢量
W j 的确定
wji (0) ← Small random numbers(也可根据先验知识); , k ← 0; (ii) 输入 X(k) , 对 W 做下述操作: j c 求出 与 X(k) 最接近的权矢量 W , q 2 1/ 2 min{ W j − X (k ) = Wq − X (k ) = d q , ( X − Y = ( ∑ i ( xi − yi ) ) ) j d 定义单元 q 所在的邻域为 Nq (tk ), 将 Nq (tk ) 中各单元的权进行修改, 其它权值不变:
的改进使其与当前单元对应的权值修改次数有关随修改次数增加使关于算法的收敛性简述设可将输入样本集合划分为每个中有一个中心矢量聚类中心在物理上竞争学习算法competitivelearningcl典型的无教师学习unsupervisedlearning算法
CH.6
自组织特征映射神经网络
Neural Network
⎡P ⎢ 1,1 ⎢ P2,1 ⎢ P ⎢ ⎣ 3,1
共7396个训练矢量。 码本规模:N=512 用 SOM 网络进行矢量量化,实现图像数据压缩
(3) 学习算法
(取定 L、N) (i) 初始化: Wj (0) ← [0,255] 之间的随机数; (ii) 构造图像矢量样本集 { X(k) }, (iii) 输入 X(k), 由各 U j计算出 (iv) 由输出单元 U 在所有 out (v) (vi)
d1 U1

dj
Uj
Wj
… U N
dN
SOM
xn
dj
中,找出最小距离
(3) 于是令:
⎧1 , if j = q yj = ⎨ ⎩0 , if j ≠ q

自组织特征映射网络在探地雷达数据处理中的应用

自组织特征映射网络在探地雷达数据处理中的应用

自组织特征映射网络在探地雷达数据处理中的应用通过对神经网络原理的介绍,利用其可以训练分类的特性,通过对方波函数、理论模拟数据的试验,最后在野外实际采集剖面选取的区域进行了识别和分类,达到了反映在剖面上的不同区域地质体的判别和认定,满足数据处理的要求。

标签:探地雷达神经网络自组织特征映射1前言在探地雷达的数据处理中,通常采用的是类似地震数据处理中的一些手段和方法,比如去除零漂、增益处理、带通滤波、道均衡等等,这些方法均是对整个剖面进行操作的,而我们可以通过神经网络方法,对数据体中某几个区域进行选取,对比研究,以判断其存在的雷同性或者差异性,来达到分类的目的,用以不同深度和区域地质体的判别和认定。

2神经网络结构及算法2.1神经网络结构神经网络系统是用数学思维模拟人脑神经信息处理方式的一种人工智能网络,它是一个高度复杂的非线性动力学系统,由大量简单的神经元广泛相互连接而成。

神经元一般是一个多输入单输出的非线性器件,它是神经网络的基本处理单元,结构模型见图1所示。

神经网络因其具有大规模并行计算、容错性强、分布式存储及超强学习能力等优点,被广泛应用于诸多领域,并取得了引人注目的成果。

经过多年的发展,已经发展出感知器网络、BP网络、径向基网络、Hopfield 网络、自组织网络和LVQ网络等等。

在已知目标向量的情况下,可以采用由导师的训练方法,然后针对探地雷达数据的特点,这里没有采用BP神经网络等需要导师的网络进行训练学习,而采用了无需提供导师信号的神经网络——自组织神经网络。

2.2自组织特征映射神经网络算法自组织神经网络的无导师学习方式更类似于人类大脑认知过程,其最重要的特点是通过自动寻找样本中的内在规律和本质属性,自适应地改变网络参数与结构。

自组织神经网络又分为几个内容,自组织竞争网络、特征映射网络、共振理论模型等。

本文采用的自组织特征映射(SOM)神经网络,是由芬兰神经网络专家Kohonen于1981年提出的。

SOM自组织特征映射神经网络

SOM自组织特征映射神经网络

SOM⾃组织特征映射神经⽹络参考: ⽣物学研究表明,在⼈脑的感觉通道上,神经元的组织原理是有序排列的。

当外界的特定时空信息输⼊时,⼤脑⽪层的特定区域兴奋,⽽且类似的外界信息在对应的区域是连续映像的。

⽣物视⽹膜中有许多特定的细胞对特定的图形⽐较敏感,当视⽹膜中有若⼲个接收单元同时受特定模式刺激时,就使⼤脑⽪层中的特定神经元开始兴奋,输⼊模式接近,与之对应的兴奋神经元也接近;在听觉通道上,神经元在结构排列上与频率的关系⼗分密切,对于某个频率,特定的神经元具有最⼤的响应,位置相邻的神经元具有相近的频率特征,⽽远离的神经元具有的频率特征差别也较⼤。

⼤脑⽪层中神经元的这种响应特点不是先天安排好的,⽽是通过后天的学习⾃组织形成的。

据此芬兰Helsinki⼤学的Kohonen T.教授提出了⼀种⾃组织特征映射⽹络(Self-organizing feature Map,SOM),⼜称Kohonen⽹络[1-5]。

Kohonen认为,⼀个神经⽹络接受外界输⼊模式时,将会分为不同的对应区域,各区域对输⼊模式有不同的响应特征,⽽这个过程是⾃动完成的。

SOM⽹络正是根据这⼀看法提出的,其特点与⼈脑的⾃组织特性相类似。

⼀、竞争学习算法基础:1、⾃组织神经⽹络结构(1)定义 ⾃组织神经⽹络是⽆导师学习⽹络。

它通过⾃动寻找样本中的内在规律和本质属性,⾃组织、⾃适应地改变⽹络参数与结构。

(2)结构 层次型结构,具有竞争层。

典型结构:输⼊层+竞争层。

如图1所⽰。

a. 输⼊层:接受外界信息,将输⼊模式向竞争层传递,起“观察”作⽤。

b.竞争层:负责对输⼊模式进⾏“分析⽐较”,寻找规律,并归类。

⼆、⾃组织神经⽹络的原理1.分类与输⼊模式的相似性 分类是在类别知识等导师信号的指导下,将待识别的输⼊模式分配到各⾃的模式类中,⽆导师指导的分类称为聚类,聚类的⽬的是将相似的模式样本划归⼀类,⽽将不相似的分离开来,实现模式样本的类内相似性和类间分离性。

自组织特征映射神经网络

自组织特征映射神经网络

结合深度学习
1 2
深度自组织特征映射
将深度学习技术与自组织特征映射相结合,通过 逐层特征提取和抽象,提高分类精度和特征表达 能力。
卷积自组织特征映射
借鉴卷积神经网络的思想,设计卷积层和池化层, 对输入数据进行局部特征提取和空间信息的保留。
3
循环自组织特征映射
结合循环神经网络,实现序列数据的自组织特征 映射,解决序列分类和时间序列预测问题。
05 自组织特征映射神经网络 的发展趋势与未来展望
改进算法
优化学习率调整
通过动态调整学习率,提高神经网络的收敛速度和稳定性,减少 训练时间。
引入正则化技术
通过正则化技术,如L1、L2正则化,防止过拟合,提高模型的泛 化能力。
集成学习与多模型融合
将多个自组织特征映射神经网络集成在一起,通过多模型融合提高 分类性能。
跨领域应用拓展
01
02
03
图像识别
应用于图像分类、目标检 测等任务,提高图像处理 的自动化和智能化水平。
语音识别
应用于语音信号的特征提 取和分类,实现语音识别 系统的优化。
自然语言处理
应用于文本分类、情感分 析、机器翻译等任务,推 动自然语言处理技术的发 展。
06 自组织特征映射神经网络 与其他神经网络的比较
数据输入
卷积神经网络(CNN)特别适合处理图像等具有网格结构的数据,而SOM则适用于 各种类型的数据,包括图像、文本和数值数据。
拓扑结构
CNN的神经元排列具有固定的层次结构,而SOM的神经元可以形成任意拓扑结 构,这使得SOM在某些任务上具有更大的灵活性。
THANKS FOR WATCHING
感谢您的观看
特征提取
信息检索

智能信息处理自组织特征映射神经网络

智能信息处理自组织特征映射神经网络
2
定义优胜邻域 以获胜神经元为中心确定t时刻权值调
4 整域,一般初始邻域N较大,训练过 程中N伴随训练时间逐渐收缩。。.
结束检查 SOFM网训练不存在类似BP网中输出误
6 差概念,由于是非监督学习,训练何 时结束时以学习速率η(t)与否衰减 到0或某个预定正小数为条件,不满足 结束条件则回到环节(2)。.
02
网络构造
自组织特性映射网络拓扑构造
8
SOM拓扑构造
自组织特性映射网络拓扑构造分 为两层:输入层和输出层(竞争层)。
SOM拓扑构造不包括隐含层。
输入层为一维。竞争层可以是一 维、二维或多维。其中二维竞争层由 矩阵方式构成,二维竞争层应用最为 广泛。
SOM中有两种连接权值,一种 是神经元对外部输入反应连接权值, 此外一种是神经元之间特性权值, 它大小控制着神经元之间交互作用 强弱。
4
自组织特性映射网具 有很强抗干扰性
03
学习算法
自组织特性映射网学习算法
12
学习算法
自组织特性映射网络采用学习算法成为科霍恩算法, 与胜者为王算法相比,其重要辨别在于调整权向量与 侧克制方式不一样样。胜者为王算法调整是封杀式。 SOM网获胜神经元对其临近神经元影响是由近及远, 由兴奋逐渐转变为克制,因此其学习算法中不仅获胜 神经元自身要调整权向量,它周围神经元在其影响下 也要不一样样程度调整权向量。
自组织特性映射神经网络
1
目录
基本概念
拓扑构造
学习算法
发展应用
01
基本概念
自组织特性映射网络基本概念
4
概念提出
1981年,科霍恩(Kohonen)教授提出一种自组织特征映射网(Self-Organizing feature Map,简称SOM,又称Kohoen网)。科霍恩认为,一个生物神经网络在接受 外界输入模式时,将会分为不同的对应区域,各区域对输入模式具有不同的响应特 征,而且这个过程是自动完成的。以此为基础,科霍恩创建了SOM。

7.第8章--自组织竞争神经网络PPT

7.第8章--自组织竞争神经网络PPT
4
2.竞争神经网络的学习算法
Kohonen学习规则
竞争神经网络采用的Kohonen学习规则是从内星学习规则发展而来的。 阈值学习规则 在竞争型神经网络中,有可能某些神经元始终无法赢得竞争,其
初始值偏离所有样本向量,因此无论训练多久都无法成为获胜神经 元。这种神经元称为“死神经元”。
可以给很少获胜的神经元以较大的阈值,使其在输入向量与权值相 似性不太高的情况下也有可能获胜;而对那些经常获胜的神经元则 给以较小的阈值 。有效解决了“死神经元”问题。
(1)欧氏距离 d x 1 y 1 2 x 2 y 2 2 L x n y n 2
Z = dist(W,P) (2)boxdist函数用于求得的距离是向量个分量绝对差的最大值
d m a x x 1 y 1 ,x 2 y 2 ,L ,x n y n
(3)linkdist是newsom的默认距离函数
第8章 自组织竞争神经网络
编者
Outline
1.竞争神经网络 2.竞争神经网络的学习算法 3.自组织特征映射网络 4. SOM的学习算法 5.学习矢量量化网络 6.自组织竞争网络相关函数详解 7.自组织竞争神经网络应用实例
2
1.竞争神经网络
采用竞争学习的规则即可构成最简单的竞争神经网络,在此基础 上,还发展了形形色色的自组织网络。
7
4. SOM的学习算法
竞争网络与SOM网络的主要区别在于: ➢在竞争神经网络中不存在核心层之间的相互连接,在更新权值时 采用了胜者全得的方式,每次只更新获胜神经元对应的连接权值;
➢而在自组织映射网络中,每个神经元附近一定邻域内的神经元也 会得到更新,较远的神经元则不更新,从而使几何上相近的神经元 变得更相似。
>> pos = tritop(8,5);

自组织特征映射网络

自组织特征映射网络

自组织特征映射网络SOM 网络时芬兰学者Kohonen 与1981年提出的一种自组织竞争人工神经网络【49】,由输入层和输出层(竞争层)组成,典型结构如图【】所示。

输入层神经个数为m ,竞争层由a b ⨯个神经元组成的二维平面阵列,输入层与竞争层各神经元之间实现全连接。

在训练开始前,输出接点被赋予一个很小的随机权值。

输入样本后,使输出接点进行竞争,并调整获胜接点及其邻域内接点的权值。

训练完成时,输出层节点分布能够较好地保留数据在元空间中的拓扑分布状况。

1x 2x m x …SOM 网络的训练过程采用自组织竞争学习原则,其训练过程如下:(1) 网络初始化随机对m 个输入神经元到输出神经元的连接权值赋予较小的权值。

定义最大训练长度(通常定义一个合适的收敛准则比较困难,故多通过定义一个最大长度来作为训练结束的条件);(2) 确定最佳匹配单元从训练数据集中选取一个样本x ,计算样本与每个输出节点之间的欧氏距离(也可采用其他距离),选出与样本x 距离最近的输出节点,这个节点称为该输入样本的最佳匹配单元,记为m c ,并给出其邻接神经元集合:{}min c i ix m x m -=- (3) 权值的学习根据事先定义的领域函数确定处于最佳匹配单元邻域内的节点,调整BMU 及邻域内节点的权值:()()()()()()()1i i ci i w t w t t h t x t w t α+=+-其中,()i w t 代表第t 步的i 节点的权值;()t α为第t 步的学习率,为随时间逐渐下降的[0,1]区间上的函数;()ci h t 为邻域函数。

(4) 是否达到预先设定的要求如果未达到最大训练长度,则返回步骤(2)继续训练,否则训练结束。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

人工神经网络自组织特征映射网络简介二〇一二年十二月目录:1. 由自组织竞争神经网络谈起2. 自组织特征映射网基本概念3. 自组织特征映射网拓扑结构4. 自组织特征映射网学习算法5. 自组织特征映射网的应用从自组织竞争神经网络谈起:此类网络是模拟生物神经系统“侧抑制”现象的一类人工神经网络。

自组织特征映射网是此类网络的主要类型之一。

在生物神经系统中,存在着一种“侧抑制”现象,即当一个神经细胞兴奋后,会对其周围的神经细胞产生抑制作用。

这种“侧抑制”使神经细胞之间呈现出竞争。

开始时可能多个细胞同时兴奋,但一个兴奋程度最强的神经细胞会逐渐抑制周围神经细胞,其结果使其周围神经细胞兴奋度减弱,从而兴奋度最高的细胞是这次竞争的“胜者”,而其他神经细胞在竞争中失败。

自组织竞争神经网络就是模拟上述生物神经系统功能的人工神经网络。

如右图所示,输出层各神经元之间都有双向连接线,各连接线被赋予相应的权值。

从而实现对生物网络神经元相互竞争和抑制现象的模拟。

x1x2x i ············自组织竞争神经网络通过对“侧抑制”现象的模拟,具备自组织功能,能无导师学习。

自组织功能无导师学习 自组织竞争神经网络的一大特点是:具有自组织功能,能够自适应地改变网络参数和结构,从而实现无导师学习。

自组织竞争网络无导师学习方式更类似于人类大脑神经网络的学习,大大拓宽了神经网络在模式识别和和分类上的应用。

无导师指导的分类称为聚类,由于无导师学习的训练样本中不含有期望输出,因此没有任何先验的知识。

特殊网络结构 自组织竞争网的无导师指导学习是通过其特殊的网络结构实现的。

自组织竞争网在结构上属于层次型网络,共同特点是都具有竞争层。

自组织竞争网络的竞争层,各神经元之间存在横向连接,各连接被赋予权值。

通过竞争学习规则,达到自组织,实现对输入样本的自动分类。

特殊学习规则 竞争学习规则:竞争层神经元之间相互竞争以求被激活,结果在每一轮竞争中只有一个神经元被激活。

这个被激活的神经元称为“获胜神经元”,而其它神经元的状态被抑制。

然后获胜神经元及其附近神经元的对应权值将被调整以反映竞争结果。

主要的竞争学习规则有“胜者为王”和Kohonen规则等。

“胜者为王”只修改获胜神经元权值,Kohonen规则修改获胜神经元邻域内各神经元权值。

自组织竞争神经网络的主要类型包括:自组织特征映射网络、对偶传播神经网络、自适应共振理论网等。

自组织竞争神经网络自组织特征映射网络自适应共振理论对偶传播神经网络自组织特征映射网络•1981年,科霍恩(Kohonen)教授首先提出自组织特征映射网(SOM )。

SOM 的运行基于Kohonen 规则。

自适应共振理论•ART 是一种能自组织地产生对环境认识编码的神经网络理论模型。

•ART 来源于无意识推理学说的“协作-竞争网络交互模型”。

•ART 理论已提出了三种模型结构,即ART1,ART2,ART3。

•ART 理论可以用于语音、视觉、嗅觉和字符识别等领域。

对偶传播神经网络•对传网是三层结构的前向网(输入层、隐含层、输出层),形式上与BP 网类似,但工作机理不同。

隐含层采用无导师的竞争学习算法,输出层用采用有导师的学习算法。

•最突出的优点是将有监督和无监督的训练算法有机结合起来,从而提高训练效率。

目录:1. 由自组织竞争神经网络谈起2. 自组织特征映射网基本概念3. 自组织特征映射网拓扑结构4. 自组织特征映射网学习算法5. 自组织特征映射网的应用自组织特征映射网的前世今生:1981年由芬兰学者科霍恩首先提出,自提出以来取得快速发展,目前广泛应用多个领域。

概念提出 1981年,科霍恩(Kohonen)教授提出一种自组织特征映射网(Self-Organizing feature Map,简称SOM,又称Kohonen网)。

科霍恩认为,一个生物神经网络在接受外界输入模式时,将会分为不同的对应区域,各区域对输入模式具有不同的响应特征,而且这个过程是自动完成的。

以此为基础,科霍恩创建了SOM。

生物学基础 侧抑制现象:这种侧抑制使神经细胞之间呈现出竞争,一个兴奋程度最强的神经细胞对周围神经细胞有明显的抑制作用,其结果使其周围神经细胞兴奋度减弱,从而该神经网络是这次竞争的“胜者”,而其他神经细胞在竞争中失败。

生物神经网络接受外界的特定时空信息时,神经网络的特定区域兴奋,而且类似的外界信息在对应区域是连续映象的。

SOM经训练后,其竞争层神经元,功能类似的相互靠近,功能不同的相互较远,这与生物神经网络的组织构造非常类似。

发展应用 自提出以来,自组织特征映射网得到快速发展和改进,目前广泛应用于样本分类、排序和样本检测等方面,和工程、金融、医疗、军事等领域,并成为其他人工神经网络的基础。

自组织特征映射网的运行原理:SOM 网的运行分为训练和工作两个阶段进行。

在训练开始阶段,竞争层哪个位置的神经元将对哪类输入模式产生最大响应是不确定的。

当输入模式的类别改变时,二维平面的获胜神经元也会改变。

在获胜神经元周围的邻域内的所有神经元的权向量均向输入向量的方向作不同程度调整,调整力度依邻域内节点与获胜节点的远近而逐渐衰减。

网络通过自组织方式,用大量训练样本调整网络的权值,最后使输出层各神经元成为对特定模式类敏感的神经网络。

从而竞争层各神经元的连接权向量的空间分布能够正确反映输入模式的空间概率分布。

SOM网训练结束后,输出层各节点与输入模式类的特定关系就固定下来,因此可用作模式分类器。

当输入一个模式时,网络输出层代表该模式类的特定神经元将产生最大响应,将该输入自动归类。

当输入模式不属于网络训练时见过的任何模式时,SOM网将它归入最接近的模式类。

训练阶段工作阶段目录:1. 由自组织竞争神经网络谈起2. 自组织特征映射网基本概念3. 自组织特征映射网拓扑结构4. 自组织特征映射网学习算法5. 自组织特征映射网的应用自组织特征映射网络的拓扑结构分为两层:输入层和输出层(竞争层)。

… …… …(a)一维竞争层 (b)二维竞争层自组织特征映射网络的拓扑结构分为两层:输入层和输出层(竞争层)。

SOM 拓扑结构不包括隐含层。

输入层为一维。

竞争层可以是一维、二维或多维。

其中二维竞争层由矩阵方式构成,二维竞争层的应用最为广泛。

SOM 中有两种连接权值,一种是神经元对外部输入反应的连接权值,另外一种是神经元之间的特征权值,它的大小控制着神经元之间交互作用的强弱。

SOM拓扑结构自组织特征映射网以若干神经元同时反映分类结果,使得其具有很强的抗干扰特性。

SOM结构特点与其他网络的区别:它不是一个神经元或者一个神经元向量来反映分类结果,而是以若干神经元同时反映分类结果。

神经网络对学习模式的记忆不是一次性完成的,而是通过反复学习,将输入模式的统计特征“溶解”到各个连接权上的。

对SOM而言,一旦由于某种原因,某个神经元受到损害(在实际应用中,表现为连接权溢出、计算误差超限、硬件故障等)或者完全失效,剩下的神经元仍可以保证所对应的记忆信息不会消失。

自组织特征映射网具有很强的抗干扰特性SOM拓扑结构的优势目录:1. 由自组织竞争神经网络谈起2. 自组织特征映射网基本概念3. 自组织特征映射网拓扑结构4. 自组织特征映射网学习算法5. 自组织特征映射网的应用自组织特征映射网络采用的学习算法称为科霍恩算法,与自组织竞争网采用的胜者为王算法相比,其主要区别在于调整权向量与侧抑制的方式不同。

下面三种函数沿中心轴旋转后可形成类似帽子的空间曲面,按顺序分别称为墨西哥帽函数、大礼帽函数、厨师帽函数。

墨西哥帽函数与生物特点类似,但计算复杂影响训练的收敛性,实际中常用简化后的大礼帽函数和进一步简化的厨师帽函数。

以获胜神经元为中心设定一个邻域半径,该半径圈定的范围称为“优胜邻域”。

优胜邻域内神经元按其离开获胜神经元的距离远近不同程度的调整权值。

优胜邻域开始定的较大,但其随着训练次数的增加不断收缩,最终收缩到半径为零。

学习算法•自组织特征映射网络采用的学习算法称为科霍恩算法,与胜者为王算法相比,其主要区别在于调整权向量与侧抑制的方式不同。

胜者为王算法的调整是封杀似的。

SOM网的获胜神经元对其临近的神经元的影响是由近及远,由兴奋逐渐转变为抑制,因此其学习算法中不仅获胜神经元本身要调整权向量,它周围的神经元在其影响下也要程度不同的调整权向量。

科霍恩学习算法具体步骤:目录:1. 由自组织竞争神经网络谈起2. 自组织特征映射网基本概念3. 自组织特征映射网拓扑结构4. 自组织特征映射网学习算法5. 自组织特征映射网的应用自组织特征映射网络在Matlab中的主要函数:实例一:在Matlab中使用自组织特征映射网络。

二维自组织特征映射网Matlab程序输入向量图实例一(续):Matlab神经网络工具箱网络训练后权值效果图实例二:长江三角洲地区城市体系的职能分类。

在聚类分析中,聚类指标的选择直接影响到分类结果的准确性和可靠性。

指标的选取需要遵循以下几个原则:完备性、代表性、指标互补性。

长江三角洲城市职能分类指标的数据主要来源于《上海统计年鉴(2001)》、《浙江统计年鉴(2001)》、《江苏统计年鉴》。

第一步:建立城市职能分类的指标体系长江三角洲地区在我国是一个城市数目相对较多,城市化水平相对较高的地区。

在这一地区有全国的经济中心城市、地方经济中心城市和各类专门化城市。

这一地区城市体系职能结构的合理与否,直接影响着城市体系整体效益的发挥。

传统的城市职能分类方法往往需要监督学习,需要人工确定每一指标的权值,容易产生人为的主观性。

利用SOM 在模式识别和分类方面的优势可望提高分类判断的客观性。

工作意义城市职能分类指标体系(共28个指标)实例二(续):第二步:建立城市职能分类的SOM模型指标的数据处理:由于28项数据具有不同的单位和量纲,因而其数值的差异很大。

因此在指标确定之后,对指标数据进行标准化处理。

通常的标准化处理方法有:总和标准化、标准差标准化、极大值标准化、极差标准化。

在本模型中采用标准差标准化。

运用Matlab神经网络工具箱建立SOM模型,将长江三角洲各城市的28项指标导入SOM模型,作为网络的输入模式,即输入层的神经元数量为28个。

在竞争层神经元数量取决于需要分为几类,在不清楚分类数目的情况下,竞争层神经元个数从S=3开始,然后依次加1,直到6,分别进行学习。

在SOM模型中,选择网络训练的迭代次数最大为1000次,初始的学习率为0.5。

实例二(续):Self-Organizing Feature Mapping |21参考资料:《现代地理学中的数学方法》第三步:分析SOM 模型分类结果竞争层神经元为3时,上海单独一类,南京、无锡、杭州、苏州、宁波为一类,常州、南通、扬州、镇江、泰州、嘉兴、湖州、绍兴、舟山为一类。

相关文档
最新文档