SOM自组织映射学习汇报(PPT 38张)
合集下载
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
x5 x3 x1 w1
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
w2
x2
x4
训 练 次 数
W1
18.43 -30.8 7 -32 11 24 24 34 34 44 40.5 40.5 43 43 47.5 42 42 43.5 43.5 48.5
w2
x2
x4
训 练 次 数
W1
18.43 -30.8 7 -32 11 24 24 34 34 44 40.5 40.5 43 43 47.5 42 42 43.5 43.5 48.5
W2
-180 -180 -180 -180 -180 -180 -130 -130 -100 -100 -100 -90 -90 -81 -81 -81 -80.5 -80.5 -75 -75
SOM算法步骤
Step.1 输入向量 Step.2 网络初始化 把输入向量输入给输入 用随机数设源自文库输入层和 映射层之间权值的初始 层: Xi。 值:Wij。设定学习次数 T,相关邻域Ni(d)。 j
W2
-180 -180 -180 -180 -180 -180 -130 -130 -100 -100 -100 -90 -90 -81 -81 -81 -80.5 -80.5 -75 -75
x5 x3 x1 w2 w1
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
SOM算法是一个竞争-合作的过程。 1.竞争。对于输入模式,网络中的神经元计算他们各自 判别函数的值。这个判别函数对神经元之间的竞争提供基础, 具有判别函数最优值(在欧式距离中是最小值)的特定神经 元成为竞争的胜利者。 2.合作。获胜神经元的的相邻神经元的是合作的基础。 神经元决定兴奋神经元的拓扑邻域的空间位置,从而提供这 样的相邻神经元的合作的基础。 3.突出调节。最后的这个机制使神经元通过对他们突触 权值的调节以增加他们的关于该输入模式的判别的函数值。 所做的调节使获胜神经元对以后相似输入模式的响应增强了。
x5 x3 x1 w1 w2
d2= 1∠100° d1= 1∠104°
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
x2
x4
训 练 次 数
W1
18.43 -30.8 7 -32 11 24 24 34 34 44 40.5 40.5 43 43 47.5 42 42 43.5 43.5 48.5
x5 x3 w 1 x1
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
w2
x2
x4
•我学到了什么
•自组织神经网络 • SOM • An Improved Neural Architecture for Gaze Movement Control in Target Searching
x2
x4
训 练 次 数
W1
18.43 -30.8 7 -32 11 24 24 34 34 44 40.5 40.5 43 43 47.5 42 42 43.5 43.5 48.5
W2
-180 -180 -180 -180 -180 -180 -130 -130 -100 -100 -100 -90 -90 -81 -81 -81 -80.5 -80.5 -75 -75
x2
x4
训 练 次 数
W1
18.43 -30.8 7 -32 11 24 24 34 34 44 40.5 40.5 43 43 47.5 42 42 43.5 43.5 48.5
W2
-180 -180 -180 -180 -180 -180 -130 -130 -100 -100 -100 -90 -90 -81 -81 -81 -80.5 -80.5 -75 -75
W2
-180 -180 -180 -180 -180 -180 -130 -130 -100 -100 -100 -90 -90 -81 -81 -81 -80.5 -80.5 -75 -75
x5 x3 x1 w1 w2
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
•我下一步要做什么
SOM
SOM,Self-Organizing Feature Maps,自组织神经网 络,是一种无导师学习的网络,主要用来对于输入向量进 行区域分类。 SOM的算法思想: 某个输出节点能对某一类模式做出特别的反应以代表 该模式类。 输出层上相邻的节点能对实际模式分布中相近的模式 类做出特别的反应。 当某类数据模式输入时,对某以输出节点产生最大刺 激(获胜神经元),同时对获胜神经元节点周围的一些节 点产生较大的刺激。
学习规则:
1.向量归一化。首先将当前输入模式向量X和竞争层中各神 经元对应的向量Wj 全部进行归一化处理。 2.寻找获胜神经元。当网络得到一个输入模式向量时,竞争 层的所有神经元对应的权向量均与其进行相似性比较,并将 最相似的内权向量判为竞争获胜神经元。 3.网络输出与权值调整。 4.重新向量归一化。
竞争层
Wj权值
不同的输入归结到 1个神经元上,几 个输入就是一类, 实现了分类。
输入层
竞争学习: 网络的输出神经元之间相互竞争以求被 激活,结果在每一时刻只有一个输出神经元 被激活。这个被激活的神经元称为竞争获胜 神经元,而其它神经元的状态被抑制,称为 WTA(Winner-Take-All)。
x2
x4
训 练 次 数
W1
18.43 -30.8 7 -32 11 24 24 34 34 44 40.5 40.5 43 43 47.5 42 42 43.5 43.5 48.5
W2
-180 -180 -180 -180 -180 -180 -130 -130 -100 -100 -100 -90 -90 -81 -81 -81 -80.5 -80.5 -75 -75
SOM
网络中有两种链接权值,一种是神经元对外部输入反 应的连接权值,另外一种是神经元之间的特征权值。它的 大小控制着神经元之间交互作用的强弱。
SOM拓扑结构图
SOM算法是一种无导师的聚类法,他能将任意维输入模 在输出层映射成一维或者二维离散图形,并保持其拖布结构 不变,即在无导师的情况下,通过对输入模式的自组织学习, 在竞争层将分类结果表示出来。此外,网络通过对输入模式 的反复学习,可以使连接权值空间分布密度与输入模式的概 率分布趋于一致,即链接权向量空间分布能反应输入模式的 统计特征。
x5 x3 x1 w2 w1 x2 x4
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
训 练 次 数
W1
18.43 -30.8 7 -32 11 24 24 34 34 44 40.5 40.5 43 43 47.5 42 42 43.5 43.5 48.5
W2
-180 -180 -180 -180 -180 -180 -130 -130 -100 -100 -100 -90 -90 -81 -81 -81 -80.5 -80.5 -75 -75
x5 x3 x1 w1
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
W2
-180 -180 -180 -180 -180 -180 -130 -130 -100 -100 -100 -90 -90 -81 -81 -81 -80.5 -80.5 -75 -75
x5 x3 x1 w2 w1
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
九逸作品
•我学到了什么
•自组织神经网络 • SOM •An Improved Neural Architecture for Gaze Movement Control in Target Searching
•我下一步要做什么
自组织神经网络
自组织神经网络是一类无教师学习方式的神经网络 模型,它无需期望输出,知识根据数据样本进行学习, 并调整自身权重以达到学习的目的。自组织神经网络的 学习规则大都采用竞争型的学习规则。 竞争型神经网络的基本思想是网络竞争层的各神经 元通过竞争来获取对输入模式的响应机会。竞争结果会 存在获胜神经元,获胜神经元有关的各连接权值向着更 有利于其竞争的方向发展。
用竞争学习算法将下列各模式分为2类: 输入向量为:
学习率为a=0.5
向量归一化
设置两个权向量
竞争学习
X1学习 d1=||X1-W1(0)||=1∠36.89°, d2=||X1-W2(0)||=1∠216.89° d1<d2,所以神经元1获胜,W1调整 W1(1)=W1(0)+a(X1-W1(0))=1∠18.43 ° W2(1)=W2(0)=1∠-180 ° X2学习 d1=||X2-W1(1)||=1∠98.43 °, d2=||X2-W2(1)||=1∠100 ° d1<d2,所以神经元1获胜,W1调整 W1(2)=W1(1)+a(X2-W1(1))=1∠-30.8 ° W2(2)=W2(1)=1∠-180 °
x5 x3 x1 w2 w1 x2 x4
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
训 练 次 数
W1
18.43 -30.8 7 -32 11 24 24 34 34 44 40.5 40.5 43 43 47.5 42 42 43.5 43.5 48.5
训 练 次 数
W1
18.43 -30.8 7 -32 11 24 24 34 34 44 40.5 40.5 43 43 47.5 42 42 43.5 43.5 48.5
W2
-180 -180 -180 -180 -180 -180 -130 -130 -100 -100 -100 -90 -90 -81 -81 -81 -80.5 -80.5 -75 -75
W2
-180 -180 -180 -180 -180 -180 -130 -130 -100 -100 -100 -90 -90 -81 -81 -81 -80.5 -80.5 -75 -75
x5 x3 x1 w1
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
w2
x2
x4
训 练 次 数
W1
18.43 -30.8 7 -32 11 24 24 34 34 44 40.5 40.5 43 43 47.5 42 42 43.5 43.5 48.5
W2
-180 -180 -180 -180 -180 -180 -130 -130 -100 -100 -100 -90 -90 -81 -81 -81 -80.5 -80.5 -75 -75
x5 x3 x1 w2 w1
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
x2
x4
训 练 次 数
W1
18.43 -30.8 7 -32 11 24 24 34 34 44 40.5 40.5 43 43 47.5 42 42 43.5 43.5 48.5