人工神经网络

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
• 输入层: 被记作第0层。该层负责接收来自 网络外部信息
x1
o1
x2
o2
…… xn
输入层
人工神经网络


隐藏层
… …… om
输出层
第30页
– 第j层: 第j-1层直接后继层(j>0),它直接接 收第j-1层输出。
– 输出层: 它是网络最终一层,含有该网络最大 层号,负责输出网络计算结果。
– 隐藏层: 除输入层和输出层以外其它各层叫隐 藏层。隐藏层不直接接收外界信号,也不直接 向外界发送信号
函数饱和值为0和1。 S形函数有很好增益控制
人工神经网络
第19页
4.S形函数
o a+b
c=a+b/2
(0,c)
net
a
人工神经网络
第20页
联接模式
人工神经网络
第21页
联接模式
• 层次(又称为“级”)划分,造成了神经 元之间三种不一样互连模式:
• 1、 层(级)内联接 • 层内联接又叫做区域内(Intra-field)联接
人工神经网络
第3页
人工神经网络概念
• 1) 一组处理单元(PE或AN); • 2) 处理单元激活状态(ai); • 3) 每个处理单元输出函数(fi); • 4) 处理单元之间联接模式; • 5) 传递规则(∑wijoi); • 6) 把处理单元输入及当前状态结合起来产生激
活值激活规则(Fi); • 7) 经过经验修改联接强度学习规则; • 8) 系统运行环境(样本集合)。
本集来说,误差不超出要求范围。
人工神经网络
第40页
Delta规则
Widrow和Hoff写法: Wij(t+1)=Wij(t)+α(yj- aj(t))oi(t) 也能够写成: Wij(t+1)=Wij(t)+∆ Wij(t) ∆ Wij(t)=αδjoi(t) δj=yj- aj(t) Grossberg写法为: ∆ Wij(t)=αai(t)(oj(t)-Wij(t)) 更普通Delta规则为: ∆ Wij(t)=g(ai(t),yj,oj(t),Wij(t))
第24页
网络分层结构
• 简单单级网
x1 x2 … xn
人工神经网络
w11 w1m
w2m … wn1
wnm 输入层
o1
o2
… om
输出层
第25页
简单单级网
– W=(wij) – 输出层第j个神经元网络输入记为netj: – netj=x1w1j+x2w2j+…+xnwnj – 其中, 1≤ j ≤ m。取 – NET=(net1,net2,…,netm) – NET=XW – O=F(NET)
人工神经网络
第9页
生物神经网
• 六个基础特征:
• 1)神经元及其联接;
• 2)神经元之间联接强度决定信号传递强弱;
• 3)神经元之间联接强度是能够随训练改变;
• 4)信号能够是起刺激作用,也能够是起抑制 作用;
• 5)一个神经元接收信号累积效果决定该神经 元状态;
• 6) 每个神经元能够有一个“阈值”。
人工神经网络
第35页
人工神经网络训练
人工神经网络
第36页
人工神经网络训练
• 人工神经网络最含有吸引力特点是它学习 能力。
• 1962年,Rosenblatt给出了人工神经网络 著名学习定理: 人工神经网络能够学会它 能够表示任何东西。
• 人工神经网络表示能力大大地限制了它学 习能力。
• 人工神经网络学习过程就是对它训练过程
• 抽取样本集合中蕴含统计特征, 并以神经 元之间联接权形式存于网络中。
人工神经网络
第38页
无导师学习
• Hebb学习律、竞争与协同(Competitive and Cooperative)学习、随机联接系统 (Randomly Connected Learning)等。
• Hebb算法[D. O. Hebb在1961年]关键:
– O(t+1)=F(NET(t+1))
• O(0)=0
• 考虑仅在t=0时加X情况。 • 稳定性判定
人工神经网络
第28页
x1 x2
…… xn
输入层
人工神经网络
多级网
o1
o2


隐藏层

……
om 输出层
第29页
• 层次划分
• 信号只被允许从较低层流向较高层。
• 层号确定层高低: 层号较小者,层次较低, 层号较大者,层次较高。
人工神经网络
第37页
无导师学习
• 无导师学习(Unsupervised Learning)与无 导师训练(Unsupervised Training)相对应
• 无导师训练方法不需要目标, 其训练集中 只含一些输入向量, 训练算法致力于修改 权矩阵, 以使网络对一个输入能够给出相 容输出, 即相同输入向量能够得到相同输 出向量。
人工神经网络
人工神经网络
第1页
主要内容
• 生物神经元 • 人工神经元 • 人工神经网络网络结构 • 人工神经网络训练
人工神经网络
第2页
什么是人工神经网络
• 人工神经网络(Artificial Neural Networks, 简记作ANN), 是对人类大脑系 统一阶特征一个描述。简单地讲, 它是一 个数学模型, 能够用电子线路来实现, 也 能够用计算机程序来模拟, 是人工智能研 究一个方法。
• 联接权: W=(w1,w2,…,wn)T
• 网络输入: net=∑xiwi
• 向量形式: net=XW
人工神经网络
第13页
激活函数(Activation Function)
• 激活函数——执行对该神经元所取得网络 输入变换,也能够称为激励函数、活化函 数: o=f(net)
• 1.线性函数(Liner Function) • f(net)=k*net+c o
W(h)
x1
o1
x2
o2
…… xn
输入层
人工神经网络


隐藏层
… …… om
输出层
第32页
多级网——h层网络
x1
o1
x2
o2
W(1)
W(2)
W(3)
W(h)
……



……
xn 输入层
隐藏层
om 输出层
人工神经网络
第33页
循环网
x1 x2
…… xn
输入层
人工神经网络
o1 o2


隐藏层

……
om 输出层
o
γ

θ
net

人工神经网络
第16页
3.阈值函数(Threshold Function) 阶跃函数
β
if net>θ
f(net)=
β、γ、θ均为-γ非负实数,θ为阈i值f net≤ θFra bibliotek二值形式:
1
if net>θ
f(net)=
双极形式: 0
if net≤ θ
1
if net>θ
f(net)=
-1
x1
o1
x2
o2
人工神经网络
……
xn 输入层


隐藏层
… …… om
输出层
第31页
• 约定 :
• 输出层层号为该网络层数: n层网络,或n级 网络。
• 第j-1层到第j层联接矩阵为第j层联接矩阵,
输出层对应矩阵叫输出层联接矩阵。今后,在
需要时候,普通咱们用W(j)表示第j层矩阵。
W(1)
W(2)
W(3)
人工神经网络
第4页
人工神经网络概念
• Simpson(1987年) • 人工神经网络是一个非线性有向图, 图中含
有能够经过改变权大小来存放模式加权边, 而且能够从不完整或未知输入找到模式。
人工神经网络
第5页
生物神经元模型
人工神经网络
第6页
神经元生物学解剖
人工神经网络
第7页
神经元模型
1 细胞体 细胞体是由很多分子形成综合体, 内部含有一
人工神经网络
第41页
if net≤ θ
人工神经网络
第17页
3.阈值函数(Threshold Function) 阶跃函数
o
β
0
θ
net

人工神经网络
第18页
4.S形函数
压缩函数(Squashing Function)和逻辑斯 特函数(Logistic Function)。
f(net)=a+b/(1+exp(-d*net)) a,b,d为常数。它饱和值为a和a+b。 最简单形式为: f(net)= 1/(1+exp(-d*net))
c net
o
人工神经网络
第14页
2.非线性斜面函数(Ramp Function)
γ f(net)= k*net

if net≥θ if |net|<θ if net≤-θ
γ>0为一常数, 被称为饱和值, 为该神经元最大 输出。
人工神经网络
第15页
2.非线性斜面函数(Ramp Function)
个细胞核、核糖体、原生质网状结构等, 它 是神经网络活动能量供给地, 并进行新陈代 谢等各种生化过程。 2 树突 细胞体伸延个别产生分支称为树突, 树突是接 收从其它神经元传入信息入口。
人工神经网络
第8页
神经元模型
3 轴突 细胞体突起最长外伸管状纤维称为轴突, 最长
可达1m以上。轴突是将神经元兴奋信息传 到其它神经元出口。 4 突触 一个神经元与另一个神经元之间相联络并进 行信息传送结构称为突触。 神经元是组成神经网络最基础单元(构件)。
• 当两个神经元同时处于激发状态时被加强, 不然被减弱。
• 数学表示式表示:
• Wij(t+1)=Wij(t)+αoi(t)oj(t)
人工神经网络
第39页
有导师学习
• 有导师学习(Supervised Learning)与有导师训练 (Supervised Training)相对应。
• 输入向量与其对应输出向量组成一个“训练对”。 • 有导师学习训练算法主要步骤包含: • 1) 从样本集合中取一个样本(Ai,Bi); • 2) 计算出网络实际输出O; • 3) 求D=Bi-O; • 4) 依据D调整权矩阵W; • 5) 对每个样本重复上述过程,直到对整个样
人工神经网络
第26页
单级横向反馈网
x1 x2 … xn
人工神经网络
w11 w1m w2m …wn1
输入层
o1
o2
… 输出层
V
om
第27页
单级横向反馈网
• V=(vij) • NET=XW+OV • O=F(NET) • 时间参数——神经元状态在主时钟控制下同时改
变 • 考虑X总加在网上情况
– NET(t+1)=X(t)W+O(t)V
或侧联接(Lateral)。 • 用来加强和完成层内神经元之间竞争 • 2. 循环联接 • 反馈信号。
人工神经网络
第22页
联接模式
• 3.层(级)间联接 • 层间(Inter-field)联接指不一样层中神经
元之间联接。这种联接用来实现层间信号 传递
人工神经网络
第23页
ANN网络结构
人工神经网络
人工神经网络
第10页
人工神经元
人工神经网络
第11页
人工神经元
• 人工神经元模型应该含有生物神经元六个 基础特征。
x1 w1
x2 w2 … xn wn
∑ net=XW
人工神经网络
第12页
人工神经元基础组成
x1 w1
x2 w2 … xn wn
∑ net=XW
• 人工神经元模拟生物神经元一阶特征。
• 输入: X=(x1,x2,…,xn)
第34页
循环网
• 假如将输出信号反馈到输入端,就可组成一个多层 循环网络。
• 输入原始信号被逐步地“加强”、被“修复”。 • 大脑短期记忆特征——看到东西不是一下子就从
脑海里消失。 • 稳定: 反馈信号会引发网络输出不停改变。咱们
希望这种改变逐步减小,而且最终能消失。当改 变最终消失时,网络到达了平衡状态。假如这种 改变不能消失,则称该网络是不稳定。
相关文档
最新文档