数据挖掘RNN算法讲课PPT课件

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

x1
w1
xn
wn
Σ
线性动态 系统
o 激励函数
Synaptic terminals
synapse dendrite
轴突末梢 突触 树突
Cell body
细胞体
Axon
轴突
树突dendrite
细胞体Cell body
突触synapse
轴突Axon
来自其它神经元 2021
5
神经元模型
x1
w1
xn
wn
net W T X
wi xi
o f (net)
Σ net = WTX
o=f(net) 激励函数
典型的激励函数(Activation Function): 线性函数,非线性斜面函数,阶跃函数, S型函数等。
x1
x2
w1
y
u w1x1 wN xN
y
•••
w2
θ
wn
xn
a if u
a
y 0 if u
先求 E3 对于W 的梯度:
当我们求 到:
对于W 的偏导时。注意
求和可得。
V W
U
其中: 依赖于 ,而 又依赖于 和W ,依赖关系 一直传递到 t = 0 的时刻。因此,当我们计算对于W 的偏 导数时,不能把 看作是常数项!
20
循环神经网络模型
随时间反向传播算法BPTT
(3)求 E 对于U 的梯度。情况与W 类似。 先求 E3 对于U 的梯度:
递归神经网络(RNN),是两种人工神经 网络的总称:
一种是时间递归神经网络(recurrent neural network);
一种是结构递归神经网络(recursive neural network);
吸收了HMM模型的有限序列关联的思想。 神经网络的隐藏层结构能够更好的表达有限的观察值背后的复杂分布。
2006
机器学习第一次浪潮: 浅层学习模型
(Shallow Learning)
Second Winter2o02f1NN
2011 2012
• DBN • CNN • RBM • RNN •…
2014
机器学习第二次浪潮 深度学习模型 (Deep Learning)
4
神经元模型
神经元是构成神经网络的最基本单元(构件), 因此, 首要任务是构造人工神经元模型。
7
2:从神经网络到深度学习
2021
8
神经网络
深度学习网络
相似之处:
模拟人脑的分层网络结构;
不同之处:
强调深度的重要性;
突出特征学习的重要性;(逐层抽象)
2021
训练机制;
9
为什么需要深度?
深层网络具有刻画复杂函数的能力
2021
10
3:循环神经网络(RNN)
2021
11
递归神经网络模型
递归神经网络
16
循环神经网络模型
随时间反向传播算法BPTT
BP回顾:定义损失函数 E 来表示输出 和真实标签y的误差,通过链式法则自顶向 下求得 E 对网络权重的偏导。沿梯度的反方向更新权重的值,直到 E 收敛。
BPTT的本质其实和BP很像,就是加上了时序演化。定义权重U,V,W。
定义损失函数:
我们将整个序列作为一次训练,所以需要对每个时刻的误差进行求和。
18
循环神经网络模型
随时间反向传播算法BPTT
目前的任务是求 E 对于U,V,W 的梯度。 定义E对于W 的梯度(U,V 同理):
(1)求 E 对于V 的梯度。 先求 E3 对于V 的梯度:
其中:
V W
U
求和可得。
19
循环神经网络模型
随Leabharlann Baidu间反向传播算法BPTT
(2)求 E 对于W 的梯度。注意,现在 情况开始变得复杂起来。
o
x
2021
6
神经网络一般形式
h1 w11
x1
wm1 wM1
v11 o1 vl1
vL1
xM
Input Layer
wmLw1L
wML hL
Hidden Layer
vLN oN
Output Layer
nethl
WT hl
X
wml xm hl f (nethl )
neton
VT on
H
vln hl on f (neton )
深度学习之循环神经网络 --RNN
王尚 管优
2021
目录
1:深度学习发展史 2:从神经网络到深度学习 3:循环神经网络基础
2021
2
1:深度学习发展史
2021
3
深度学习发展史
Hebb Rosenblatt Geoffrey Hinton
Learning model Perceptron Neural network
2021
x1
x2
• ••
www12n
o c
xn
net x1 w1 xN wN
o f (net) k net c
• Nonlinearity 非线性
• Parallel Processing 并行处理
• Input—Output Mapping 输入输出匹配
• Adaptivity 自适应性
12
递归神经网络模型
时序扩展
13
Recurrent Neural Network
RNN是一类扩展的人工神经网络,它是为了对序列数据进行建模而产生的。 针对对象:序列数据。例如文本,是字母和词汇的序列;语音,是音节的序列;
视频,是图像的序列;气象观测数据,股票交易数据等等,也都是序列数据。 核心思想:样本间存在顺序关系,每个样本和它之前的样本存在关联。通过神经
当我们求 到:
对于W 的偏导时。注意
求和可得。
V W
U
同样: 依赖于 ,而 又依赖于 和U 。 类似求W,当我们计算对于U 的偏导数时,也不 能把 看作是常数项!
21
循环神经网络模型
随时间反向传播算法BPTT
参数意义: Whv:输入层到隐含层的权重参数, Whh:隐含层到隐含层的权重参数, Woh:隐含层到输出层的权重参数, bh:隐含层的偏移量,bo输出层的偏移量, h0:起始状态的隐含层的输出,一般初始为0。
网络在时序上的展开,我们能够找到样本之间的序列相关性。
14
循环神经网络模型
激活函数
RNN常用的激活函数是tanh和sigmoid。
15
循环神经网络模型
softmax
Softmax函数是sigmoid函数的一个变种,通常我们将其用在多分类任务的输出层, 将输入转化成标签的概率。
本质就是将一个K维的任意实数向量压缩(映射)成另一个K维的实数向量,其中向量 中的每个元素取值都介于(0,1)之间。
of neurons
Back propagation
Geoffrey Hinton
Deep belief net
Science
Speech
Computer vision NLP
Speech ……
1949
1958
1986
First Winter of NN
• SVM • Boosting • Decision tree • KNN •…
相关文档
最新文档