卷积神经网络PPT课件
合集下载
相关主题
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
4
多层感知器
多层感知器的思路是,尽管原始数据是非线性可分的,但是可以通过某种方 法将其映射到一个线性可分的高维空间中,从而使用线性分类器完成分类。 图1中,从X到O这几层,正展示了多层感知器的一个典型结构,即输入层隐 层输出层。
5
输入层隐层
• 是全连接的网络,即每个输入节点都连接到所有的隐层节点上。更详细地 说,可以把输入层视为一个向量 x ,而隐层节点 j 有一个权值向 量 θj 以及偏置 bj ,激活函数使用 sigmoid 或 tanh ,那么这个隐层 节点的输出应该是
• 池化:在卷积神经网络中,没有必要一定就要对原图像做处理,而是可以 使用某种“压缩”方法,这就是池化,也就是每次将原图像卷积后,都通 过一个池化的过程,来减小图像的规模。
9
卷积神经网络的正向过程
• 卷积 • 下采样 • 光栅化 • 多层感知器预测。
10
卷积
• 考虑一个大小为5×5的图像,和一个3×3的卷积核。这里的卷积核共有 9个参数,记为 Θ =[θij]3×3
那么
• 其中,运算 w = u○v 表示 wi = uivi 。函数作用在向量或者矩阵上, 表示作用在其每个分量上。
8
卷积神经网络的三大优点
• 局部感受野
• 权值共享:在卷积神经网中,同一个卷积核内,所有的神经元的权值是相 同的,从而大大减少需要训练的参数。作为补充,在CNN中的每个隐层, 一般会有多个卷积核。
• f(x)=act( 3 θ(4 - i)(4 - j)Xij b )
i, j
11
卷积总结公式:
• 如果卷积层 c 中的一个卷积核j连接到输入图 X1, X2, ..., Xi ,且这
Θ 个卷积核的权重矩阵为 ,那么这个卷积核的输出为 j 这个输出矩阵大小为(m-p+1)(n-q+1).
7
核心!权值、偏置估计(结论如下,推导见“卷积神经网络全面 解析”)
• 残差定义:
假设有层 p, q, r ,分别有 l, m, n 个节点,
依序前者输出全连接到后者作为输入。t为标O签p ,y为输出,E为损失函数,
为p层输出向量,Φ表示激活函数,层 q 有权重矩阵 [Θq]m×l ,偏置
向量 [bq]m×1 ,层 r有权重矩阵 [Θr]n×m ,偏置向量 [br]n×1 。
18
光栅化层
• 从上一层传过来的残差为 • 重新整理成为一系列的矩阵即可,若上一层 Q 有 q 个池化核,则传播到
池化层的残差
19
池化层
• 对应池化过程中常用的两种池化方案,这里反传残差的时候也有两种上采 样方案:
• 最大池化:将1个点的残差直接拷贝到4个点上。均值池化:将1个点的残 差平均到4个点上。即传播到卷积层的残差
15
多层感知器预测
将光栅化后的向量连接到多层感知器
16
CNN参数更新
17
多层感知器层
• 残差定义 • 使用多层感知器的参数估计方法,得到其最低的一个隐层 s 的残差向量 • δs 。 • 现在需要将这个残差传播到光栅化层 r ,光栅化的时候并没有对向量的
值做修改,因此其激活函数为恒等函数,其导数为单位向量。
卷积神经网络初步解析
陈遥
1
2
单层感知器
• 感知器可谓是最早的人工神经网络。 • 单层感知器是一个具有一层神经元、采用阈值激活函数的前向网络。通过
对网络权值的训练,可以使感知器对一组输人矢量的响应达到元素为0或1 的目标输出,从而实现对输人矢量分类的目的。
3
单层感知器作用范围
• 感知器是一个简单的二类分类的线性分类模型,要求我们的样本是线性可 分的。
• 另外,还需要一系列的辅助方法,包括:conv2d(二维离散卷积,valid 和full模式),downsample(池化中需要的下采样,两种边界模式), upsample(池化中的上采样)等。
23
谢谢!
24
20
• 对权值和偏置的更新:
卷积层
• 其中,rot180 是将一个矩阵旋转180度; Oq'是连接到该卷积层前的池化 层的输出。
•
21
卷积层的残差反传?
22
整体思路
• 以层为单位,分别实现卷积层、池化层、光栅化层、MLP隐层、分类层这 五个层的类。其中每个类都有output和backpropagate这两个方法。
13
• 由于特征图的变长不一定是2的倍数,所以在边缘处理上也有两种方案: 忽略边缘。即将多出来的边缘直接省去。 保留边缘。即将特征图的变长用0填充为2的倍数,然后再池化。一般使用
这种方式。 • 对神经中枢 j 的输出 Oj ,使用池化函数 downsample ,池化后的结果
为
14
光栅化
• 图像经过池化下采样后,得到的是一系列的特征图,而多层感知器接受 的输入是一个向量。因此需要将这些特征图中的像素依次取出,排列成一 个向量。具体说,对特征图 X1, X2, ..., Xj ,光栅化后得到的向量
• 若输入层有 m 个节点,隐层有 n 个节点,那么 Θ = [θT] 为 n×m 的 矩阵,x 为长为 m 的向量,b 为长为 n 的向量,激活函数作用在向量的 每个分量上, f(x) 返回一个向量
6
隐层输出层
可以视为级联在隐层上的一个感知器。若为二分类,则常用 LogisticRegression;若为多分类,则常用Softmax Regression。
12
wk.baidu.com
下采样(池化)
• 下采样,即池化,目的是减小特征图,池化规模一般为2×2。常用的池化 方法有:
• 最大池化(Max Pooling):取4个点的最大值。这是最常用的池化方法。 • 均值池化(Mean Pooling):取4个点的均值。 • 高斯池化 • 可训练池化:训练函数 f ,接受4个点为输入,输出1个点。不常用。
多层感知器
多层感知器的思路是,尽管原始数据是非线性可分的,但是可以通过某种方 法将其映射到一个线性可分的高维空间中,从而使用线性分类器完成分类。 图1中,从X到O这几层,正展示了多层感知器的一个典型结构,即输入层隐 层输出层。
5
输入层隐层
• 是全连接的网络,即每个输入节点都连接到所有的隐层节点上。更详细地 说,可以把输入层视为一个向量 x ,而隐层节点 j 有一个权值向 量 θj 以及偏置 bj ,激活函数使用 sigmoid 或 tanh ,那么这个隐层 节点的输出应该是
• 池化:在卷积神经网络中,没有必要一定就要对原图像做处理,而是可以 使用某种“压缩”方法,这就是池化,也就是每次将原图像卷积后,都通 过一个池化的过程,来减小图像的规模。
9
卷积神经网络的正向过程
• 卷积 • 下采样 • 光栅化 • 多层感知器预测。
10
卷积
• 考虑一个大小为5×5的图像,和一个3×3的卷积核。这里的卷积核共有 9个参数,记为 Θ =[θij]3×3
那么
• 其中,运算 w = u○v 表示 wi = uivi 。函数作用在向量或者矩阵上, 表示作用在其每个分量上。
8
卷积神经网络的三大优点
• 局部感受野
• 权值共享:在卷积神经网中,同一个卷积核内,所有的神经元的权值是相 同的,从而大大减少需要训练的参数。作为补充,在CNN中的每个隐层, 一般会有多个卷积核。
• f(x)=act( 3 θ(4 - i)(4 - j)Xij b )
i, j
11
卷积总结公式:
• 如果卷积层 c 中的一个卷积核j连接到输入图 X1, X2, ..., Xi ,且这
Θ 个卷积核的权重矩阵为 ,那么这个卷积核的输出为 j 这个输出矩阵大小为(m-p+1)(n-q+1).
7
核心!权值、偏置估计(结论如下,推导见“卷积神经网络全面 解析”)
• 残差定义:
假设有层 p, q, r ,分别有 l, m, n 个节点,
依序前者输出全连接到后者作为输入。t为标O签p ,y为输出,E为损失函数,
为p层输出向量,Φ表示激活函数,层 q 有权重矩阵 [Θq]m×l ,偏置
向量 [bq]m×1 ,层 r有权重矩阵 [Θr]n×m ,偏置向量 [br]n×1 。
18
光栅化层
• 从上一层传过来的残差为 • 重新整理成为一系列的矩阵即可,若上一层 Q 有 q 个池化核,则传播到
池化层的残差
19
池化层
• 对应池化过程中常用的两种池化方案,这里反传残差的时候也有两种上采 样方案:
• 最大池化:将1个点的残差直接拷贝到4个点上。均值池化:将1个点的残 差平均到4个点上。即传播到卷积层的残差
15
多层感知器预测
将光栅化后的向量连接到多层感知器
16
CNN参数更新
17
多层感知器层
• 残差定义 • 使用多层感知器的参数估计方法,得到其最低的一个隐层 s 的残差向量 • δs 。 • 现在需要将这个残差传播到光栅化层 r ,光栅化的时候并没有对向量的
值做修改,因此其激活函数为恒等函数,其导数为单位向量。
卷积神经网络初步解析
陈遥
1
2
单层感知器
• 感知器可谓是最早的人工神经网络。 • 单层感知器是一个具有一层神经元、采用阈值激活函数的前向网络。通过
对网络权值的训练,可以使感知器对一组输人矢量的响应达到元素为0或1 的目标输出,从而实现对输人矢量分类的目的。
3
单层感知器作用范围
• 感知器是一个简单的二类分类的线性分类模型,要求我们的样本是线性可 分的。
• 另外,还需要一系列的辅助方法,包括:conv2d(二维离散卷积,valid 和full模式),downsample(池化中需要的下采样,两种边界模式), upsample(池化中的上采样)等。
23
谢谢!
24
20
• 对权值和偏置的更新:
卷积层
• 其中,rot180 是将一个矩阵旋转180度; Oq'是连接到该卷积层前的池化 层的输出。
•
21
卷积层的残差反传?
22
整体思路
• 以层为单位,分别实现卷积层、池化层、光栅化层、MLP隐层、分类层这 五个层的类。其中每个类都有output和backpropagate这两个方法。
13
• 由于特征图的变长不一定是2的倍数,所以在边缘处理上也有两种方案: 忽略边缘。即将多出来的边缘直接省去。 保留边缘。即将特征图的变长用0填充为2的倍数,然后再池化。一般使用
这种方式。 • 对神经中枢 j 的输出 Oj ,使用池化函数 downsample ,池化后的结果
为
14
光栅化
• 图像经过池化下采样后,得到的是一系列的特征图,而多层感知器接受 的输入是一个向量。因此需要将这些特征图中的像素依次取出,排列成一 个向量。具体说,对特征图 X1, X2, ..., Xj ,光栅化后得到的向量
• 若输入层有 m 个节点,隐层有 n 个节点,那么 Θ = [θT] 为 n×m 的 矩阵,x 为长为 m 的向量,b 为长为 n 的向量,激活函数作用在向量的 每个分量上, f(x) 返回一个向量
6
隐层输出层
可以视为级联在隐层上的一个感知器。若为二分类,则常用 LogisticRegression;若为多分类,则常用Softmax Regression。
12
wk.baidu.com
下采样(池化)
• 下采样,即池化,目的是减小特征图,池化规模一般为2×2。常用的池化 方法有:
• 最大池化(Max Pooling):取4个点的最大值。这是最常用的池化方法。 • 均值池化(Mean Pooling):取4个点的均值。 • 高斯池化 • 可训练池化:训练函数 f ,接受4个点为输入,输出1个点。不常用。