CNN(卷积神经网络) ppt课件
合集下载
深度学习与卷积神经网络基础理论与实例分析ppt课件
深度(Depth) 深度就是卷积操作中用到的滤波 器个数。这里对图片用了两个不 同的滤波器,从而产生了两个特 征映射。你可以认为这两个特征 映射也是堆叠的2d矩阵,所以这 里特征映射的“深度”就是2。
3.2 基本单元-----非线性(激励层)
3.卷积神经网络-CNN
激活函数一般用于卷积层和全连接层之后 激活函数是深度网络非线性的主要来源
4.3 TensorFlow基础-数据流图
4.TensorFlow的相关介绍
➢ 数据流图是描述有向图中的数值计算过程。有向图中的节点通常代表数学运算,但也可以表示数据的输入、输出 和读写等操作;有向图中的边表示节点之间的某种联系,它负责传输多维数据(Tensors)。图中这些tensors的flow 也就是TensorFlow的命名来源。
Step 3: 计算输出层的总误差 总误差=1/2 ∑ (Baidu Nhomakorabea标概率−输出概率)^2
Step 4: 反向传播算法计算误差相对于所有权重的梯度,并用梯度下降法更新所有的滤波器/权重和参数的值,以使
输出误差最小化。
wj
wj
w j
Etotal
其中wj是要更新的权重,α称为学习率,Etotal是总的误差
2.人脑视觉机理与特征表示
神经元的模型
分层处理信息
特征的分层表达
训练: during the training phase, a neural network is fed thousands of labeled images of various animals, learning to classify them
基于卷积神经网络的图像识别算法ppt课件
基于卷积神经网络的图像识别算法
指导老师:---汇 报 人:----
ppt课件.
1
图像分类概述 卷积神经网络原理 图像分类算法设计与实现
ppt课件.
2
图像分类目标
图像分类就是根据不同图像的特征,把图像按照内容的不同分成不同类别
Cat
Or Non-Cat ?
ppt课件.
3
方法选择
支持向量机(SVM)是比较经典的用于分类的机器学习方法,即使在样本 数量很少的情况下,也能得到相对好的结果,并且,由于最终分类器分类 超平面的确定,只与有限的几个“支持向量”有关,训练速度比较快。
ppt课件.
10
构建卷积神经网络
输入
每个卷积层之后都有一个ReLU层,最终总体的CNN网络结构,由一个输 入层和两个图上的结构,一个全连接层和一个Softmax层和输出层组成
ppt课件.
11
实验结果
Baidu Nhomakorabea
测试集来源 CIFAR-10 多源随机下载图片
测试集样本数 2000 100
准确率 89% 73%
K最近邻算法(KNN)是无监督的学习方法,无需预先进行标注,不需 要确定样本的类别,甚至无需知道所获得的数据可以分为几类。对于类 域有交叉或者重叠的分类任务更适合。
卷积神经网络(CNN)是一种多层感知机,对于图像来说,相邻像素的 相似度一般来说高于相隔很远的两个像素,卷积神经网络结构上的优越性, 使得它可以更关注相邻像素的关系,而对相隔一定距离的像素之间的连接 进行了限制。所以,卷积神经网络的这种结构,符合图像处理的要求,也 使卷积神经网络在处理图像分类问题上有天然的优越性
指导老师:---汇 报 人:----
ppt课件.
1
图像分类概述 卷积神经网络原理 图像分类算法设计与实现
ppt课件.
2
图像分类目标
图像分类就是根据不同图像的特征,把图像按照内容的不同分成不同类别
Cat
Or Non-Cat ?
ppt课件.
3
方法选择
支持向量机(SVM)是比较经典的用于分类的机器学习方法,即使在样本 数量很少的情况下,也能得到相对好的结果,并且,由于最终分类器分类 超平面的确定,只与有限的几个“支持向量”有关,训练速度比较快。
ppt课件.
10
构建卷积神经网络
输入
每个卷积层之后都有一个ReLU层,最终总体的CNN网络结构,由一个输 入层和两个图上的结构,一个全连接层和一个Softmax层和输出层组成
ppt课件.
11
实验结果
Baidu Nhomakorabea
测试集来源 CIFAR-10 多源随机下载图片
测试集样本数 2000 100
准确率 89% 73%
K最近邻算法(KNN)是无监督的学习方法,无需预先进行标注,不需 要确定样本的类别,甚至无需知道所获得的数据可以分为几类。对于类 域有交叉或者重叠的分类任务更适合。
卷积神经网络(CNN)是一种多层感知机,对于图像来说,相邻像素的 相似度一般来说高于相隔很远的两个像素,卷积神经网络结构上的优越性, 使得它可以更关注相邻像素的关系,而对相隔一定距离的像素之间的连接 进行了限制。所以,卷积神经网络的这种结构,符合图像处理的要求,也 使卷积神经网络在处理图像分类问题上有天然的优越性
卷积神经网络ppt课件
5
Convolutional Neural Networks
反向传播算法(Back Propagation)
反向传播算法是计算多层复合函数的所有变量的偏导数的利器,上面梯度下降的例子中就是求梯度, 简单的理解就是链式法则
根据链式法则,我们求e对a的偏导和e对d的偏导是如下所示:
可以看出,它们都求了e对c的偏导。对于权值动则数万的深度模型 中的神经网络,这样的冗余所导致的计算量是相当大的 BP算法则机智地避开了这种冗余,BP算法是反向(自上往下)来求偏 导的。
17
卷积层的训练
layer l-1
L-1
层
?
的
误
差
L-1
层 的
输 出
layer l
L
层 的 误 差
L
层 的 输 入
18
卷积层的误差传播
19
卷积层的误差传播
20
卷积层的误差传播
卷积操作 21
卷积层filter权重梯度的计算
22
卷积层filter权重梯度的计算
与误差传播类似,相当于l层 的误差项(sensitivity map)与 l-1层的输出项做卷积操作,得到卷积核 (filter)的梯度
6
Convolutional Neural Networks
梯度下降算法+反向传播算法
Convolutional Neural Networks
反向传播算法(Back Propagation)
反向传播算法是计算多层复合函数的所有变量的偏导数的利器,上面梯度下降的例子中就是求梯度, 简单的理解就是链式法则
根据链式法则,我们求e对a的偏导和e对d的偏导是如下所示:
可以看出,它们都求了e对c的偏导。对于权值动则数万的深度模型 中的神经网络,这样的冗余所导致的计算量是相当大的 BP算法则机智地避开了这种冗余,BP算法是反向(自上往下)来求偏 导的。
17
卷积层的训练
layer l-1
L-1
层
?
的
误
差
L-1
层 的
输 出
layer l
L
层 的 误 差
L
层 的 输 入
18
卷积层的误差传播
19
卷积层的误差传播
20
卷积层的误差传播
卷积操作 21
卷积层filter权重梯度的计算
22
卷积层filter权重梯度的计算
与误差传播类似,相当于l层 的误差项(sensitivity map)与 l-1层的输出项做卷积操作,得到卷积核 (filter)的梯度
6
Convolutional Neural Networks
梯度下降算法+反向传播算法
深度学习-CNN卷积神经网络PPT课件
11
Convolutional Layer
我们现在了解了卷积操作和稀疏连接以及权值共享的思想,由这些其实就可以产生卷积层 了。因为权值共享,即一个卷积核其实只能提取图像的一种特征,那想要提取图像的多种 特征,就需要多个卷积核,每一个卷积核产生一个feature map,如下图是LeNet-5,它的第 一个卷积层含有6的feature map,每一个feature map对应一个卷积核,也就对应提取了图像 的一种特征。这里注意最终的feature map并不是做完卷积后的结果,然后还要加一个非线 性激活的操作,一般用ReLU函数,这个过程一般叫做detector stage。
上述这些神经网络一个很重要的趋势就是deeper,其中ResNet的深度是AlexNet的20倍,是 VGGNet的8倍。随着深度的增加,网络能够更好的逼近非线性目标方程,并且能够学习到 更加有效的特征。当然这也增加了模型的复杂度,使得模型很难训练并且容易过拟合。所 以有很多方法被提出来用于解决CNNs的训练和过拟合问题。
1990年,LeCun发表了一篇奠定现在CNN结构的重要文章,他们构建了一个叫做LeNet-5的多 层前馈神经网络,并将其用于手写体识别。就像其他前馈神经网络,它也可以使用反向传播 算法来训练。它之所以有效,是因为它能从原始图像学习到有效的特征,几乎不用对图像进 行预处理。然而由于当时训练数据量的缺乏以及计算能力的不足,LeNet-5无法在复杂问题上 表现的很好,比如大规模图像分类以及视频分类处理。
深度学习CNN卷积神经网络入门PPT课件
20世纪80 年代提出了人工神经网络。
Lenet
1990年,LeCun发表了一篇奠定现在CNN结构的重要文章,他们构建了一个叫做LeNet-5的多 层前馈神经网络,并将其用于手写体识别。就像其他前馈神经网络,它也可以使用反向传播 算法来训练。它之所以有效,是因为它能从原始图像学习到有效的特征,几乎不用对图像进 行预处理。然而由于当时训练数据量的缺乏以及计算能力的不足,LeNet-5无法在复杂问题上 表现的很好,比如大规模图像分类以及视频分类处理。
VGG
VGG与Lenet均采用5+3结构,即5个卷积层用pooling分开,然后卷积层后接3个全连 接层。 Lenet每层只有一个卷积,而VGG每层有多个卷积 Lenet卷积核大小较大,VGG全部采用3*3大小的卷积,同时网络C引入了1*1卷积。
VGG16
2个3*3的卷积层连接,就达到了5*5的效果,3个3*3的卷积层连接,就达到了 7*7的效果。 用3个3*3卷积层代替7*7的卷积层可以有效的减少参数的数量。 网络C中,引入1*1卷积核进行非线性变换。
逻辑回归
过拟合与欠拟合
基础知识
过拟合与欠拟合
正则化
λ=1
λ=0
λ=100
过拟合与欠拟合解决方案
解决欠拟合(高偏差)的方法 1.增加神经网络的隐藏层数和隐藏单元数等 2.增加更多的特征 3.调整参数和超参数 超参数包括: 神经网络中:学习率、学习衰减率、隐藏层数、隐藏层的单元数、batch_size、正则化参数λ等 4.降低正则化约束
Lenet
1990年,LeCun发表了一篇奠定现在CNN结构的重要文章,他们构建了一个叫做LeNet-5的多 层前馈神经网络,并将其用于手写体识别。就像其他前馈神经网络,它也可以使用反向传播 算法来训练。它之所以有效,是因为它能从原始图像学习到有效的特征,几乎不用对图像进 行预处理。然而由于当时训练数据量的缺乏以及计算能力的不足,LeNet-5无法在复杂问题上 表现的很好,比如大规模图像分类以及视频分类处理。
VGG
VGG与Lenet均采用5+3结构,即5个卷积层用pooling分开,然后卷积层后接3个全连 接层。 Lenet每层只有一个卷积,而VGG每层有多个卷积 Lenet卷积核大小较大,VGG全部采用3*3大小的卷积,同时网络C引入了1*1卷积。
VGG16
2个3*3的卷积层连接,就达到了5*5的效果,3个3*3的卷积层连接,就达到了 7*7的效果。 用3个3*3卷积层代替7*7的卷积层可以有效的减少参数的数量。 网络C中,引入1*1卷积核进行非线性变换。
逻辑回归
过拟合与欠拟合
基础知识
过拟合与欠拟合
正则化
λ=1
λ=0
λ=100
过拟合与欠拟合解决方案
解决欠拟合(高偏差)的方法 1.增加神经网络的隐藏层数和隐藏单元数等 2.增加更多的特征 3.调整参数和超参数 超参数包括: 神经网络中:学习率、学习衰减率、隐藏层数、隐藏层的单元数、batch_size、正则化参数λ等 4.降低正则化约束
卷积神经网络PPT课件
• 如果卷积层 c 中的一个卷积核j连接到输入图 X1, X2, ..., Xi ,且这
Θ 个卷积核的权重矩阵为 ,那么这个卷积核的输出为 j 这个输出矩阵大小为(m-p+1)(n-q+1).
12
下采样(池化)
• 下采样,即池化,目的是减小特征图,池化规模一般为2×2。常用的池化 方法有:
• 最大池化(Max Pooling):取4个点的最大值。这是最常用的池化方法。 • 均值池化(Mean Pooling):取4个点的均值。 • 高斯池化 • 可训练池化:训练函数 f ,接受4个点为输入,输出1个点。不常用。
具体说对特征图x1x2xj光栅化后得到的向量15多层感知器预测将光栅化后的向量连接到多层感知器16cnn参数更新17多层感知器层光栅化的时候并没有对向量的值做修改因此其激活函数为恒等函数其导数为单位向量
卷积神经网络初步解析
陈遥
1
2
单层感知器
• 感知器可谓是最早的人工神经网络。 • 单层感知器是一个具有一层神经元、采用阈值激活函数的前向网络。通过
15
多层感知器预测
将光栅化后的向量连接到多层感知器
16
CNN参数更新
17
多层感知器层
• 残差定义 • 使用多层感知器的参数估计方法,得到其最低的一个隐层 s 的残差向量 • δs 。 • 现在需要将这个残差传播到光栅化层 r ,光栅化的时候并没有对向量的
Θ 个卷积核的权重矩阵为 ,那么这个卷积核的输出为 j 这个输出矩阵大小为(m-p+1)(n-q+1).
12
下采样(池化)
• 下采样,即池化,目的是减小特征图,池化规模一般为2×2。常用的池化 方法有:
• 最大池化(Max Pooling):取4个点的最大值。这是最常用的池化方法。 • 均值池化(Mean Pooling):取4个点的均值。 • 高斯池化 • 可训练池化:训练函数 f ,接受4个点为输入,输出1个点。不常用。
具体说对特征图x1x2xj光栅化后得到的向量15多层感知器预测将光栅化后的向量连接到多层感知器16cnn参数更新17多层感知器层光栅化的时候并没有对向量的值做修改因此其激活函数为恒等函数其导数为单位向量
卷积神经网络初步解析
陈遥
1
2
单层感知器
• 感知器可谓是最早的人工神经网络。 • 单层感知器是一个具有一层神经元、采用阈值激活函数的前向网络。通过
15
多层感知器预测
将光栅化后的向量连接到多层感知器
16
CNN参数更新
17
多层感知器层
• 残差定义 • 使用多层感知器的参数估计方法,得到其最低的一个隐层 s 的残差向量 • δs 。 • 现在需要将这个残差传播到光栅化层 r ,光栅化的时候并没有对向量的
卷积神经网络ppt课件
22
卷积层filter权重梯度的计算
与误差传播类似,相当于l层 的误差项(sensitivity map)与 l-1层的输出项做卷积操作,得到卷积核 (filter)的梯度
ppt课件.
6
Convolutional Neural Networks
梯度下降算法+反向传播算法
Βιβλιοθήκη Baidu
ppt课件.
7
Convolutional Neural Networks
ppt课件.
8
Convolutional Neural Networks
ppt课件.
9
Convolutional Neural Networks
Convolutional Neural Networks 卷积神经网络
ppt课件.
1
Contents
机器学习,神经网络,深度学习之间的关系 什么是神经网络 梯度下降算法 反向传播算法 神经网络的训练 什么是卷积 什么是池化 LeNet-5 其它的工作
ppt课件.
2
Convolutional Neural Networks
ppt课件.
17
卷积层的训练
layer l-1
L-1
层
?
的
误
差
L-1
层 的
输 出
layer l
深度学习史上最详细的卷积循环神经网络 PPT
对于每个2*2的窗口选出最大的数作为输出矩阵的相应元素的值,
比如输入矩阵第一个2*2窗口中最大的数是6,那么输出矩阵的第一
个元素就是6,如此类推。
大家好
14
卷积神经网络(CNN)介绍
池化过程
大家好
15
卷积神经网络(CNN)介绍
池化过程
大家好
16
卷积神经网络(CNN)介绍
全连接层
两层之间所有神经元都有权重连接,通常全连接层在卷积神经网络尾部。 也就是跟传统的神经网络神经元的连接方式是一样的:
深度学习二
卷积神经网络
讲解人:
导 师:
大家好
1
内容
• 卷积神经网络(CNN)介绍 • LeNet5模型的介绍 • 分析 LeNet5模型相关代码 • LeNet5 模型的训练代码 • 实验结果
大家好
2
卷积神经网络的层级结构
•数据输入层/ Input layer
•卷积计算层/ CONV layer
当抓取到足以用来识别图片的特征后,接下来的就是如何进行分类。 全连接层 (也叫前馈层)就可以用来将最后的输出映射到线性可分的空间。 通常卷积网络 的最后会将末端得到的长方体平摊(flatten)成一个长长的向量,并送入全连接层 配合输出层进行分类。
大家好
17
卷积神经网络(CNN)介绍
大家好
卷积神经网络(纯净版)PPT课件
5. C5层是一个卷积层,有120个特征图。每个单元与S4层的全部16个单元的5*5邻域 相连,故C5特征图的大小为1*1:这构成了S4和C5之间的全连接。之所以仍将C5 标示为卷积层而非全连接层,是因为如果LeNet-5的输入变大,而其他的保持不 变,那么此时特征图的维数就会比1*1大。C5层有48120个可训练连接。
23
计
池化层的误差传递
大部分池化层没有需要训练的参数,只需要将误差传递。以Max Pooling为例
Layer l-1
Layer l
6. F6层有84个单元(之所以选这个数字的原因来自于输出层的设计),与C5层 全相连。有10164个可训练参数。如同经典神经网络,F6层计算输入向量 和权重向量之间的点积,再加上一个偏置。然后将其传递给sigmoid函数产 生节点的输出。
16
计
LetNet-5
比特面编码:将一个灰度图像为8 bit/像素中每个像素的第j个比特抽取出来,就得到一个称为比特平面的二值 图像,于是图像完全可以用一组共8个比特平面来表示,对灰度图像的编码转为对比特平面的二值化方块编码。 为此,将每个比特面分为不重叠的m×n个元素的子块。
• 神经元:
,
• 每个连接都有一个权值
4
图1.一个全连接的神经网络
计
Convolutional Neural Networks
相关主题
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
CNN 特性-局部平移不变性
为什么最大池化能做到? 上图下半部分的输入像素向右平移一个单位,下图对应位置像
素值全部改变,若对输入像素做池化处理,当原始像素平移一个 单位后,只有一半的像素值改变.
CNN 特性-局部平移不变性
学习不变性的示例。使用分离的参数学得多个特征,再使用池化单元进行 池化,可以学得对输入的某些变换的不变性。这里我们展示了用三个学得 的过滤器(卷积核)和一个最大池化单元可以学得对旋转变换的不变性。这 三个过滤器都旨在检测手写的数字 5。每个卷积核尝试匹配稍微不同方向 的 5。当输入中出现 5 时,相应的卷积核会匹配它并且在探测单元(激活函 数)中引起大的激活。然后,无论哪个探测单元被激活,最大池化单元都具有 大的激活。我们在这里展示网络如何处理两个不同的输入,导致两个不同 的探测单元被激活。然而对池化单元的影响大致相同。空间位置上的最 大池化对于平移是天然不变的;这种多通道方法在学习其他变换时是必要 的。
(最大池化提取轮廓特征,平均池化可模糊图像) 3.提高局部平移不变性.(不考虑空间,时间位置.-张民)
局部平移不变性是一个很重要的性质,尤其是当我们关心某个特 征是否出现而不关心它出现的具体位置时,这对于图像中的目标检 测至关重要,同时,在图像识别中,同一类别的图像往往会有细微 的差别,局部平移不变性大大提高了图像分类的准确度.
为了处理一维序列数据,便有了循环神经网络,以及基于循环神经网络 优化而来的lstm,attention机制等.
目录
Contents
2. 卷积神经网络
2.1. 卷积神经网络和深度学习的历史 2.2. 卷积神经网络的设计和原理 2.3. 卷积神经网络的神经科学基础
CNN处理图像
卷积神经网络的计算效率提升,参数量:10^12 -> 10^6
请在这里输入论文答辩
2016-08-
CNN中基于权值共享的多卷积核算法
卷积的矩阵转换
感受野和卷积核是卷积运算的一种特殊设定和直观表示ຫໍສະໝຸດ Baidu卷积核和 感受野之间的卷积运算使用向量矩阵的形式实现,提高了计算效率.
请在这里输入论文答辩
2016-08-
卷积的矩阵运算形式(im2txt)
CNN 特性-池化
CNN特性-权值共享和多卷积核
卷积神经网络之所以计算效率高,对特征提取的效果好,主要是由于卷 积神经网络具有以下三个特性:权值共享,多卷积核,池化.
权值共享
请在这里输入论文答辩
多通道多卷积核
2016-08-
CNN多通道和多卷积核
CS231N http://cs231n.github.io/convolutional-networks/
卷积神经网络池化有最大池化(max_pool)和平均池化(avg_pool),顾名 思义,最大池化取区域内最大值,平均池化取区域内平均值.其它池化包 括L 2 范数以及依靠据中心像素距离的加权平均池化.
CNN池化过程
CNN 特性-池化
为什么要池化?
1.减少参数的量,提高计算效率. 2.最大池化能显著增强局部特征,平均池化可减少噪声.
CNN处理图像
边缘检测的效率。右边的图像是通过获得原始图像中的每个像素并减去左边相邻 像素的值而形成的。这对目标检测是有用的操作。两个图像都是 280 像素的高 度。输入图像宽 320 像素,而输出图像宽 319 像素。这个变换可以通过包含两个 元素的卷积核来描述,并且需要 319 × 280 × 3 = 267, 960 个浮点运算(每个输出 像素需要两次乘法和一次加法)。不使用卷积,需要 320 × 280 × 319 × 280 个 或者说超过 80 亿个元素的矩阵,这使得卷积对于表示这种变换更有效 40 亿倍。 直接运行矩阵乘法的算法将执行超过 160 亿个浮点运算,这使得卷积在计算上大 约有 60,000 倍的效率。将小的局部区域上的相同线性变换应用到整个输入上,卷 积是描述这种变换的极其有效的方法。照片来源:Paula Goodfellow。
Notes: 式1:
神经网络的结点计算
前向计算:
反向传播:
神经网络梯度传播(链式法则)
Notes:
目录
Contents
2. 卷积神经网络
2.1. 卷积神经网络和深度学习的历史 2.2. 卷积神经网络的设计和原理 2.3. 卷积神经网络的神经科学基础
卷积神经网络和深度学习的历史
卷积神经网络在深度学习的历史中发挥了重要作用.它们是将研究大脑获得的深 刻理解成功应用于机器学习应用的关键例子,也是第一个表现良好的深度模型之 一.是第一个解决重要商业应用的神经网络,并且仍然是当今深度学习应用的前沿.
深度学习以及卷积神经网络的适用需要大量的有效训练数据,过去的互联网时代为 深度学习提供了大量的训练数据,同时随着几十年来硬件技术的发展,为利用和计算 大量数据提供了条件.所以,近年来,每一次模型算法的更新,都取得了良好的效果, 为深度学习这把火炬增添了燃料.
卷积神经网络和深度学习的历史
卷积神经网络提供了一种方法来专业化神经网络,以处理具有清楚的网 络结构的数据,以及将这样的模型放大到非常大的尺寸(加深层数).这种方法 在二维图像拓扑上的应用是最成功的.同时,卷积神经网络比全连接网络计 算效率更高,使用他们运行多个实验并调整它们的实现和超参数更容易,更 大的网络也更容易训练.
在20世纪90年代,AT&T的神经网络研究小组开发了一个用于读取支票的卷积神 经网络,到90年代末,NEC部署的这个系统用于读取美国所有支票的10%.后来,微 软部署了若干个基于卷积神经网络的OCR和手写识别系统(MNIST).
卷积神经网络也被用来赢得许多比赛.当前对深度学习的商业热潮始于2012年,当 时Alex Krizhevsky使用新型卷积神经网络(AlexNet)赢得了当年的ImageNet大赛第一名, TOP-5分类错误率比第二名小约10%,引起轰动.
解析:(x,y)是给定的带标签数据,通常,x为特征,y为标签,固定不变.W为权重(网络 参数),随机初始化(正态分布),且随时变化.一次前向计算过程,通过score function, 得到预测结果,与标签数据对比,计算loss值,通常,loss是规则化项(redularization loss) 和均方差项(data loss)的加权和(见式1),其目的是减小权重的幅度,防止过度拟合.在反向 计算时,使用均方差项更新权重.
卷积神经网络(CNN)
汇报人:吴建宝 2017.06.12
目录
Contents
1. 神经网络计算 2. 卷积神经网络 3. CNN实现(tensorflow)
目录
Contents
1. 神经网络计算
1.1.神经网络信息流动 1.2.神经网络结点计算 1.3.神经网络梯度传播(链式法则)
神经网络信息流动