图文并茂的 CNN 介绍 PPT

合集下载

深度学习-CNN卷积神经网络PPT课件

深度学习-CNN卷积神经网络PPT课件

1
0
8
Sparse Connectivity
这么做是有道理的,就是根据一些生物学的研究 我们的视觉感知细胞其实是局部感知的,比如我 们用很小的卷积核来提取整幅图像的布局边缘信 息,这时候采用全连接的意义并不大,不能学到 很好的图像特征信息,而且模型复杂度还很高。
上图中红色框里面的表示稀疏连接 上图中蓝色框里面表示非稀疏连接
上图就是max pooling导致的局部平移不变性,我们可以看到下面的卷积层的输入向右平移了 一个神经元,即输入层对应神经元的值都变了,可是上面的pooling层的值只有部分改变了。 这里只是对一个feature map做池化,其实对多个feature map做池化还可能解决旋转不变性的 问题。
14
17
Equivariant Representation
现在还只有一个思想没有讲,就是不变性,前面在池化的时候已经提到过,池化可以实现局部 平移不变性的效果,甚至可以通过变化实现旋转不变性。但是如果有大范围的平移怎么办那, 是否还存在平移不变性那。这里卷积层和全连接层就对平移不变性起到了很大的作用。
和传统的前馈神经网络类似,整个网络的模型有几种因素决定。我们传统的前馈神经网络 隐藏层一般是全连接的,而CNN的隐藏层又分为convolutional layer,pooling layer和最后的 fully-connected layer,这些隐藏层的区别是CNN之所以为CNN的重要原因,而另外各个神经 元激活函数的选择以及整个网络损失函数的选择都与FNN类似。下面我们主要讲解LeNet-5。
如图所示,一个卷积操作就是指卷积核和同样 大小的一个图像矩阵相乘,然后再向下或者向 右滑动卷积核,执行下一个卷积操作。这样用 卷积核在整个图像上面滑动一遍便生成了一个 卷积层。

CNN简单介绍及基础知识...

CNN简单介绍及基础知识...

CNN简单介绍及基础知识...文章目录一)卷积神经网络历史沿革二)CNN简单介绍三)CNN相关基础知识前言在过去的几年里,卷积神经网络(CNN)引起了人们的广泛关注,尤其是因为它彻底改变了计算机视觉领域,它是近年来深度学习能在计算机视觉领域取得突破性成果的基石。

它也逐渐在被其他诸如自然语言处理、推荐系统和语音识别等领域广泛使用。

在这里,主要从三个方面介绍CNN,(1)CNN历史发展(2)CNN简单介绍(3)CNN相关基础知识一、卷积神经网络历史沿革卷积神经网络的发展最早可以追溯到上世纪60年代,Hubel等人通过对猫视觉皮层细胞的研究,提出了感受野这个概念,到80年代,Fukushima在感受野概念的基础之上提出了神经认知机的概念,可以看作是卷积神经网络的第一个实现网络。

而后随着计算机软硬件技术的发展,尤其GPU,使得CNN快速发展,在2012年ImageNet大赛中CNN由于其高精确度脱颖而出,于是,深度学习正式进入人们的视野。

而后,R-CNN,FAST-CNN,Faster-cnn等快速发展,在深度学习领域大放异彩。

•1962年 Hubel和Wiesel卷积神经网络的发展,最早可以追溯到1962年,Hubel和Wiesel对猫大脑中的视觉系统的研究。

•1980年福岛邦彦1980年,日本科学家福岛邦彦在论文《Neocognitron: A self-organizing neuralnetwork model for a mechanism of patternrecognition unaffected by shift in position》提出了一个包含卷积层、池化层的神经网络结构。

•1998年 Yann Lecun1998年,在这个基础上,Yann Lecun在论文《Gradient-Based Learning Applied toDocument Recognition》中提出了LeNet-5,将BP算法应用到这个神经网络结构的训练上,就形成了当代卷积神经网络的雏形。

CNN(卷积神经网络) ppt课件

CNN(卷积神经网络)  ppt课件
为了处理一维序列数据,便有了循环神经网络,以及基于循环神经网络 优化而来的lstm,attention机制等.
目录
Contents
2. 卷积神经网络
2.1. 卷积神经网络和深度学习的历史 2.2. 卷积神经网络的设计和原理 2.3. 卷积神经网络的神经科学基础
CNN处理图像
卷积神经网络的计算效率提升,参数量:10^12 -> 10^6
卷积神经网络池化有最大池化(max_pool)和平均池化(avg_pool),顾名 思义,最大池化取区域内最大值,平均池化取区域内平均值.其它池化包 括L 2 范数以及依靠据中心像素距离的加权平均池化.
CNN池化过程
CNN 特性-池化
为什么要池化?
1.减少参数的量,提高计算效率. 2.最大池化能显著增强局部特征,平均池化可减少噪声.
深度学习以及卷积神经网络的适用需要大量的有效训练数据,过去的互联网时代为 深度学习提供了大量的训练数据,同时随着几十年来硬件技术的发展,为利用和计算 大量数据提供了条件.所以,近年来,每一次模型算法的更新,都取得了良好的效果, 为深度学习这把火炬增添了燃料.
卷积神经网络和深度学习的历史
卷积神经网络提供了一种方法来专业化神经网络,以处理具有清楚的网 络结构的数据,以及将这样的模型放大到非常大的尺寸(加深层数).这种方法 在二维图像拓扑上的应用是最成功的.同时,卷积神经网络比全连接网络计 算效率更高,使用他们运行多个实验并调整它们的实现和超参数更容易,更 大的网络也更容易训练.
CNN特性-权值共享和多卷积核
卷积神经网络之所以计算效率高,对特征提取的效果好,主要是由于卷 积神经网络具有以下三个特性:权值共享,多卷积核,池化.
权值共享
请在这里输入论文答辩

CNN简介

CNN简介

输入: 6*6 超参数: 池化过滤器尺寸:3*3 步长:3 输出: 2*2
0
0
0
10
10
10
重叠池化:有重合
10 10 10 0 0 10 10 10 0 0 10 10 10 0 0 0 0 0 10 10 0 0 0 10 10 0 0 0 10 10
输入: 6*6 超参数: 池化过滤器尺寸:3*3 步长:3 输出: 4*4
Softmax
yc ( z ) c c 1 c
1.多分类 2.正则项
e
c d 1
zc zd
e
Maxout
hi ( x) max zij
j[1, k ]
zij x Wij bij
T
out = max(z z1 = w1x + b1 z 2 = w 2 x + b 2 1 , z 2 , z3 , z 4 , z5 ) z 3 = w 3 x + b3 z 4 = w 4 x + b 4 z 5 = w 5 x + b5
55*55*96 3*3*96 27*27*96 11*11*3 5*5*96 27*27*256 3*3*25613*13*256 步长为2 步长为4 步长为1 步长为2 96个滤波器 96个滤波器 256个滤波器 256个滤波器
CONV3
(22711)/4+1=55
CONV4
16.4%
(55-3)/2+1=27 (27-5+2*2)/1+1=27
均值池化
10 10 10 0 0 10 10 10 0 0 10 10 10 0 0 0 0 0 10 10 0 0 0 10 10 0 0 0 10 10

图文并茂的 CNN 介绍 PPT

图文并茂的 CNN 介绍 PPT
Convolution Neural Network CNN ver. 4.11a 13
Architecture (exercise: write formulas for A1(i=4) and A2(k=3)
A1
P(j=1) P(j=2) P(j=9) P(j=1) P(j=2)
1 A 2 1 e (W2 (i 1,k 1) A1 ( k 1) W2 (i 2,k 1) A2 ( k 1)... b 2 ( k 1)) 1 e W1 ( j 1,i 1) P1 W1 ( j 2,i 1) P2 ... b1 (i 1)
图文并茂的 cnn介绍 ppt convolutionneural network cnn tutorialkh wong convolution neural network cnn ver. 4.11a verypopular: toolboxes:cuda-convnet caffe(user friendlier) highperformance classifier (multi- class) handwrittenoptical character ocr recognition, speech recognition, image noise removal etc. learningconvolution neural network cnn ver. 4.11a fullyconnected back propagation neural networks (bpnn) part1a: feed forward processing part1a: feed backward processing convolutionneural networks (cnn) part2a: feed forward part2b: feed backward cnnconvolution neural network cnn ver. 4.11a fullyconnected back propagation (bp) neural net convolution neural network cnn ver. 4.11a theoryfully connected back propagation neural net (bpnn) usemany samples weights,so unknowninput differentclasses aftertraining: forward pass biases(using forward backwardpasses) convolution neural network cnn ver. 4.11a (useforward, backward passes) iter=1:all_epocks (each forwardpass eachoutput neuron: usetraining samples: feedforward backward

图文并茂的 CNN 介绍 ppt

图文并茂的 CNN 介绍 ppt

• Easy to implementation Convolution Neural Network CNN ver. 4.11a
2
Overview of this note
• Part 1: Fully connected Back Propagation Neural Networks (BPNN)
xl2
xl3
f
(u)

1
1 eu
, theref ore
xl

f
(ul
)

1
1 e (W
l xl
bl
)
xlN
wl 2
Inputs
wl3
Convolution Neural Network CNN ver.
wl N
Output neurons 8
f(u) Sigmod function and its /SigmoidFunction.ht
• Initialize W and b randomly
• Iter=1: all_epocks (each is called an epcok)
– Forward pass for each output neuron:
• Use training samples: Xclass_t : feed forward to find y.
xl f (ul )with ul W l xl bl ,
• In side each neuron: such thatxl xl ,ul ul ,W l Wl ,bl bl
Typically f is a logistic (sigmod)function,i.e.

深度学习CNN卷积神经网络入门PPT课件

深度学习CNN卷积神经网络入门PPT课件

softmax
softmax直白来说就是将原来输出是3,1,-3通过softmax函数一作用,就映射成为 (0,1)的值,而这些值的累和为1
VGG刺猬特征图可视化
第一层卷积核学 到的图片特征
VGG刺猬特征图可视化
第一层特征图的细节比较清晰和输入图片较为相似,提取出了输入 图片的边缘。
VGG刺猬特征图可视化
结束语
当你尽了自己的最大努力时,失败也是伟大的, 所以不要放弃,坚持就是正确的。
When You Do Your Best, Failure Is Great, So Don'T Give Up, Stick To The End
感谢聆听
不足之处请大家批评指导
Please Criticize And Guide The Shortcomings
参数数目计算
C1有156个参数:(5*5+1)*6=156
S2有12个参数:因为S2中每个map中的每个点都与C1的四个点相连接进行池化,一般做完 池化操作比如取最大或平均,还要乘以一个数,再加一个bias,再非线性变换
C3有1516个参数:C3也是通过5*5的卷积核由14*14的map得到10*10的map,不过这里连接 方式有点复杂,共有(5*5*3+1)*6+(5*5*4+1)*9+(5*5*6+1)*1=1516个参数。
逻辑回归
过拟合与欠拟合
基础知识
过拟合与欠拟合
正则化
λ=1
λ=0
λ=100
过拟合与欠拟合解决方案
解决欠拟合(高偏差)的方法 1.增加神经网络的隐藏层数和隐藏单元数等 2.增加更多的特征 3.调整参数和超参数 超参数包括: 神经网络中:学习率、学习衰减率、隐藏层数、隐藏层的单元数、batch_size、正则化参数λ等 4.降低正则化约束

深度学习之神经网络(CNN-RNN-GAN)算法原理+实战课件PPT模板可编辑全文

深度学习之神经网络(CNN-RNN-GAN)算法原理+实战课件PPT模板可编辑全文
8-1图像生成文本问题引入入
8-5showandtell模型
8-2图像生成文本评测指标
8-4multi-modalrnn模型
8-6showattendandtell模型
8-10图像特征抽取(1)-文本描述文件解析
8-8图像生成文本模型对比与总结
8-9数据介绍,词表生成
8-7bottom-uptop-downattention模型
第6章图像风格转换
06
6-1卷积神经网络的应用
6-2卷积神经网络的能力
6-3图像风格转换v1算法
6-4vgg16预训练模型格式
6-5vgg16预训练模型读取函数封装
6-6vgg16模型搭建与载入类的封装
第6章图像风格转换
单击此处添加文本具体内容,简明扼要的阐述您的观点。根据需要可酌情增减文字,与类别封装
06
7-12数据集封装
第7章循环神经网络
7-13计算图输入定义
7-14计算图实现
7-15指标计算与梯度算子实现
7-18textcnn实现
7-17lstm单元内部结构实现
7-16训练流程实现
第7章循环神经网络
7-19循环神经网络总结
第8章图像生成文本
08
第8章图像生成文本
02
9-9文本生成图像text2img
03
9-10对抗生成网络总结
04
9-11dcgan实战引入
05
9-12数据生成器实现
06
第9章对抗神经网络
9-13dcgan生成器器实现
9-14dcgan判别器实现
9-15dcgan计算图构建实现与损失函数实现
9-16dcgan训练算子实现
9-17训练流程实现与效果展示9-14DCGAN判别器实现9-15DCGAN计算图构建实现与损失函数实现9-16DCGAN训练算子实现9-17训练流程实现与效果展示

[课件]卷积神经网络CNNPPT

[课件]卷积神经网络CNNPPT

23
1998年LeNet——数字/字符识别

LeNet-5
Feature

map
a set of units whose weighs are constrained to be identical.
24
1998年LeNet——数字/字符识别

例如:C3层参数个数
(3*6+4*9+6*1)*25
33
VGG Net (2014)
K. Simonyan, A. Zisserman. Very deep convolutional networks for large-scale image recognition. arXiv preprint arXiv:1409.1556, 2014
34
140948422014sparseinteractions有限连接kernel比输入小连接数少很多学习难度小计算复杂度低sparseinteractions有限稀疏连接局部连接连接数少很多计算复杂度低层级感受野生物启发parametersharing参数共享tiedweights进一步极大的缩减参数数量equivariantrepresentations等变性配合pooling可以获得平移不变性三个步骤卷积突触前激活net非线性激活detectorpoolinglayer的两种定义复杂定义简单定义pooling10定义没有需要学习的参数replacescertainlocationsummarystatisticnearbyoutputs种类maxpoolingweightedaveragepoolingwhypooling
30
AlexNet for ImageNet

深度的重要性

CNN(卷积神经网络) ppt课件

CNN(卷积神经网络)  ppt课件
Notes: 式1:
神经网络的结点计算
前向计算:
反向传播:
神经网络梯度传播(链式法则)
Notes:
目录
Contents
2. 卷积神经网络
2.1. 卷积神经网络和深度学习的历史 2.2. 卷积神经网络的设计和原理 2.3. 卷积神经网络的神经科学基础
卷积神经网络和深度学习的历史
卷积神经网络在深度学习的历史中发挥了重要作用.它们是将研究大脑获得的深 刻理解成功应用于机器学习应用的关键例子,也是第一个表现良好的深度模型之 一.是第一个解决重要商业应用的神经网络,并且仍然是当今深度学习应用的前沿.
目录
Contents
3. CNN实现(tensorflow)
3.1.主流CNN模型介绍 3.2.使用tensorflow实现CNN 3.3.使用tensorflow实现其它模型
使用tensorflow搭建CNN
TensorFlow™ 是一个采用数据流图,用于数值计算的开源软件库。节点 在图中表示数学操作,图中的线则表示在节点间相互联系的多维数据数组, 即张量(tensor)。
深度学习以及卷积神经网络的适用需要大量的有效训练数据,过去的互联网时代为 深度学习提供了大量的训练数据,同时随着几十年来硬件技术的发展,为利用和计算 大量数据提供了条件.所以,近年来,每一次模型算法的更新,都取得了良好的效果, 为深度学习这把火炬增添了燃料.
卷积神经网络和深度学习的历史
卷积神经网络提供了一种方法来专业化神经网络,以处理具有清楚的网 络结构的数据,以及将这样的模型放大到非常大的尺寸(加深层数).这种方法 在二维图像拓扑上的应用是最成功的.同时,卷积神经网络比全连接网络计 算效率更高,使用他们运行多个实验并调整它们的实现和超参数更容易,更 大的网络也更容易训练.

CNN特征可视化报告 ppt课件

CNN特征可视化报告  ppt课件

ppt课件
5
论文介绍
ppt课件
6
论文介绍
ppt课件
7
论文介绍
ppt课件
8
论文介绍
上面三张图显示的是layer1~layer5的部分节点通过反卷积过 程产生的可视化特征图。对于网络中的每个节点,展示了9张 在该节点上刺激最强的图片。左边显示的是通过反卷积得到的 可视化特征图,右边显示的是对应的原始图片。
卷积神经网络特征可视化报告
al Report
汇报人:龚志雄
ppt课件
1
论文介绍
首先介绍一篇可以视为CNN可视化开山之作的论文:Visualizing and Understanding Convolutional Networks。作者是Matthew D. Zeiler和Rob Fergus,于2014年发表在ECCV(欧洲计算机视觉国际会议)。通过反卷积可视 化等技术,作者改进了AlexNet的网络结构得到了ZFNet,使得识别率进一步提高。
ppt课件
4
论文介绍
矫正:在卷积网中,我们通过Relu激活函数来保证 所有输出都是非负数,这个约束对反卷积依然成立, 因此将unpooling得到的重构信号送进Relu函数中 计算,右下图显示的就是Relu函数的图像。 反卷积:反卷积使用已经训练好的卷积核的转置作 为核,与矫正后的特征图进行卷积运算。
通过观察上面三幅图片,我们至少可以得出两点结论: N特征提取具有层次化的特点,第一、二层响应物体的边 缘、轮廓、颜色信息,第三层捕获相似的纹理,第四、五层开 始体现类与类之间的差异。
2.每个节点只关注自己关注的特征,而对其他特征不予理会。 例如layer5的第一行第二列的九张图片,都只提取了背景中的 草地特征,而没有关注五花八门的前景特征。

图文并茂的 CNN 介绍ppt课件

图文并茂的 CNN 介绍ppt课件
Convolution Neural Network CNN
A tutorial KH Wong
Convolution Neural Network CNN ver. 4.11a
1
Introduction
• Very Popular:
– Toolboxes: cuda-convnet and caffe (user friendlier)
Typically f is a logistic (sigmod)function,i.e.
x l 1
xl2
xl3
f
(u)

1
1 eu
, theref ore
xl

f
(ul
)

1
1 e (W
l xl
bl
)
xlN
Inputs
wl 2
wl3
Convolution Neural Network CNN ver. 4.11a
– Backward pass:
• Find W and b to reduce Err. • Wnew=Wold+W; bnew=bold+b
Convolution Neural Network CNN ver. 4.11a 6
Part 1A
Forward pass of Back Propagation Neural Net (BPNN)
biases (using forward and backward passes)
Convolution Neural Network CNN ver. 4.11a
5
Training
• How to train it: how to train the weights (W) and biases (b) (use forward, backward passes)

深度学习基础1ppt课件

深度学习基础1ppt课件

精选ppt
8
浅层学习与深度学习
传统机器学习和信号处理技术探索仅含单层非线性变 换的浅层学习结构。浅层模型的一个共性是仅含单个 将原始输入信号转换到特定问题空间特征的简单结构。 典型的浅层学习结构包括传统隐马尔科夫模型(HMM)、 条件随机场(CRFs)、最大熵模型(Max Ent)、支持向量 机(SVM)、核回归及仅含单隐层的多层感知器(MLP)等。
精选ppt
பைடு நூலகம்14
深度学习的训练过程
自下而上的非监督学习:从底层开始,一层一层的往 顶层训练,分别得到各层参数。
采用无标签数据分层训练各层参数(可以看作是特征学习 的过程)。
自上而下的监督学习
基于第一步的得到的各层参数进一步调整整个多层模型的 参数,这一步是一个有监督的训练过程。
精选ppt
15
深度学习的几种常用模型
精选ppt
16
Convolutional Neural Networks(CNN)
精选ppt
17
Convolutional Neural Networks(CNN)
卷积神经网络是人工神经网络的一种,已成为当前语音分析和图像识别领 域的研究热点。它的权值共享网络结构使之更类似于生物神经网络,降低了网 络模型的复杂度,减少了权值的数量。该优点在网络的输入是多维图像时表现 的更为明显,使图像可以直接作为网络的输入,避免了传统识别算法中复杂的 特征提取和数据重建过程。卷积网络是为识别二维形状而特殊设计的一个多层 感知器,这种网络结构对平移、比例缩放、倾斜或者共他形式的变形具有高度 不变性。
Deep Learning
精选ppt
1
目录
深度学习简介 深度学习的训练方法 深度学习常用的几种模型和方法 Convolutional Neural Networks卷积神经网络 卷积神经网络(CNN)在脑机接口中的应用

CNN(卷积神经网络)

CNN(卷积神经网络)
训练策略:包括批量梯度下降、随机梯度下降、动量梯度下降等不同的策略适用于不 同的场景
优化方法:包括正则化、dropout、erly spping等可以有效防止过拟合和加快模型 收敛速度
超参数调整:通过调整学习率、优化方法等超参数可以优化模型的训练效果和性能。
正则化和过拟合处理
正则化:通过增加模型复杂度来防止过拟合 过拟合:模型在训练集上表现很好但在测试集上表现很差 解决方法:使用正则化技术如L1正则化、L2正则化等 优化方法:使用梯度下降、随机梯度下降等优化算法进行参数更新和模型优化
CNN的应用场景 和案例
图像分类和识别
应用场景:图像分类、目标检测、图像分割等 案例:人脸识别、自动驾驶、医学图像分析等 技术原理:卷积层、池化层、全连接层等 应用效果:提高图像识别准确率降低计算复杂度
目标检测和跟踪
目标检测:识别图像或视频中的物体如行人、车辆、动物等 目标跟踪:在视频中跟踪物体的运动轨迹如车辆跟踪、行人跟踪等 应用场景:安防监控、自动驾驶、智能交通、医学影像等领域 案例:人脸识别、车辆识别、行人跟踪等
图像生成和风格迁移
生成对抗网络(GN):用于生成逼真的图像如人脸、风景等 风格迁移:将一种图像的风格转移到另一种图像上如将梵高的《星夜》风格转移到一张风景照上 超分辨率重建:将低分辨率图像转换为高分辨率图像如将模糊的监控视频转换为清晰的图像 医学图像处理:用于医学图像的分割、检测和分类如肿瘤检测、病理图像分析等
● ***N通过卷积操作提取图像中的局部特征并通过池化操作降低特征的维度从而提高模型的效率和准确性。 ● ***N由多个卷积层、池化层、全连接层等组成可以自动学习图像中的特征表示。 ● N的定义
● 卷积神经网络(CNN)是一种深度学习模型主要用于图像处理和计算机视觉领域。 ***N通过卷积操作提取图像中 的局部特征并通过池化操作降低特征的维度从而提高模型的效率和准确性。 ***N由多个卷积层、池化层、全连接 层等组成可以自动学习图像中的特征表示。 ***N在图像分类、目标检测、语义分割等领域有着广泛的应用。
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

1
W1(j=1,i=1) W1(j=2,i=1) W1(j=9,i=1)
A1 Neuron i=1 A2 Bias=b1(i=1) A1(i=1) A5 A1(i=1)
W2(i=1,k=1) W2(i=2,k=1) W2(i=5,k=1) Neuron k=1 Bias=b2(k=1)
A2(k=2)
Convolution Neural Network CNN ver. 4.11a
3
Part 1
Fully Connected Back Propagation (BP) neural net
Convolution Neural Network CNN ver. 4.11a
4
Theory Fully connected Back Propagation Neural Net (BPNN)
Convolution Neural Network CNN
A tutorial KH Wong
Convolution Neural Network CNN ver. 4.11a
1
Introduction
• Very Popular:
– Toolboxes: cuda-convnet and caffe (user friendlier)
Convolution Neural Network CNN ver. 4.11a
1 , is t heparamterfor slope u 1 e
/chapter/10.1007%2F3-540-59497-3_175#page-1
9
A single neuron
Convolution Neural Network CNN ver. 4.11a 6
Part 1A
Forward pass of Back Propagation Neural Net (BPNN) Recall: Forward pass for each output neuron:
-Use training samples: Xclass_t : feed forward to find y. -Err=error_function(y-t)

f (u ) Hence 1 d u u df ( u ) df ( e ) 1 e ' f (u ) du d (1 e u ) du u u f ' (u ) e e (1 e u ) 2 (1 e u ) 2 1 e u f (u )1 f (u ) u u (1 e ) (1 e ) For simplicit y , paramterfor t he slope 1 f ' (u ) f (u )1 f (u )
Convolution Neural Network CNN ver. 4.11a 7
Feed forward of Back Propagation Neural Net (BPNN)
• In side each neuron: such thatx x , u u ,W
l l l l
x l f (u l ) with u l W l x l bl ,
• Use many samples to train the weights, so it can be used to classify an unknown input into different classes • Will explain
– How to use it after training: forward pass – How to train it: how to train the weights and biases (using forward and backward passes)
Convolution Neural Network CNN ver. 4.11a
5
Training
• How to train it: how to train the weights (W) and biases (b) (use forward, backward passes) • Initialize W and b randomly • Iter=1: all_epocks (each is called an epcok)
• A high performance Classifier (multi-class) • Successful in handwritten optical character OCR recognition, speech recognition, image noise removal etc. • Easy to implementation
Output neurons=3 neurons, indexed by k W2=5x3 b2=3x1

14
Answer (exercise: write values for A1(i=4) and A2(k=3)
• P=[ 0.7656 0.7344 0.9609 0.9961 0.9141 0.9063 0.0977 0.0938 0.0859] • W1=[ 0.2112 0.1540 -0.0687 -0.0289 0.0720 -0.1666 0.2938 -0.0169 -0.1127] • -b1= 0.1441 • %Find A1(i=4) • A1_i_is_4=1/(1+exp[-(W1*P+b1))] • =0.49
– Slow in learning – Fast in classification
Convolution Neural Network CNN ver. 4.11a 2
Overview of this note
• Part 1: Fully connected Back Propagation Neural Networks (BPNN)
l
W l , bl bl T ypicallyf is a logistic (sigmod) function,i.e. 1 , therefore u 1 e 1 x l f (u l ) (W l x l b l ) 1 e f (u )
x l 1
x l 2
N c 1 n Overallerror E N tkn yk 2 n 1 k 1
c 1 1 n n n n Errorfor each neuron: E tk yk t y n 2 k 1 2
2
2 2
2 s norm; tkn T hegiven true class of then th trainingsample
– Part 1A: feed forward processing – Part 1A: feed backward processing
• Part 2: Convolution neural networks (CNN)
– Part 2A: feed forward of CNN – Part 2B: feed backward of CNN
n yk T heoutputclass of then th trainingsample
at theouput of t hefeed forward net work
Convolution Neural Network CNN ver. 4.11a
12
Structure of a BP neural network
BPNN Forward pass
• Forward pass is to find output when an input is given. For example: • Assume we have used N=60,000 images to train a network to recognize c=10 numerals. • When an unknown image is input, the output neuron corresponds to the correct answer will give the highest output level.
xl f (ul ) with ul W l xl 1 bl

ul
f ul

xl
x l 1 inputs at layer l 1 x x, W l weights , w W
xl input at layerl
Convolution Neural Network CNN ver. 4.11a 10
Input image
10 output neurons for 0,1,2,..,9
Convolu. 4.11a 11
The criteria to train a network
• Is based on the overall error function • 2
W1(j=1,i=1) W1(j=2,i=1)
W2(i=1,k=1) A1(i=2) W2(i=2,k=1) W2(i=2,k=2)
P(j=3)
W1(j=3,i=4) : :
W2(i=5,k=3)
W1(j=9,i=5)
P(j=9) Input: P=9x1 Indexed by j
A1(i=5) Hidden layer =5 neurons, indexed by i W1=9x5 Convolution Neural Network CNN ver. 4.11a b1=5x1
x
l 3
xl N
wl 2
Inputs
相关文档
最新文档