卷积神经网络四种卷积类型
合集下载
相关主题
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
卷积神经网络四种卷积类型
使用内核大小为3,步长为1和填充的2D卷积
一般卷积
首先,我们需要就定义卷积层的一些参数达成一致。
卷积核大小(Kernel Size):卷积核定义了卷积的大小范围,二维卷积核最常见的就是 3*3 的卷积核。
步长(Stride):步长定义了当卷积核在图像上面进行卷积操作的时候,每次卷积跨越的长度。
在默认情况下,步长通常为 1,但我们也可以采用步长是 2 的下采样过程,类似于 MaxPooling 操作。
填充(Padding):卷积层采用一定数量的输入通道(I),并且设计特定数量的输出通道(O)。
每一层所需的参数可以通过 I*O*K 来进行计算,其中 K 等于卷积核的数量。
输入和输出管道(Input ">扩张的卷积
使用3内核进行2D卷积,扩展率为2且无填充
扩张的卷积为卷积层引入另一个参数,称为扩张率。
这定义了卷积核中值之间的间距。
扩张率为2的3x3内核与5x5内核具有相同的视野,而仅使用9个参数。
想象一下,获取一个5x5内核并删除每一个第二列和第二行(间隔删除),就是我们介绍的卷积。
这以相同的计算成本提供了更宽的视野。
扩张卷积在实时分割领域中特别受欢迎。
如果您需要广泛的视野并且无法承受多个卷积或更大的核,请使用它们。
转置卷积
(又称解卷积或分数跨度卷积)
有些消息来源使用名称deconvolution,这是不合适的,因为它不是解卷积。
为了使事情更糟,确实存在解卷积,但它们在深度学习领域并不常见。
实际的反卷积会使卷积过程恢复。
想象一下,将图像输入到单个卷积层中。
现在取出输出,将它扔进一个黑盒子里然后再出。