深度学习的常用模型和方法
合集下载
相关主题
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
卷积网络是为识别二维形状而特殊设计的一个多层感知器, 这种网络结构对平移、比例缩放、倾斜或者共他形式的变形具 有高度不变性。
2.3 卷积神经网络(CNN)
卷积神经网络的结构与特点:
BP神经网络
2.3 卷积神经网络(CNN)
LeNet-5文字识别系统
2.4 循环神经网络(RNN)与LSTM
人类并不是每时每刻都从一片空白的大脑开始他们的思考, 人总是基于自己已经拥有的对先前词的理解来推断当前词的真 实含义。
稀疏编码分为两个部分: (1)Training阶段: 目标:给定一系列的样本图片[x1, x2, …],我们需 要学习得到一组基[Φ1, Φ2, …]。 训练过程是一个重复迭代的过程,不断交替更改a和Φ 使得下面这个目标函数最小。
(2)Coding阶段: 给定一个新的图片x,求a矩阵的值,使得上面的目标 函数取得最小值。
在这里,可以通过有标签样本仅调整分类器,也可以 对整个系统进行微调(数据多)。
2.1 AutoEncoder自动编码器
在研究中可以发现,如果在原有的特征中加入这些自 动学习得到的特征可以大大提高精确度,甚至在分类问题中比 目前最好的分类算法效果还要好。
两个变体
稀疏自动编码器
降噪自动编码器
稀疏自动编码器:限制每次得到的表达code尽量稀疏。
2,通过编码器产生特征,逐层训练
将第一层输出的code作为第二层的输入信号,同样最 小化重构误差,就得到了第二层的参数和第二层输出的code。 其他层用同样的方法炮制,每一层均能得到输入的一种表达, 直到产生到需要的层数。
2.1 AutoEncoder自动编码器
3,有监督的微调
最后,为了可以实现分类,一般可以在AutoEncoder 的最顶层添加一个分类器,然后通过标准的多层神经网络的监 督训练方法去训练。
自动编码器是一种尽可能复现输入信号的神经网络。 其大致过程如下:
1,给定无标签数据,用非监督学习学习特征
2.1 AutoEncoder自动编码器
此时的误差可由重构后与原输入相比得到。
经过最小化重构误差之后,可以认为code此时就是
input
的一种良好的表达。
2.1 AutoEncoder自动编码器
降噪自动编码器:训练数据加入噪声,迫使编码器更 具有鲁棒性。
2.2 Sparse Coding稀疏编码
稀疏编码是一种无监督学习方法,它用来寻找一组 “超完备”基向量来更有效地表示样本数据。其目的是将输入 的样本集X分解为多个基元的线性组合,然后这些基前面的系 数表示的是输入样本的特征。O = a1*Φ1 + a2*Φ2+….+ an*Φn, Φi是基,ai是系数。那么可以得出一个优化问题:
传统的神经网络没有考虑到时间因素,也就是其并不能记 忆之前存储的内容。而RNN解决了这个问题,RNN是包含循环 的网络,允许信息的持久化。
循环神经网络的基本结构如下所示:
2.4 循环神经网络(RNN)与LSTM
RNN被广泛的应用在语音识别、语言建模、翻译等方面。 而这些应用的关键就是LSTM的使用。
根据上个输出和 当前的输入决定更新 哪些属性以及新属性 的内容
执行之前的决定, 更新当前的状态
根据上个输出和 当前的状态决定现在 输出什么
The end
请各位老师批评指正!
Thank you!
深度学习的常用模型和方法
2016年9月18日
目录
1 深度学习的背景
2 深度学习常用模型和方法
1
自动编码器
2
稀疏编码
3
卷积神经网络
4
RNN与LSTM
3 总结与展望
1 深度学习的背景
实际生活中,人们为了解决一个问题,如对象的分类 (文档、图像等),首先必须做的事情是如何来表达一个对象, 即必须抽取一些特征来表示一个对象。如文本的处理中,常常 用词集合来表示一个文档,或把文档表示在向量空间中(称为 VSM模型),然后才能提出不同的分类算法来进行分类;又如 在图像处理中,我们可以用像素集合来表示一个图像,后来人 们提出了新的特征表示,如SIFT,这种特征在很多图像处理的 应用中表现非常良好,特征选取得好坏对最终结果的影响非常 巨大。因此,选取什么特征对于解决一个实际问题非常的重要。
MIN | I – O |,其中,I 为输入,O 为输出
通过求解这个最优化式子,可以求ຫໍສະໝຸດ BaiduΦi和ai,也就 能得出输入的特征表示。
如果我们加上稀疏规则限制,得到:
|ai |)
MIN | I – O | + λ(|a1| + |a2| + … +
这种方法就是稀疏编码。
2.2 Sparse Coding稀疏编码
然而,手工地选取特征是一件非常费力、启发式的方 法,能不能选取好很大程度上靠经验和运气。
自动地学习特征的方法,统称为Deep Learning。
2.1 AutoEncoder自动编码器
深度学习中最简单的一种方法是利用人工神经网络的 特点。如果给定一个神经网络,我们假设其输入和输出相同, 然后调整其每层参数,得到每一层的权重,自然,就得到了输 入的几种不同表示,这些表示就是特征(feature)。
2.2 Sparse Coding稀疏编码
2.3 卷积神经网络(CNN)
卷积神经网络是一种特殊的深层的神经网络模型,它的特 殊性体现在两个方面,一方面它的神经元间的连接是非全连接 的, 另一方面同一层中某些神经元之间的连接的权重是共享 的(即相同的)。它的非全连接和权值共享的网络结构使之更 类似于生物神经网络,降低了网络模型的复杂度,减少了权值 的数量。
长短时记忆网络(LSTM)是一种特殊的RNN模型,其特 点是可以学习长期依赖的信息。LSTM可以自动记忆长期的信 息而不需要特意花费很大的代价。
标准RNN结构
2.4 循环神经网络(RNN)与LSTM
LSTM的结构
根据上个输出和 当前的输入决定是 否抛弃之前的状态 内容
2.4 循环神经网络(RNN)与LSTM
2.3 卷积神经网络(CNN)
卷积神经网络的结构与特点:
BP神经网络
2.3 卷积神经网络(CNN)
LeNet-5文字识别系统
2.4 循环神经网络(RNN)与LSTM
人类并不是每时每刻都从一片空白的大脑开始他们的思考, 人总是基于自己已经拥有的对先前词的理解来推断当前词的真 实含义。
稀疏编码分为两个部分: (1)Training阶段: 目标:给定一系列的样本图片[x1, x2, …],我们需 要学习得到一组基[Φ1, Φ2, …]。 训练过程是一个重复迭代的过程,不断交替更改a和Φ 使得下面这个目标函数最小。
(2)Coding阶段: 给定一个新的图片x,求a矩阵的值,使得上面的目标 函数取得最小值。
在这里,可以通过有标签样本仅调整分类器,也可以 对整个系统进行微调(数据多)。
2.1 AutoEncoder自动编码器
在研究中可以发现,如果在原有的特征中加入这些自 动学习得到的特征可以大大提高精确度,甚至在分类问题中比 目前最好的分类算法效果还要好。
两个变体
稀疏自动编码器
降噪自动编码器
稀疏自动编码器:限制每次得到的表达code尽量稀疏。
2,通过编码器产生特征,逐层训练
将第一层输出的code作为第二层的输入信号,同样最 小化重构误差,就得到了第二层的参数和第二层输出的code。 其他层用同样的方法炮制,每一层均能得到输入的一种表达, 直到产生到需要的层数。
2.1 AutoEncoder自动编码器
3,有监督的微调
最后,为了可以实现分类,一般可以在AutoEncoder 的最顶层添加一个分类器,然后通过标准的多层神经网络的监 督训练方法去训练。
自动编码器是一种尽可能复现输入信号的神经网络。 其大致过程如下:
1,给定无标签数据,用非监督学习学习特征
2.1 AutoEncoder自动编码器
此时的误差可由重构后与原输入相比得到。
经过最小化重构误差之后,可以认为code此时就是
input
的一种良好的表达。
2.1 AutoEncoder自动编码器
降噪自动编码器:训练数据加入噪声,迫使编码器更 具有鲁棒性。
2.2 Sparse Coding稀疏编码
稀疏编码是一种无监督学习方法,它用来寻找一组 “超完备”基向量来更有效地表示样本数据。其目的是将输入 的样本集X分解为多个基元的线性组合,然后这些基前面的系 数表示的是输入样本的特征。O = a1*Φ1 + a2*Φ2+….+ an*Φn, Φi是基,ai是系数。那么可以得出一个优化问题:
传统的神经网络没有考虑到时间因素,也就是其并不能记 忆之前存储的内容。而RNN解决了这个问题,RNN是包含循环 的网络,允许信息的持久化。
循环神经网络的基本结构如下所示:
2.4 循环神经网络(RNN)与LSTM
RNN被广泛的应用在语音识别、语言建模、翻译等方面。 而这些应用的关键就是LSTM的使用。
根据上个输出和 当前的输入决定更新 哪些属性以及新属性 的内容
执行之前的决定, 更新当前的状态
根据上个输出和 当前的状态决定现在 输出什么
The end
请各位老师批评指正!
Thank you!
深度学习的常用模型和方法
2016年9月18日
目录
1 深度学习的背景
2 深度学习常用模型和方法
1
自动编码器
2
稀疏编码
3
卷积神经网络
4
RNN与LSTM
3 总结与展望
1 深度学习的背景
实际生活中,人们为了解决一个问题,如对象的分类 (文档、图像等),首先必须做的事情是如何来表达一个对象, 即必须抽取一些特征来表示一个对象。如文本的处理中,常常 用词集合来表示一个文档,或把文档表示在向量空间中(称为 VSM模型),然后才能提出不同的分类算法来进行分类;又如 在图像处理中,我们可以用像素集合来表示一个图像,后来人 们提出了新的特征表示,如SIFT,这种特征在很多图像处理的 应用中表现非常良好,特征选取得好坏对最终结果的影响非常 巨大。因此,选取什么特征对于解决一个实际问题非常的重要。
MIN | I – O |,其中,I 为输入,O 为输出
通过求解这个最优化式子,可以求ຫໍສະໝຸດ BaiduΦi和ai,也就 能得出输入的特征表示。
如果我们加上稀疏规则限制,得到:
|ai |)
MIN | I – O | + λ(|a1| + |a2| + … +
这种方法就是稀疏编码。
2.2 Sparse Coding稀疏编码
然而,手工地选取特征是一件非常费力、启发式的方 法,能不能选取好很大程度上靠经验和运气。
自动地学习特征的方法,统称为Deep Learning。
2.1 AutoEncoder自动编码器
深度学习中最简单的一种方法是利用人工神经网络的 特点。如果给定一个神经网络,我们假设其输入和输出相同, 然后调整其每层参数,得到每一层的权重,自然,就得到了输 入的几种不同表示,这些表示就是特征(feature)。
2.2 Sparse Coding稀疏编码
2.3 卷积神经网络(CNN)
卷积神经网络是一种特殊的深层的神经网络模型,它的特 殊性体现在两个方面,一方面它的神经元间的连接是非全连接 的, 另一方面同一层中某些神经元之间的连接的权重是共享 的(即相同的)。它的非全连接和权值共享的网络结构使之更 类似于生物神经网络,降低了网络模型的复杂度,减少了权值 的数量。
长短时记忆网络(LSTM)是一种特殊的RNN模型,其特 点是可以学习长期依赖的信息。LSTM可以自动记忆长期的信 息而不需要特意花费很大的代价。
标准RNN结构
2.4 循环神经网络(RNN)与LSTM
LSTM的结构
根据上个输出和 当前的输入决定是 否抛弃之前的状态 内容
2.4 循环神经网络(RNN)与LSTM