深度学习的基本理论与方法ppt

合集下载

深度学习的基本理论与方法_图文

深度学习的基本理论与方法_图文

• 限制波尔兹曼机(Restricted Boltzmann Machine)
• 定义:假设有一个二部图,同层节点之间没有链接,一层是可 视层,即输入数据层(v),一层是隐藏层(h),如果假设所有的 节点都是随机二值( 0,1值)变量节点,同时假设全概率分布 p(v,h)满足Boltzmann 分布,我们称这个模型是Restricted BoltzmannMachine (RBM)。
• Deep Boltzmann Machine(DBM)
Deep Belief Networks是在靠近可视层的部分使用贝叶斯信念网 络(即有向图模型),而在最远离可视层的部分使用Restricted Boltzmann Machine的模型。
• 卷积波尔兹曼机(Convolutional RBM)
深度学习的具体模型及方法
• 降噪自动编码器(Denoising AutoEncoders)
• 在自动编码器的基础上,对训练数据加入噪声,自动编码器 必须学习去去除这种噪声而获得真正的没有被噪声污染过的 输入。因此,这就迫使编码器去学习输入信号的更加鲁棒的 表达,这也是它的泛化能力比一般编码器强的原因。
Inference: prediction, recognition
• 良好的特征表达,对最终算法的准确性起了非常关键的作用; • 识别系统主要的计算和测试工作耗时主要集中在特征提取部分; • 特征的样式目前一般都是人工设计的,靠人工提取特征。
动 机——为什么要自动学习特征
• 实验:LP-β Multiple Kernel Learning
• 人脑视觉机理
人的视觉系统的信息处理是分级的
高层的特征是低层特征的组合,从低层到高层的特征表示越来越抽象 ,越来越能表现语义或者意图

深度学习PPT课件

深度学习PPT课件
3
.
深度学习(DL)
BP 神经网络(BPNNs)网络存在的主要问题: 1. 一般要得到较好的训练效果,隐层数目不能
太少,当图片大的时候,需要的权值会非常多; 2. 对平移、尺度变化敏感(比如数字偏左上角,
右下角时即识别失败); 3. 图片在相邻区域是相关的,而这种网络只是
一股脑把所有像素扔进去,没有考虑图片相关 性。
一般的语音识别多提取每帧长25ms、帧移 10ms的语音对应的MFCC特征,该文提取使用 fBank特征。
8
.
CNN CNN结构图:
9
.
CNN
输入图像: 28*28
卷积层: 均为5*5
采样核大 小:均为 2*2。
在Toolbox的实现中,C1共有6个卷积核,则卷积结果6个特征map;卷 积层的一个map与上层的所有map都关联,如上图的S2和C3,即C3共 有6*12个卷积核,
CNN经典程序下 载:https:///rasmusbergpalm/DeepLearnToolbox
7
.
语音识别
参考:《基于深度学习的语音识别应用研究_ 张建华》
该文献通过深度神经网络提取语音特征的方法、 深度神经网络提取声韵母属性的方法、深度学 习搭建声学模型的方法对比;
假设上一层的map大 小是n*n、卷积核的 大小是k*k,则该层 的map大小是(nk+1)*(n-k+1),比如 上图的24*24的map 大小24=(28-5+1)。
参见网址:/lu597203933/article/details/46575871
11
1991, 通过无导学习的深度学习(Deep Learning,DL)在 实际中可以运用;

深度学习介绍 ppt课件

深度学习介绍 ppt课件

自编码器的建立
建立AutoEncoder的方法是:
对于m个数据的输入,有:
Code编码:使用非线性激活函数,将维输入数据映射到维隐含层(隐含节点表示特 征)
其中W是一个的权重矩阵,b是一个d'维的偏移向量 Decode解码:通过反向映射,对映射后的数据进行重建
hi
yi
SAE网络每一次训练输入都会得到映射后的 与解码后的 。通过对代价函数的最优
深层带来的好处
为什么采用层次网络
预训练与梯度消失现象
主要内容
自编码器结构
单层自动编码器网络(AutoEncoder)实质上是一个三层的反向传播神经网络。它逐 层采用无监督学习的方式,不使用标签调整权值,将输入映射到隐含层上,再经过反 变换映射到输出上,实现输入输出的近似等价。
X1 X2 X3 X4 X5 +1
RBM网络有几个参数,一个是可视层与隐含 层之间的权重矩阵,一个是可视节点的偏移 量b,一个是隐含节点的偏移量c,这几个参 数决定了RBM网络将一个m维的样本编码成 一个什么样的n维的样本。
受限玻尔兹曼机
RBM介绍

RBM训练
一般地,链接权重Wij可初始化为来自正态分布N(0,0.01)的随机数,隐 单元的偏置cj初始化为0; 对于第i个可见单元,偏置bj初始化为log[pi/(1-pi)] 。pi表示训练样本中 第i个特征处于激活状态所占的比率 学习率epsilon至关重要,大则收敛快,但是算法可能不稳定。小则 慢。为克服这一矛盾引入动量,使本次参数值修改的方向不完全由当 前样本似然函数梯度方向决定,而是上一次参数值修改方向与本次梯 度方向的结合可以避免过早的收敛到局部最优点
激活函数
y f (x)

深度学习技术介绍PPT课件

深度学习技术介绍PPT课件
根据Marr(1982)年理论,理解一个信息处理系统,具有三个被称为分析层面的内容: 计算理论(computational theory)对应计算目标和任务的抽象定义。 表示和算法(representation and algorithm)是关于输人和输出如何表示和从输入到输
出变换的算法说明。 硬件实现(hardware implementation)是系统的实物物理实现。
29
29
M40 GPU加速特性
30
GPU与CPU连接
通过PCIe与CPU连接, 最大理论带宽8GB/s(gen2.0)、16GB/s(gen3.0) CPU称为主机(host), 显卡(GPU)称为设备(device)
31
31
最优连接数量:4
32
32
目前的GPU使用方案
33
33
CPU困境
34
机器学习还可以进行压缩(compression)。用规则拟合数据,我们能得到比数据更简 单的解释,需要的存储空间更少,处理所需要的计算更少,例如,一旦你掌握了加法 规则,你就不必记忆每对可能数字的和是多少。
机器学习的另一种用途是离群点检测(outlier detection),即发现那些不遵守规则的 例外实例。在这种情况下,学习规则之后,我们感兴趣的不是规则,而是规则未能覆 盖的例外,他们可能暗示出我们需要注意的异常,如诈骗等。
具体应用-人脸识别
对于人脸识别(face recognition)。输入是人脸 图像,类是需要识别的人,并且学习程序应当 学习人脸图像与身份之间的关联性。人脸会有 更多的类,输入图像也更大一些,并且人脸是 三维的,不同的姿势和光线等都会导致图像的 显著变化。另外,对于特定人脸的输人也会出 现问题,比如说眼镜可能会把眼睛和眉毛遮住 ,胡子可能会把下巴盖住等。

深度学习基础PPT幻灯片

深度学习基础PPT幻灯片
Deep Learning
2020/4/2
1
目录
深度学习简介 深度学习的训练方法 深度学习常用的几种模型和方法 Convolutional Neural Networks卷积神经网络 卷积神经网络(CNN)在脑机接口中的应用源自2020/4/22
What is Deep Learning?
浅层结构的局限性在于有限的样本和计算单元情况下 对复杂的函数表示能力有限,针对复杂分类问题其泛 化能力受到一定的制约。
2020/4/2
9
受到大脑结构分层的启发,神经网络的研究发现多隐 层的人工神经网络具有优异的特征学习能力,学习得 到的特征对数据有更本质的刻画,从而有利于可视化 或分类;而深度神经网络在训练上的难度,可以通过 “逐层初始化”来有效克服。
A brief introduce of deep learning
2020/4/2
3
机器学习
机器学习(Machine Learning)是一门专门研究计算机 怎样模拟或实现人类的学习行为,以获取新的知识或 技能,重新组织已有的知识结构市值不断改善自身的 性能的学科,简单地说,机器学习就是通过算法,使 得机器能从大量的历史数据中学习规律,从而对新的 样本做智能识别或预测未来。
机器学习在图像识别、语音识别、自然语言理解、天 气预测、基因表达、内容推荐等很多方面的发展还存 在着没有良好解决的问题。
2020/4/2
4
特征的自学习
传统的模式识别方法:
通过传感器获取数据,然后经过预处理、特征提取、特 征选择、再到推理、预测或识别。 特征提取与选择的好坏对最终算法的确定性齐了非常关 键的作用。而特征的样式目前一般都是靠人工提取特征。 而手工选取特征费时费力,需要专业知识,很大程度上 靠经验和运气,那么机器能不能自动的学习特征呢?深 度学习的出现就这个问题提出了一种解决方案。

深度学习详解37页PPT文档

深度学习详解37页PPT文档
深度学习与浅层学习的区别
强调了模型结构的深度,通常有5-10多层的隐层节点;
明确突出了特征学习的重要性,通过逐层特征变换,将 样本在原空间的特征表示变换到一个新特征空间,从而 使分类或预测更加容易。与人工规则构造特征的方法相 比,利用大数据来学习特征,更能够刻画数据的丰富内 在信息。
深度学习的训练方法
深度学习的训练过程
自下而上的非监督学习:从底层开始,一层一层的往 顶层训练,分别得到各层参数。
采用无标签数据分层训练各层参数(可以看作是特征学习 的过程)。
自上而下的监督学习
基于第一步的得到的各层参数进一步调整整个多层模型的 参数,这一步是一个有监督的训练过程。
深度学习的几种常用模型
Auto Encoder(自动编码器) Sparse Coding (稀疏编码) Restricted Boltzmann Machine(限制玻尔兹曼机) Deep Belief Networks (深度信任网络) Convolutional Neural Networks (卷积神经网络)
深度学习可以通过学习一种深层非线性网络结构,实 现复杂函数逼近,表征输入数据分布式表示,并展现 了强大的从少数样本中集中学习数据及本质特征的能 力。
深度学习的实质
通过构建具有很多隐层的机器学习模型和海量的训练数 据,来学习更有用的特征,从而最终提升分类或预测的 准确性。因此,“深度模型”是手段,“特征学习”是 目的。
Convolutional Neural Networks(CNN)
Convolutional Neural Networks(CNN)
卷积神经网络是人工神经网络的一种,已成为当前语音分析和图像识别领 域的研究热点。它的权值共享网络结构使之更类似于生物神经网络,降低了网 络模型的复杂度,减少了权值的数量。该优点在网络的输入是多维图像时表现 的更为明显,使图像可以直接作为网络的输入,避免了传统识别算法中复杂的 特征提取和数据重建过程。卷积网络是为识别二维形状而特殊设计的一个多层 感知器,这种网络结构对平移、比例缩放、倾斜或者共他形式的变形具有高度 不变性。

深度学习基础PPT幻灯片课件

深度学习基础PPT幻灯片课件
深度学习与浅层学习的区别
强调了模型结构的深度,通常有5-10多层的隐层节点;
明确突出了特征学习的重要性,通过逐层特征变换,将 样本在原空间的特征表示变换到一个新特征空间,从而 使分类或预测更加容易。与人工规则构造特征的方法相 比,利用大数据来学习特征,更能够刻画数据的丰富内 在信息。
2023/10/14
2023/10/14
6
人脑的视觉机理
1981年的诺贝尔医学奖获得者 David Hubel和Torsten Wiesel发现了视觉系统的信息处理机制,他们发现了一 种被称为"方向选择性细胞的神经元细胞,当瞳孔发现 了眼前的物体的边缘,而且这个边缘指向某个方向时, 这种神经元细胞就会活跃。
Categorical judgments, decision making
2023/10/14
23
经典例子:文字识别系统LeNet-5
INPUT 32x32
C3: f . maps
C1: feature maps 6@28x28
S 2: f . maps
6@14x14
16@10x10 S4:f.maps
16@5x5
C5: layer F6: laver OUTPUT
120
2023/10/14
5
深度学习
自2006年,深度学习(Deep Learning)已经成为机 器学习研究中的一个新兴领域,通常也被叫做深层结 构学习或分层学习。其动机在于建立、模拟人脑进行 分析学习的神经网络,它模拟人脑的机制来解释数据, 例如图像,声音和文本,深度学习是无监督学习的一 种。
深度学习的概念源于人工神经网络的研究,含多隐层 的多层感知器就是一种深度学习结构。深度学习通过 组合低层特征形成更加抽象的高层表示属性类别或特 征,已发现数据的分布式特征表示。

深度学习PPT幻灯片

深度学习PPT幻灯片
❖ 案例:星光智能一号广泛应用于高清视频监控、智能驾驶辅助、无人机、 机器人等嵌入式机器视觉领域
14
深度学习硬件加速方式——ASIC
❖ 阻碍深度学习发展的瓶颈仍是算法速度 ❖ 传统处理器需要多条指令才能完成一个神经元的处理 ❖ ASIC根据深度学习算法定制:处理效率、能效均最高 ❖ 代表:Cambricon(寒武纪科技)DianNao芯片、谷歌的TPU芯片、
11
深度学习硬件加速方式——GPU
❖ SIMD方式,计算能力强,并行度支持好 ❖ 通用性,并非针对深度学习
➢ 运行效率受影响 ➢ 能耗仍较大 ❖ 代表: NVIDIA Tesla P100 GPU ❖ 案例:基于GPADAS)方面与众多车企进行合作
样思考
取新的知识技能,并
应用:国际跳棋程序

改善自身性能
应用:垃圾邮件过滤
深度学习
一种机器学习方法,模 拟人脑机制解释数据, 通过组合低层特征形成 更加抽象的高层属性类 别或特征
应用:谷歌视频寻猫
1950's 1960's 1970's 1980's 1990's 2000's 2010's
3
深度学习的流程
Horizon Robotics(地平线机器人)BPU芯片 ❖ 案例:基于TPU的AlphaGo与围棋冠军李世石人机大战,总比分4:1获胜
15
深度学习硬件加速方式比较
加速方式
优点
缺点
CPU
通用结构、可独立工作 通用性导致效率和能效比低
GPU FPGA DSP ASIC
强大的并行计算能力
通用性导致效率受影响、能耗大
灵活性好、设计空间大、 省去流片过程 改动小、计算能力较高

深度学习及应用教程课件

深度学习及应用教程课件
深度学习及应用教程课件
本课程将介绍深度学习的基础原理,深度神经网络,应用领域,工具和框架, 实际案例,以及未来发展和挑战。
深度学习简介
定义
深度学习是机器学习的一种, 通过使用神经网络模型对数 据进行训练和预测。
发展历程
深度学习从20世纪80年代开 始发展,在2000年后受到越 来越多的关注。
优势特点
3 Keras
由Python语言开发,封装了TensorFlow和Theano,简单易学。
深度学习的实际案例
1
自然语言处理
2
深度学习在自然语言处理领域已经取得
了很多成功,如机器翻译和语音识别。
3
图像识别
深度学习在图像识别领域取得了很多成 功,如AlphaGo和人脸识别。
自动驾驶
深度学习在自动驾驶领域已经取得了很 多成功,如特斯拉的自动驾驶技术。
深度学习能够自适应,具有 很强的预测和分类能力,已 经在很多领域取得了成功。
深度神经网络
普通神经网络
由神经元和连接构成的多层网络,能够进行分类、 回归、聚类等任务。
卷积神经网络
通过卷积和池化层对图像进行处理,被广泛应用于 图像识别领域。
循环神经网络
能够对序列数据进行处理,被广泛应用于语音和自 然语言处理领域。
未来发展
深度学习的未来发展趋势是不断扩大应用领域、提 高模型可解释性、提高模型的安全性等。
深度学习的应用领域
医疗 金融 自然语言处理 自动驾驶
图像识别、疾病预测 投资决策、风险管理 机器翻译、情感分析 图像识别、路径规划
深度学习工具和框架
1 TensorFlow
由Google开发,功能强大, 易于使用,拥有丰富的文档 和社区。

深度学习的基本理论与方法

深度学习的基本理论与方法
深度学习的简介与应用
目录
研究背景 概述 动机 深度学习简介 深度学习的训练过程 深度学习的具体模型及方法 深度学习的性能比较和应用 深度学习识别标识牌 使用深度学习研究存在的问题
研究背景及现状
Artificial Intelligence,也就是人工智能,就 像长生不老和星际漫游一样,是人类最美 好的梦想之一。虽然计算机技术已经取得 了长足的进步,但是到目前为止,还没有 一台电脑能产生“自我”的意识。虽然在 人类和大量现成数据的帮助下,电脑可以 表现的十分强大,但是离开了这两者,它 甚至都不能分辨一只猫和一只狗。
具有多样性,如:SIFT, HOG, LBP等 手工选取特征费时费力,需要启发式专业知识,很大程度上靠
经验和运气 是否能自动地学习特征?
动 机——为什么要自动学习特征
• 中层特征
✓ 中层信号:
连续
平行
更加复杂的信号: ✓ 物体部件:
连接
拐角
• 他们对于人工而言是十分困难的,那么如何学习呢?
动 机——为什么要自动学习特征
过热的研究现状
2012年6月,《纽约时报》披露了Google Brain项目。用 16000个CPU Core的并行计算平台训练一种称为“深度 神经网络”(DNN,Deep Neural Networks)的机器学 习模型(内部共有10亿个节点),在语音识别和图像 识别等领域获得了巨大的成功。
项目负责人之一Andrew称:“我们没有像通常做的那 样自己框定边界,而是直接把海量数据投放到算法中, 让数据自己说话,系统会自动从数据中学习。”另外 一名负责人Jeff则说:“我们在训练的时候从来不会告 诉机器说:‘这是一只猫。’系统其实是自己发明或 者领悟了“猫”的概念。”

《深度学习介绍》课件

《深度学习介绍》课件
强化学习
推荐系统和强化学习是深度学习在智能推荐和决策领域的重要应用,能够提高推荐和决策的准确性和智能化水平。
总结
06
CHAPTER
深度学习的未来展望
随着深度学习在各领域的广泛应用,对模型的可解释性需求日益增强。未来研究将致力于开发更透明的模型,通过可视化、解释性图谱等技术,帮助用户理解模型决策过程。
池化层用于降低数据的维度,减少计算量和过拟合的风险。常用的池化方法有最大池化和平均池化等。
池化层
激活函数
03
CHAPTER
深度学习的主要模型
1
2
3
卷积神经网络是一种专门用于处理具有类似网格结构数据的深度学习模型,例如图像、语音信号等。
CNN通过局部连接、权重共享和下采样等策略,实现对输入数据的逐层特征提取和抽象。
《深度学习介绍》ppt课件
目录
深度学习概述深度学习的基本原理深度学习的主要模型深度学习的训练技巧深度学习的应用实例深度学习的未来展望
01
CHAPTER
深度学习概述ຫໍສະໝຸດ ABCD
自动驾驶
用于车辆控制、障碍物检测等自动驾驶系统的关键技术。
推荐系统
用于个性化推荐、广告投放等商业应用。
自然语言处理
用于机器翻译、文本分类、情感分析等任务。
防止模型在验证集上过拟合
当模型在验证集上的性能停止提升时,应停止训练并保存模型。早停法可以防止模型在训练集上过拟合。同时,定期保存模型权重也有助于后续的重训练或迁移学习。
05
CHAPTER
深度学习的应用实例
自然语言处理
利用深度学习技术对自然语言文本进行分析和处理,例如机器翻译、情感分析等。
DBN在图像识别、语音识别和自然语言处理等领域有一定的应用价值。
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
• 可能的的名称:
– 深度学习 – 特征学习 – 无监督特征学习
4/4/2020
---
动机
传统的模式识别方法:
Low-level sensing
Preprocessing
Feature extract.
Feature selection
Inference: prediction, recognition
深度学习的基本理论与方法
成科扬 2013年10月30日
4/4/2020
---
目录
• 概述 • 动机 • 深度学习简介 • 深度学习的训练过程 • 深度学习的具体模型及方法 • 深度学习的性能比较 • 深度学习的应用
• 展望 • 参考文献 • 相关程序软件及链接
4/4/2020
---
概述
• 深度学习:一种基于无监督特征学习和特征 层次结构的学习方法
具有多样性,如:SIFT, HOG, LBP等 • 手工选取特征费时费力,需要启发式专业知识,很大程度上靠
经验和运气 • 是否能自动地学习特征?
4/4/2020
---
动 机——为什么要自动学习特征
• 中层特征
✓ 中层信号:
连续
平行
“Tokens” from Vision by D.Marr:
✓ 物体部件:
换,将样本在原空间的特征表示变换到一个新特 征空间,从而使分类或预测更加容易。与人工规 则构造特征的方法相比,利用大数据来学习特征 ,更能够刻画数据的丰富内在信息。
4/4/2020
---
深度学习
• 好处:可通过学习一种深层非线性网络结 构,实现复杂函数逼近,表征输入数据分 布式表示。
4/4/2020
4/4/2习020 确定。
---
动 机——为什么采用层次网络结构
• 人脑视觉机理 ✓ 1981年的诺贝尔医学奖获得者 David Hubel和
TorstenWiesel发现了视觉系统的信息处理机制 ✓ 发现了一种被称为“方向选择性细胞的神经元细胞,当瞳
孔发现了眼前的物体的边缘,而且这个边缘指向某个方向 时,这种神经元细胞就会活跃
• 采用39 个不同的特征
– PHOG, SIFT, V1S+, Region Cov. Etc.
• 在普通特征上MKL表现
有限
结论:特征更重要
4/4/2020
---
动 机——为什么要自动学习特征
• 机器学习中,获得好的特征是识别成功的关键 • 目前存在大量人工设计的特征,不同研究对象特征不同,特征
---
深度学习 vs. 神经网络
神经网络 :
深度学习:
4/4/2020
---
深度学习 vs. 神经网络
相同点:二者均采用分层结构,系统包括输入层、隐 层(多层)、输出层组成的多层网络,只有相邻层 节点之间有连接,同一层以及跨层节点之间相互无 连接,每一层可以看作是一个logistic 回归模型。
4/4/2020
---
深度学习
• 本质:通过构建多隐层的模型和海量训练数据( 可为无标签数据),来学习更有用的特征,从而 最终提升分类或预测的准确性。 “深度模型”是 手段,“特征学习”是目的。
• 与浅层学习区别: 1)强调了模型结构的深度,通常有5-10多层的隐层
节点; 2)明确突出了特征学习的重要性,通过逐层特征变
不同点:
神经网络:采用BP算法调整参数,即采用迭代算法来 训练整个网络。随机设定初值,计算当前网络的输 出,然后根据当前输出和样本真实标签之间的差去 改变前面各层的参数,直到收敛;
连接
拐角
• 他们对于人工而言是十分困难的,那么如何学习呢?
4/4/2020
---
动 机——为什么要自动学习特征
• 一般而言,特征越多,给出信息就越多,识别准确性会得到提升;
• 但特征多,计算复杂度增加,探索的空间大,可以用来训练的数据在 每个特征上就会稀疏。
• 结论:不一定特征越多越好!需要有多少个特征,需要学
4/4/2020
---
动 机——为什么采用层次网络结构
• 人脑视觉机理
✓ 人的视觉系统的信息处理是分级的 ✓ 高层的特征是低层特征的组合,从低层到高层的特征表示越来越抽象
,越来越能表现语义或者意图 ✓ 抽象层面越高,存在的可能猜测就越少,就越利于分类
4/4/2020
---
动 机——为什么采用层次网络结构
• 初级(浅层)特征表示
✓高层特征或图像,往往是由一些基本结构(浅层特征)组成的
4/4/2020
---
动 机——为什么采用层次网络结构
• 结构性特征表示
4/4/2020
---
动 机——为什么采用层次网络结构
• 浅层学习的局限
✓ 人工神经网络(BP算法)
—虽被称作多层感知机,但实际是种只含有一层隐层 节点的浅层模型
✓ SVM、Boosting、最大熵方法(如LR,Logistic Regression)
—带有一层隐层节点(如SVM、Boosting),或没有 隐层节点(如LR)的浅层模型
局限性:有限样本和计算单元情况下对复杂函数的表 示能力有限,针对复杂分类问题其泛化能力受限。
4/4/2020
---
深度学习
• 良好的特征表达,对最终算法的准确性起了非常关键的作用; • 识别系统主要的计算和测试工作耗时主要集中在特征提取部分; • 特征的样式目前一般都是人工设计的,靠人工提取特征。Βιβλιοθήκη 4/4/2020---
动 机——为什么要自动学习特征
• 实验:LP-β Multiple Kernel Learning
– Gehler and Nowozin, On Feature Combination for Multiclass Object Classification, ICCV’09
• 视觉的层次性
✓ 属性学习,类别作为属性的一种组合映射 Lampert et al. CVPR’09
类别标签 属性
图像特征
4/4/2020
---
动 机——为什么采用层次网络结构
• 特征表示的粒度
✓ 具有结构性(或者语义) 的高层特征对于分类更有 意义
4/4/2020
---
动 机——为什么采用层次网络结构
• 2006年,加拿大多伦多大学教授、机器学习领域 的泰斗Geoffrey Hinton在《科学》上发表论文提 出深度学习主要观点:
1)多隐层的人工神经网络具有优异的特征学习能力 ,学习得到的特征对数据有更本质的刻画,从而 有利于可视化或分类;
2)深度神经网络在训练上的难度,可以通过“逐层 初始化”(layer-wise pre-training)来有效克 服,逐层初始化可通过无监督学习实现的。
相关文档
最新文档