迁移学习
学习迁移实验报告分析(3篇)
第1篇一、实验背景学习迁移是指在学习过程中,先前学习对后续学习的影响。
学习迁移现象在现实生活中广泛存在,如学习数学知识对物理知识的理解、学习外语对其他语言的掌握等。
为了探究学习迁移的规律,本实验旨在通过设计一系列实验,分析不同学习情境下学习迁移的效果。
二、实验目的1. 了解学习迁移的概念和类型;2. 探究不同学习情境下学习迁移的效果;3. 分析影响学习迁移的因素;4. 为教学实践提供理论依据。
三、实验方法1. 实验设计:采用前测后测设计,将被试分为实验组和对照组。
实验组在学习新知识前,接受与目标知识相关的旧知识训练;对照组在学习新知识前,不接受任何训练。
2. 实验材料:选择初中数学和物理课程中相关内容,分为三个层次:基础、中等、困难。
3. 实验步骤:a. 对被试进行前测,测试其旧知识掌握程度;b. 对实验组进行旧知识训练,对照组不进行训练;c. 对所有被试进行后测,测试其新知识掌握程度;d. 收集数据,进行统计分析。
四、实验结果与分析1. 实验组在旧知识训练后,新知识掌握程度显著高于对照组(p<0.05);2. 不同层次的学习迁移效果存在差异:基础层次迁移效果较好,中等层次次之,困难层次迁移效果较差;3. 影响学习迁移的因素包括:知识间的相似性、学习者的认知结构、学习策略等。
五、讨论1. 学习迁移是学习过程中的一种普遍现象,实验结果验证了这一观点;2. 旧知识训练对学习迁移有显著影响,说明在学习新知识前,对相关旧知识的复习有助于提高学习效果;3. 不同层次的学习迁移效果存在差异,说明在教学中应根据学生的认知水平,合理设计教学内容和教学方法;4. 影响学习迁移的因素众多,教学中应注重培养学生的认知结构、学习策略等,以提高学习迁移效果。
六、结论1. 学习迁移现象在现实生活中广泛存在,对教学实践具有重要意义;2. 旧知识训练有助于提高学习迁移效果,教学中应重视旧知识的复习;3. 不同层次的学习迁移效果存在差异,教学中应根据学生的认知水平,合理设计教学内容和教学方法;4. 影响学习迁移的因素众多,教学中应注重培养学生的认知结构、学习策略等,以提高学习迁移效果。
什么是迁移学习?
什么是迁移学习?
迁移学习最早源于机器学习领域,是指借助先前学习的知识或经验来
加速新任务的学习进程。
近年来,迁移学习在人工智能领域的应用越
来越广泛,成为影响深远的技术之一。
那么,为什么迁移学习如此重
要呢?
1. 提高学习效率
迁移学习可以将之前的学习经验应用到新的任务中,从而提高学习的
速度和准确率。
相对于从零开始学习一个新任务,通过迁移学习,机
器可以快速掌握新任务的要领,减少重复学习的浪费,提高学习效率。
2. 解决数据稀缺的问题
在许多实际场景中,新的任务为数据稀缺问题,样本数量不足,很难
进行充分训练,这时候可以通过迁移学习,从已有的数据中提取出特征,并将其应用到新任务中。
这种方式可以缓解数据稀缺的问题,提
高分类准确率。
3. 应用广泛
迁移学习不仅适用于图像识别、自然语言处理等领域,还可以应用于
推荐系统、线性回归、分类等多种场景。
越来越多的研究表明,迁移
学习可以被广泛应用于各个领域,并取得了很好的效果。
虽然迁移学习有许多优势,但在实际应用中也存在一些挑战。
例如,如何选择合适的迁移学习模型、如何解决模型鲁棒性等问题,都需要我们不断探索和研究。
随着人工智能技术的不断发展,迁移学习必将在各个领域得到更广泛的应用和进一步的突破。
迁移学习、元学习、强化学习、联邦学习等
迁移学习、元学习、强化学习、联邦学习等1、迁移学习(Transfer Learning)直观理解:站在巨⼈的肩膀上学习。
根据已有经验来解决相似任务,类似于你⽤骑⾃⾏车的经验来学习骑摩托车。
专业理解:将训练好的内容应⽤到新的任务上,即将源域(被迁移对象)应⽤到⽬标域(被赋予经验的领域)。
迁移学习不是具体的模型,更类似于解题思路。
当神经⽹络很简单,训练⼀个⼩的神经⽹络不需要特别多的时间,完全可以从头开始训练。
如果迁移之前的数据和迁移后的数据差别很⼤,这时迁移来的模型起不到很⼤的作⽤,还可能⼲扰后续的决策。
应⽤场景:⽬标领域数据太少、节约训练时间、实现个性化应⽤。
实际擅长应⽤例举:语料匮乏的⼩语种之间的翻译、缺乏标注的医疗影像数据识别、⾯向不同领域快速部署对话系统。
NLP领域中的应⽤:Transformer、Bert之类的预训练语⾔模型,微调后可以完成不同的任务。
2、元学习(Meta Learning)与传统的监督学习不⼀样,传统的监督学习要求模型来识别训练数据并且泛化到测试数据。
训练⽬标:Learn to Learn,⾃⼰学会学习。
例:你不认识恐龙,但是你有恐龙的卡⽚,这样看见⼀张新的图⽚时,你知道新的图⽚上的动物与卡⽚上的动物长得很像,是同类的。
靠⼀张卡⽚来学习识别叫做:one-shot learning。
3、⼩样本学习(Few-Shot Learning)Few-Shot Learning是⼀种Meta Learning。
⽤很少的数据来做分类或回归。
例如:模型学会了区分事物的异同,例如:虽然数据集中没有狗的照⽚,模型不会识别狗,但模型也能判断两张狗的图⽚上的事物是同类的。
数据集:Support Set。
Support Set与训练集的区别:训练集的规模很⼤,每⼀类下⾯有很多图⽚,可以⽤来训练⼀个深度神经⽹络。
相⽐这下,Support Set数据集⽐较⼩,每⼀类下⾯只有⼀张或⼏张图⽚,不⾜以训练⼀个⼤的神经⽹络。
什么是迁移学习?请举例说明其应用场景
什么是迁移学习?请举例说明其应用场景
迁移学习是指将已经学习到的知识或技能应用于新的领域或问题中,以提高学习的效率和准确度。
迁移学习是机器学习领域中的重要研究方向之一,旨在通过利用已经学会的知识来加速新任务的学习,同时减少对新训练数据的需求,提高模型的泛化能力。
迁移学习的应用场景十分广泛,可以应用于自然语言处理、图像识别、推荐系统等多个领域。
例如,在自然语言处理中,通过已经学习到的知识或技能可以更快地理解新的语言,从而更好地完成翻译或文本分类等任务。
在图像识别中,可以利用已经学会的模型在新的领域中快速进行识别,例如将动物园中的物种识别模型应用到野外环境中。
在推荐系统中,可以将用户的历史行为信息进行迁移,从而更好地推荐相似的商品或服务。
迁移学习的核心在于将已有的知识与新任务有机结合起来,形成新的学习框架。
具体步骤包括选择源域和目标域、选择适当的迁移学习方法、进行特征选择和特征变换等。
在未来,迁移学习将对各个领域的智能化发展产生深远影响,帮助人们更好地解决新的问题和挑战。
同时,有关迁移学习的研究还需要深入探讨,以打破领域之间的障碍,更好地实现知识共享和智能提升。
学习迁移
学习迁移的理论
当代迁移理论
经验整合说
冯忠良教授认为,学习迁移的过程就是经验 的整合过程,其实质就是要构建一体化和网络化 的心理结构。整合是经验的一体化现象,即通过 分析、抽象、综合、概括等认知活动,使新旧经 验相互作用,从而形成在结构上一体化、系统化, 在功能上能稳定调节活动的一个完整的心理系统。 整合可通过同化、顺应与重组这三种方式实现。
学习迁移的理论
早期迁移理论
学习定势说 学习定势说认为迁移的产生是由于多变 但类似的学习课题的影响。该学说认为,学 习定势既反映在解决某一类问题或学习某一 类课题时的一般方法的改进(学会如何学习) 上,同时,也反映在从事某种活动的暂时准 备状态(准备动作效应或预热效应)中。而学 习定势的这两个方面都会影响作业的变化。
经验类化说强调概括化的经验在迁移 中的作用,强调对原理的理解。
贾德设计了著名的“水下击靶”的实 验以探讨学习迁移问题。
学习迁移的理论Leabharlann 早期迁移理论关系转换说 关系转换说即格式塔心理学家认为, “顿悟”两种学习之间的关系才是学习迁 移产生的决定性因素。这一学说是从理解 事物关系的角度对经验类化的迁移理论进 行了重新解释,并通过实验证明迁移产生 的实质是个体对事物间的关系的理解。
哈洛进行了著名的“猴子实验”,探讨 了学习定势对迁移的影响。
二、当代主要的迁移理论
(一)认知结构迁移理论 奥苏贝尔 原有的认知结构与新知识在学习过程中的相互作用 是迁移发生的前提。(先前的知识经验、认知结构)
(二)产生式迁移理论 安德森 解释基本技能的迁移理论。桑代克理论的现代化
(三)认知策略迁移理论 贝尔蒙特 认知评价是影响迁移的一个重要因素。
内容具有迁移价值;不断更新与变化 (二)合理编排教学内容
什么是迁移学习?它都用在深度学习的哪些场景上?
什么是迁移学习?它都用在深度学习的哪些场景上?迁移学习是机器学习方法之一,它可以把为一个任务开发的模型重新用在另一个不同的任务中,并作为另一个任务模型的起点。
这在深度学习中是一种常见的方法。
由于在计算机视觉和自然语言处理上,开发神经网络模型需要大量的计算和时间资源,技术跨度也比较大。
所以,预训练的模型通常会被重新用作计算机视觉和自然语言处理任务的起点。
AInspir是一套完全由飔拓自主研发,基于Hadoop和Spark技术实现的企业级专业大数据分析挖掘平台,在它的帮助下,数据模型的设计如同编写伪代码一样容易,用户只需关注模型的高层结构,而无需担心任何琐碎的底层问题,可以快速建立数据模型来解决医疗、金融等实际问题,让人工智能发挥出最大作用。
这篇文章会发现告诉你,如何使用迁移学习来加速训练过程和提高深度学习模型的性能,以及解答以下三个问题:什么是迁移学习,以及如何使用它深度学习中迁移学习的常见例子在自己的预测模型问题上什么时候使用迁移学习什么是迁移学习?迁移学习是机器学习技术的一种,其中在一个任务上训练的模型被重新利用在另一个相关的任务上。
书本解释:“迁移学习和领域自适应指的是将一个任务环境中学到的东西用来提升在另一个任务环境中模型的泛化能力”——2016年“Deep Learning”,526页迁移学习也是一种优化方法,可以在对另一个任务建模时提高进展速度或者是模型性能。
“迁移学习就是通过从已学习的相关任务中迁移其知识来对需要学习的新任务进行提高。
”——第11章:转移学习,机器学习应用研究手册,2009年。
迁移学习还与多任务学习和概念漂移等问题有关,它并不完全是深度学习的一个研究领域。
尽管如此,由于训练深度学习模型所需耗费巨大资源,包括大量的数据集,迁移学习便成了深度学习是一种很受欢迎的方法。
但是,只有当从第一个任务中学到的模型特征是容易泛化的时候,迁移学习才能在深度学习中起到作用。
“在迁移学习中,我们首先在基础数据集和任务上训练一个基础网络,然后将学习到的特征重新调整或者迁移到另一个目标网络上,用来训练目标任务的数据集。
心理学第五章 学习的迁移
(四)同化性迁移、顺向迁移与重组 性迁移
v 同化性迁移是指不改变原有的认知结构,直 接将原有的认知经验应用到本质特征相同的 一类事物中去
v 顺应性迁移指将有认知经验应用于新情境中 时,需调整原有的经验或对新旧经验加以概 括,形成一种能包容新旧经验的更高一级的 认识结构,以适应外界的变化。
v 重组性迁移指重新组合原有认知系统中某些 构成要素或成分,调整各成分间的关系或建 立新的联系,从而应用于新情境。
v 以安德森等人为代表,认为如果两种情境中 有产生式的交叉或重叠,则可以产生迁移。
v 以加特纳,吉克等人为代表,认为前后两种 情境中的结构特征、内在关系与联系等本质 特征是决定迁移的关键成分,而表面的特征 则无关紧要。
v 第二种观点强调外界环境与主体的的相互作 用对迁移的影响。
第三节 迁移与教学
一个典型例证
二、促进迁移的学
v (一)精选教材 v (二)合理编排教学内容 v (三)合理安排教学程序 v (四)教授学习策略,提高迁移意识
三、迁移的作用
v 首先,迁移对于提高解决问题的能力具有 直接的促进作用。
v 其次,迁移是习得的经验得以概括化、系 统化的有效途径,是能力与品德形成的关 键环节。
v 第三,迁移规律对于学习者、教育工作者 以及有关的培训人员具有重要的指导作用。
第二节 学习迁移的基本理论
v 一、早期的迁移理论 v 早期的迁移理论主要包括 v 形式训练说,相同要素说、经验类化说与
v 一、影响迁移的主要因素 v (一)相似性 v 相似性的大小主要是由两任务中含有的共
同成分决定的,较多的共同成分将产生较 大的相似性,并导致迁移的产生。
(二)原有认知结构
v 首先,学习者是否拥有相应的背景知识,这 是迁移产生的基本前提条件。
迁移学习的分类方法
迁移学习简介迁移学习的分类方法代表性研究工作问题与展望迁移学习资源迁移学习简介•定义与概念•迁移学习vs 传统机器学习•与其他概念的对比迁移学习将会是引领下一次机器学习热潮的驱动力。
——吴恩达,NIPS 2016•什么是迁移学习?–心理学角度:人们利用之前的经验和知识进行推理和学习的能力。
–机器学习角度:一个系统将别的相关领域中的知识应用到本应用中的学习模式。
[DARPA]–举例:C++→Java;骑自行车→骑摩托车–关键词:举一反三•迁移学习要解决的问题:–给定一个研究领域和任务,如何利用相似领域进行知识的迁移,从而达成目标?•为什么要进行迁移学习?–数据的标签很难获取对已有知识的重用是必要的–从头建立模型是复杂和耗时的•迁移学习vs 传统机器学习传统机器学习迁移学习数据分布训练和测试数据同分布训练和测试数据不需要同分布数据标签足够的数据标注不需要足够的数据标注建模每个任务分别建模可以重用之前的模型传统机器学习迁移学习•与其他概念的对比–Life-long learning (终身学习) :连续不断地在一个域上学习–Multi-task learning (多任务学习):两个任务同时完成–Domain adaptation (域适配):迁移学习的子类–Incremental learning (增量学习):一个域上的不断学习–Self-taught learning (自我学习):从自身数据中学习–Covariance shift (协方差漂移):迁移学习的子类–……•迁移学习与其他已有概念相比,着重强调学习任务之间的相关性,并利用这种相关性完成知识之间的迁移。
•迁移学习常用概念–Domain (域):由数据特征和特征分布组成,是学习的主体•Source domain(源域):已有知识的域•Target domain (目标域):要进行学习的域–Task (任务):由目标函数和学习结果组成,是学习的结果•迁移学习的形式化定义–条件:给定一个源域和源域上的学习任务,目标域和目标域上的学习任务–目标:利用和学习在目标域上的预测函数。
第七章--学习的迁移
一、什么是学习迁移迁移的种类有哪些学习迁移是在某一种学科或情境中获得的技能、知识、理解或态度对在另一学科或情境中技能、知识、理解或态度的获得的影响。
简单地说,学习迁移就是指一种学习活动对另一种学习活动的影响。
在学习过程中,经常可以看到迁移现象。
例如,掌握英语的人学起法语来就比较容易;会骑自行车的人比不会骑的人学开摩托车要容易一些;会拉二胡的人,再学习弹三弦、拉小提琴,也比较容易。
此外,也可以看到一些与此相反的现象,如学汉语拼音对有些英语字母语音的学习常常发生干扰;习惯于右脚起跳的跳高技能对掌握用左脚起跳的撑杆跳高也有干扰作用。
这些都是学习迁移现象。
1.从迁移的性质来分,可以分成正迁移和负迁移。
正迁移也叫“助长性迁移”,是指一种学习对另一种学习的促进作用。
如学习数学有利于学习物理,学习珠算有利于心算,掌握平面几何有助于掌握立体几何等,懂得英语的人很容易掌握法语。
负迁移也叫“抑制性迁移”,是指一种学习对另一种学习产生阻碍作用。
如掌握了汉语语法,在初学英语语法时,总是出现用汉语语法去套英语语法,从而影响了英语语法的掌握,在立体几何中搬用平面几何的“垂直于同一条直线的两条直线相互平行”的定理,则会对立体几何有关内容的学习产生干扰等。
2.从迁移的方向来分,迁移可以分为顺向迁移和逆向迁移。
顺向迁移是指先前学习对后继学习发生的影响。
在物理中学习了“平衡”概念,就会对以后学习化学平衡、生态平衡、经济平衡产生影响。
通常所说的“举一反三”就是顺向迁移的例子。
逆向迁移是指后继学习对先前学习发生的影响。
如学习了微生物后对先前学习的动物、植物的概念会产生影响等。
3.根据迁移发生的方式来分,可以分为特殊迁移和非特殊迁移。
特殊迁移是指学习迁移发生时,学习者原有的经验组成要素及其结构没有变化,只是将一种学习中习得的经验要素重新组合并移用到另一种学习之中。
如跳水的一些项目,弹跳、空翻、入水等基本动作是一样的,运动员在某些项目中将这些基本动作熟练掌握,那么在学习新的跳水项目时,就可以把这些基本动作加以不同的组合,很快形成新的动作技能。
关于迁移学习的研究
迁移学习中的特征选择方法
特征选择的意义
常用特征选择方法
特征选择方法的评估
在迁移学习中,特征选择具有重要意 义。选择与目标任务相关的特征可以 减少计算复杂度,提高模型的泛化能 力。同时,合适的特征选择有助于挖 掘源任务和目标任务之间的内在联系 ,从而促进知识迁移。
一些常用的特征选择方法包括基于统 计的方法、基于模型的方法和基于启 发式的方法等。这些方法可以帮助我 们根据不同的准则筛选出与目标任务 相关的特征,例如基于相关性的选择 、基于方差阈值的过滤和基于互信息 的选择等。
总结词
模型结构的优化可以使得迁移学习更加适应 不同的任务和场景。
ห้องสมุดไป่ตู้
详细描述
在迁移学习中,模型结构的优化是非常重要 的。以下是一些有效的策略:1)使用深度 神经网络模型,因为它具有强大的特征学习 和泛化能力;2)使用卷积神经网络模型, 它可以更好地处理图像数据;3)使用循环 神经网络模型,它可以更好地处理序列数据 ;4)尝试调整模型的参数,如隐藏层大小
迁移学习应用
深度迁移学习方法将CNN用于不同任务之间的知识迁移。 通过在新任务上微调CNN的参数,可以利用在源任务上已 学到的知识,提高对新任务的泛化能力。这种方法在图像 分类、目标检测和人脸识别等任务中取得了显著成果。
CNN优化技巧
为了提高CNN的性能,一些优化技巧被引入深度迁移学习 方法中,例如正则化、批归一化、早停等。这些技巧有助 于减少过拟合现象,提高模型的泛化能力。
感谢您的观看
THANKS
基于特征的迁移学习
基于特征的迁移学习通过将源任 务学到的特征表示应用于目标任 务来学习新任务。这种方法能够 更有效地利用源任务的先验知识 ,但需要更复杂的特征提取和选 择技术。
学习的迁移
第三节 学习迁移理论的进展
一、认知结构迁移理论
人物
▪ 奥苏贝尔
1、观点
▪ 一切有意义的学习都是在原有学习的基础上产生的, 即有意义的学习必然包括迁移。在顺向迁移中,迁移 是通过认知结构这一中介变量起作用的,认知结构是 通过累积获得的、按一定层次组织的、适合当前学习 任务的知识体系。
观点
▪ 个体心理的组成部分是各种官能,如注意力、记忆力、推理等, 这些官能可以像肌肉一样通过训练而得到发展和加强。如果一种 官能在某种学习情境中得到改造,就可在与该官能有关的所有情 境中自动地起作用,从而表现出迁移的效应。
▪ 训练和改造各种官能,是教学最重要的目标,训练的项目越困难, 官能得到的训练就越多。形式的训练要比具体内容的学习更重要。
2、迁移的种类 陈——陈;陈——程;程——陈;程——程
3、教学含义 ▪ 教材选编,要考虑循序渐进(先后有重叠) ▪ 教学注重概念和原理的教学 ▪ 先前的学习必须有充分的练习,才易于迁移
三、认知策略的迁移理论
人物 ▪ 加泰勒
1、观点 ▪ 学习者自我评价是影响策略迁移的重要因素 ▪ 经过策略的有效性自我评价训练的儿童能长期运用
▪ 结论:由于经过训练的儿童对不同深度的目标可以作 出更适当的调整,将折射原理概括化,并运用到特殊 情境中去。
四、格式塔关系转换理论
1、人物 ▪ 柯勒
实验
2、观点
▪ 同意迁移主要是学习者对两种学习情境进行概括而引起的,并进 一步认为,迁移的产生主要是对学习情境内部关系的概括,学习 者“顿悟”了某个学习情境中的关系,就可以迁移到另一个有相 应关系的学习情境中去,产生学习迁移。
第五章学习的迁移
无 原 理 指 导
资料来源:Hendrickson and Schroeder (1941)
4吋 12吋
有 原 理 指 导
投 掷 击 中 率
练习后成绩
有原理指导 无原理指导
4吋处成绩
4吋处成绩
起始成绩
12吋处成绩
资料来源:Hendrickson and Schroeder (1941)
概括说理论
学习定势说(Learning Set)
探究实验
理论溯源
教学意义
背景资料、经验对迁移的作用——猴子觅食
情境一 情境二 情境三 食物在哪儿? 食物在哪儿? 食物在哪儿?
有经验与无经验的猴子 解决问题的成绩 (曲线表示辨别问题的平 均成绩)
猴子已经获得了解决问题 的学习定势——Harlow
背景资料、负迁移的例子
所给水罐刻度 要求取水量 A B C 1、前测练习 29 3 20 2、艾因斯特朗1 21 127 3 100 3、艾因斯特朗2 14 163 25 99 4、艾因斯特朗3 18 43 10 5 5、艾因斯特朗4 9 42 6 21 6、艾因斯特朗5 20 59 4 31 7、后测练习1 15 39 3 18 8、后测练习2 23 49 3 20 9、后测练习3 18 48 4 22 10、后测练习4 14 36 8 6 实验组:练习1———练习2~6———后测练习 控制组:练习1——————————后测练习 问题
背景资料、个体的作用——小鸡觅食
情境一
A B
形成表现—训练次数 400~600次 45次
A
B
情境二
食物在B中 被试 小鸡 小孩
食物在哪儿? 后测表现—觅食习惯 A B A B
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
什么是迁移学习?在机器学习的经典监督学习场景中,如果我们要针对一些任务和域 A 训练一个模型,我们会假设被提供了针对同一个域和任务的标签数据。
我们可以在图 1 中清楚地看到这一点,其中我们的模型 A 在训练数据和测试数据中的域和任务都是一样的(后面我会详细地定义什么是任务(task),以及什么是域(domain))。
现在,让我们假设,一个任务就是我们的模型要去执行的目标,例如,识别图片中的物体;而域就是数据的来源,例如,来自于旧金山的咖啡店的照片。
图 1:机器学习领域中传统监督学习的设置现在我们可以在这个数据集上训练一个模型 A,并期望它在同一个任务和域中的未知数据上表现良好。
在另一种情况下,当给定一些任务或域 B 的数据时,我们还需要可以用来训练模型 B 的有标签数据,这些数据要属于同一个任务和域,这样我们才能预期能在这个数据集上表现良好。
当我们没有足够的来自于我们关心的任务或域的标签数据来训练可靠的模型时,传统的监督学习范式就支持不了了。
如果我们要训练一个模型来检测在夜间拍摄的照片上的行人,我们可以用一个在相似的域中训练的模型,例如白天拍摄的图片。
然而,实际上,我们经常会遭遇表现上的衰退或者崩溃,因为模型已经继承了它的训练数据中的偏差,不知道如何泛化到新的域中。
如果我们要训练一个模型来执行新的任务,例如检测骑自行车的人,我们甚至不能够使用已有的模型,因为任务之间的标签都是不一样的。
迁移学习允许我们通过借用已经存在的一些相关的任务或域的标签数据来处理这些场景。
我们尝试着把在源域中解决源任务时获得的知识存储下来,并将其应用在我们感兴趣的目标域中的目标任务上去,如图 2 所示。
图 3:吴恩达在 2016 年 NIPS 上谈论迁移学习特别地,他在白板上画了一个图表,我尽可能忠实地将它复制在如下所示的图 4 中(抱歉坐标轴没有详细的标注)。
据吴恩达说,迁移学习将成为机器学习在产业界取得成功的一个关键驱动力。
图 4:吴恩达心中机器学习产业成功的驱动力不容置疑,机器学习在产业界的应用和成功主要是受监督学习的驱动。
受到深度学习中的进步、更强大的计算资源以及大量的标签数据集的推动,监督学习是人们对人工智能的兴趣复苏浪潮、多轮融资以及收购的主要原因,尤其是我们近年来看到的机器学习的应用,它们已经成为了我们生活的一部分。
如果我们忽视关于另一个人工智能寒冬的怀疑和传言,并且相信吴恩达的预见,这种成功很可能会持续下去。
然而,不太清楚为什么已经存在了大约几十年并且至今在产业界很少被使用的迁移学习会出现吴恩达所预言的那种爆炸式增长。
更有甚者,与机器学习的其他领域(如无监督学习和强化学习等)相比,迁移学习目前受到的关注更少。
而且那些领域也正越来越受欢迎:无监督学习是实现通用人工智能的关键成分(如图 5 中 Yann LeCun 所说),人们对此兴趣已经复苏,尤其是在生成对抗网络(GAN)的推动下。
反过来,强化学习在 Google DeepMind 的牵头下已经实现游戏 AI 的进步,AlphaGo 的成功堪称典范,并且也早已在现实世界中实现了成功,例如将Google 数据中心的冷却费用降低了 40%。
这两个领域虽然很有希望,但是在可预见的未来可能只会有着相对较小的商业影响力,并且大部分还停留在前沿研究论文的范围之内,因为它们仍然面临着许多挑战。
图 5:显然迁移学习没有出现在 Yann LeCun 的蛋糕成分问题中什么使得迁移学习与众不同呢?下面我们会看一下在我看来驱使了吴恩达的预见的因素,并且总结一下现在正是重视迁移学习的时机的原因。
目前产业界对机器学习的应用分为两类:一方面,在过去几年中,我们已经获得了训练越来越准确的模型的能力。
我们现在所处的阶段,对很多任务而言,最先进的模型已经达到了这样的水平:它们的表现是如此的好以至于对使用者来说不再有障碍了。
有多么好呢?最新的ImageNet 上的残差网络 [1] 在进行物体识别时实现了超越人类的性能;Google 的 Smart Reply 系统 [2] 可以处理所有移动手机中的回复的 10%;语音识别的错误率在持续降低,并且比键盘输入更加准确 [3];我们已经实现了和皮肤科医师一样好的自动皮肤癌识别;Google 的神经机器翻译系统(NMT)[4] 已被用在了超过 10 种以上的语言对的生产中;百度可以实时地生成逼真的语音;类似的还有很多很多。
这种成熟度允许将这些模型大规模地部署到数百万的用户上,并且已经得到了广泛的采用。
另一方面,这些成功的模型都是极其地重视数据的,依靠大量的标签数据来实现它们的性能。
对一些任务和域而言,经过了多年的精心收集,这种数据是可以得到的。
在少数情况下,数据是公开的,例如 ImageNet[5],但是在很多语音或者MT 的数据集中,大量的标签数据都是有专利的,或者是很昂贵的,因为它们在竞争中提供了前沿参考。
同时,把机器学习的模型应用在自然环境中时,模型会面临大量之前未曾遇到的条件,它不知道如何去处理;每一个用户都有他们自己的偏好,也需要处理和生成不同于之前用来训练的数据;要求模型执行很多和训练相关但是不相同的任务。
在所有这些情况下,尽管我们最先进的模型在它们被训练的任务和域上展示出了和人类一样甚至超越人类的性能,然而还是遭遇了明显的表现下降甚至完全失败。
迁移学习可以帮助我们处理这些全新的场景,它是机器学习在没有大量标签数据的任务和域中规模化应用所必须的。
到目前为止,我们已经把我们的模型应用在了能够容易获取数据的任务和域中。
为了应对分布的长尾,我们必须学会把已经学到的知识迁移到新的任务和域中。
为了做到这个,我们需要理解迁移学习所涉及到的概念。
基于这个原因,我会在下面的内容中给出更加技术性的定义。
迁移学习的定义为了这个定义,我会紧密地遵循 Pan 和 Yang(2010) 所做的杰出的综述 [6],并以一个二元文档分类为例。
迁移学习涉及到域和任务的概念。
一个域 D 由一个特征空间 X 和特征空间上的边际概率分布 P(X) 组成,其中X=x1,…, xn∈X。
对于有很多词袋表征(bag-of-words representation)的文档分类,X 是所有文档表征的空间,xi 是第 i 个单词的二进制特征,X 是一个特定的文档。
(注:这里的 X 有两种不同的形式,这里不太好呈现,具体请参考原文。
)给定一个域 D={X,P(X)},一个任务 T 由一个标签空间 y 以及一个条件概率分布 P(Y|X)构成,这个条件概率分布通常是从由特征—标签对xi∈X,yi∈Y 组成的训练数据中学习得到。
在我们的文档分类的例子中,Y 是所有标签的集合(即真(True)或假(False)),yi 要么为真,要么为假。
给定一个源域 Ds,一个对应的源任务 Ts,还有目标域 Dt,以及目标任务 Tt,现在,迁移学习的目的就是:在Ds≠Dt,Ts≠Tt 的情况下,让我们在具备来源于 Ds 和 Ts 的信息时,学习得到目标域 Dt 中的条件概率分布 P(Yt|Xt)。
绝大多数情况下,假设可以获得的有标签的目标样本是有限的,有标签的目标样本远少于源样本。
由于域 D 和任务 T 都被定义为元组(tuple),所以这些不平衡就会带来四个迁移学习的场景,我们将在下面讨论。
迁移学习的场景给定源域和目标域 Ds 和 Dt,其中,D={X,P(X)},并且给定源任务和目标任务 Ts 和 Tt,其中 T={Y,P(Y|X)}。
源和目标的情况可以以四种方式变化,我们仍然以我们的文档分类的例子在下面描述:1.XS≠XT。
源域和目标域的特征空间不同,例如,文档是用两种不同的语言写的。
在自然语言处理的背景下,这通常被称为跨语言适应(cross-lingual adaptation)。
2.P(Xs)≠P(Xt)。
源域和目标域的边际概率分布不同,例如,两个文档有着不同的主题。
这个情景通常被称为域适应(domain adaptation)。
3.YS≠YT。
两个任务的标签空间不同,例如,在目标任务中,文档需要被分配不同的标签。
实际上,这种场景通常发生在场景 4 中,因为不同的任务拥有不同的标签空间,但是拥有相同的条件概率分布,这是极其罕见的,4.P(Ys|Xs)≠P(Yt|Xt)。
源任务和目标任务的条件概率分布不同,例如,源和目标文档在类别上是不均衡的。
这种场景在实际中是比较常见的,诸如过采样、欠采样以及 SMOTE[7] 这些方法被广泛应用。
在明白了与迁移学习相关的概念和常被用到的一些场景之后,我们将要介绍一些能够说明它的潜力的应用。
迁移学习的应用从模拟中学习一个非常令我兴奋并且我认为我们在将来会见到更多的迁移学习应用就是从模拟中学习。
对很多依靠硬件来交互的机器学习应用而言,在现实世界中收集数据、训练模型,要么很昂贵,要么很耗时间,要么只是太危险。
所以最好能以某些风险较小的其他方式来收集数据。
模拟是针对这个问题的首选工具,在现实世界中它被用来实现很多先进的机器学习系统。
从模拟中学习并将学到的知识应用在现实世界,这是迁移学习场景 2 中的实例,因为源域和目标域的特征空间是一样的(仅仅依靠像素),但是模拟和现实世界的边际概率分布是不一样的,即模拟和目标域中的物体看上去是不同的,尽管随着模拟的逐渐逼真,这种差距会消失。
同时,模拟和现实世界的条件概率分布可能是不一样的,因为模拟不会完全复制现实世界中的所有反应,例如,一个物理引擎不会完全模仿现实世界中物体的交互。
图 6:谷歌的自动驾驶车辆(来源: Google Research 博客)从模拟中学习有利于让数据收集变得更加容易,因为物体可以容易地被限制和分析,同时实现快速训练,因为学习可以在多个实例之间并行进行。
因此,这是需要与现实世界进行交互的大规模机器学习项目的先决条件,例如自动驾驶汽车。
谷歌无人车的技术主管 Zhaoyin Jia 说,「如果你真的想做无人驾驶车,模拟是必需的」。
Udacity 已经开源了它用来进行无人驾驶汽车工程纳米学位教学的模拟器,在图 7 中可以看到,OpenAI 的 Universe 平台将可能允许用《侠盗飞车 5(GTA 5)》或者其他视频游戏来训练无人驾驶汽车。
图 7:Udacity 的无人驾驶汽车模拟器另一个必需从模拟中学习的领域是机器人:在实际的机器人上训练模型是非常缓慢和昂贵的。
从模拟中学习并且将知识迁移到现实世界的机器人上的方式能缓解这个问题,并且这种方面最近正得到越来越多的关注 [8]。
图 8 中可以看到一个在现实世界和模拟中操作数据的一个例子。
图 8:机器人和模拟图片 (Rusu et al., 2016)最后,另一个方向是通向通用人工智能的途径,其中模拟会是一个必需的组成部分。