一份关于机器学习“模型再训练”的终极指南

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

一份关于机器学习“模型再训练”的终极指南

机器学习模型的训练,通常是通过学习某一组输入特征与输出目标之间的映射来进行的。一般来说,对于映射的学习是通过优化某些成本函数,来使预测的误差最小化。在训练出最佳模型之后,将其正式发布上线,再根据未来生成的数据生成准确的预测。这些新数据示例可能是用户交互、应用处理或其他软件系统的请求生成的——这取决于模型需要解决的问题。在理想情况下,我们会希望自己的模型在生产环境中进行预测时,能够像使用训练过程中使用的数据一样,准确地预测未来情况。

当我们将模型部署到生产中时,往往会假设未来将使用到的数据会类似于过去模型评估期间所使用的数据。具体来说,我们可能会假设,特征和目标的分布将保持相当的恒定。但是这种假设通常不成立。趋势会随着时间的推移而变化,人们的兴趣会随着季节的变化而变化,股票市场会起伏不定。因此,我们的模型必须适应这些变化。

世界是持续变化的,因此模型部署应视为一个连续的过程,而不是完成第一次部署之后就扭头去开展下一个项目。如果机器学习团队的工程师发现数据分布与原始训练集的数据分布有明显出入,则需要重新训练模型。这个现象——通常被称为模型漂移(model drift)——可以缓解,但是会带来额外的开销,如监视基础设施、监督和流程等等。

在本文中,笔者想对模型漂移下定义,并讨论如何去识别和跟踪模型漂移。然后,我将描述如何重新训练模型,来减轻漂移对预测性能的影响,并对应多久重新训练一次模型做出建议。最后,我将介绍启用模型重新训练的几种方法。

什么是模型漂移?

模型漂移是指,由于环境的变化违反了模型假设,而导致模型的预测性能随时间而降低。模型漂移有点用词不当,因为变化的不是模型,而是模型运行的环境。因此,概念漂移(concept drift)一词实际上可能是一个更好的用词,不过两个术语都描述了相同的现象。

请注意,笔者对模型漂移的定义实际上包括几个可以更改的变量。预测性能将下降,它将在一段时间内以某种速率下降,并且这种下降会归因于违反建模假设的环境变化。在确定如何诊断ai服务器模型漂移以及如何通过模型再训练纠正模型漂移时,应考虑这些变量中的每一个。

如何跟踪模型漂移?

目前业内已有多种识别和跟踪模型漂移的技术。在介绍这些技术之前,值得一提的是,并没有一种万能的方法。不同的模型问题需要不同的解决方案,您可能有、也可能没有相应的基础架构或资源来利用某些技术策略。

模型性能降级

识别模型漂移的最直接方法是明确预测性能是否已下降,同时量化这种下降。测量实时数据上已部署模型的准确性是一个众所周知的难题。之所以出现这种困难,部分原因是我们需要访问生成的模型的预测和基本事实信号。出于以下这些原因,这可能无法实现:

·预测的数据在生成后没有存储——别让这种事发生在你身上。

·预测已存储,但是您无法访问基本事实标签。

·预测和标签均可用,但不能结合在一起。

即使预测和标签可以合并在一起,也可能需要一段时间才能使用标签。例如一个可以预测下一季度收入的财务预测模型。在这种情况下,只有在该季度过去之后才能观察到实际收入,所以直到那个时候你才能够量化模型的效果。在此类预测问题中,回填预测(即训练模型,并根据过去的历史数据生成预测)可以帮助您了解模型性能下降的速度。

正如Josh Wills 指出的那样,在部署模型之前您可以做的最重要的事情之一就是试图了解离线环境中的模型漂移。数据科学家应想办法回答以下问题:“如果我使用六个月前的浪潮ai服务器数据对这组特征进行训练,并将其应用于今天生成的数据,那么这个模型比我一个月前未经训练而创建并应用到今天的模型差多少呢?”。离线执行此分析,您可以估计模型性能下降的速度以及需要重新训练的频率。当然,这种方法的前提是要有一台“时光机”来访问过去任何时候的实时数据。

检查训练和实时数据的特征分布

由于随着输入特征的分布逐渐偏离训练数据的分布,模型性能会下降,因此比较这些分布是推断模型漂移的好方法。请注意,这里说的是推断而不是检测模型漂移,因为我们没有观察到预测性能的实际下降,而是“预计”会出现下降。在由于数据生成这一过程的性质,而无法观察到实际基本事实的情况下,这会非常有用。

每个特征需要监视许多不同的东西,包括:

·可能值的范围

·值直方图

·该功能是否接受NULL,如果是,则预期的NULL数量

能够通过控制界面快速监控这些分布,是朝正确方向迈出的一步。当特征差异很大时,可以通过自动跟踪训练服务偏差并在特性差异显著时发出警告,进一步实现这一点。

检查特征之间的关联

许多模型会假定特征之间的关系必须保持固定。因此,您还需要监视各个输入特征之间的成对关联。如您的ML测试分数是多少?ML生产系统的规范等等,可以通过以下方法实现:

·监视特征之间的相关系数

·训练具有一两个特征的模型

·训练一组模型,每个模型都删除其中一个特征

检查目标分布

如果目标变量的分布发生显着变化,那么模型的预测性能几乎一定会变差。《机器学习:技术债务高息信用卡》的作者指出,一种简单而有用的诊断方法是跟踪目标分布。与训练数据的偏差可能意味着需要重新评估部署模型的质量,但请记住,“这绝不是一项全面的测试,因为它可以通过空模型来满足,该模型可以简单地预测标签出现的平均值,而无需考虑输入特征。”

模型再训练到底是什么意思?

模型再训练似乎是一个超负荷的操作,它是否只涉及到寻找现有模型架构的新的浪潮服务器参数?对于更改超参数搜索空间怎么样?如何搜索不同的模型类型(RandomForest,SVM等)?我们可以包括新特征还是可以排除以前使用的特征?这些都是很好的问题,因此尽可能明确这些问题是非常重要的。要回答这些问题,重要的是直接考虑我们要解决的问题——也就是说,减少模型漂移对我们部署的模型的影响。

在将模型部署到生产数据之前,科学家需要经过严格的模型验证过程,其中包括:

·汇编数据集–收集来自不同来源(例如不同数据库)的数据集。

·特征工程–从原始数据中提取列,提高预测性能。

·模型选择–比较不同的学习算法。

·错误估计–在搜索空间上进行优化,找到最佳模型并估计其泛化误差。

此过程会产生一些最佳的模型,然后将其部署到生产中。由于模型漂移具体是指所选模型的预测性能由于特征/目标数据分布的变化而下降,因此模型再训练不应该带来不同的模型生成过程。确切地说,重新训练只是指在新的训练数据集上重新运行生成先前选择的模型的过程。功能、模型算法和超参数搜索空间都应保持相同。可以这样想,再训练不涉及任何代码更改,只涉及改变训练数据集。

这并不是说模型的未来迭代不应包含新特征或不考虑其他算法类型/体系结构。只是说,这些类型的更改会产生完全不同的模型——在部署到生产环境之前,应该对它们进行不同的测试。根据您的机器学习团队的成熟程度,理想情况下,此类更改将与A / B测试一起引入,以测量新模型对预先确定的兴趣指标(例如用户参与度或保留率)的影响。

应该多久重新训练一次模型

到目前为止,我们已经讨论了什么是模型漂移以及识别它的多种方法。于是问题就变成了,我们该如何补救?如果模型的预测性能由于环境变化而下降,解决方案是在反映当前实际情况的新训练集上对模型进行重新训练。那么,您应该多久重新训练一次模型?如何确定新的训练集?对于最困难的问题,答案是视情况而定。但如何视情况而定呢?

有时机器学习问题本身会给出何时需要重新训练模型的建议。例如,假设您正在一家大学招生办工作,并负责建立一个可以预测学生下学期是否会回来的学生流失模型。该模型将在期中后直接用于对当前学生群体进行预测。被确定有流失风险的学生将自动被纳入辅导课程或其他干预措施。

下面我们思考一下这种模型的时间范围。由于我们每学期一次批量生成预测,因此没有必要再频繁地重新训练模型,因为我们将无法访问任何新的训练数据。因此,在观察上学期的哪些学生退学后,我们可能选择在每个学期开始时重新训练我们的人工智能服务器模型。这就是定期再训练计划的一个示例。从这

相关文档
最新文档