现代机器学习理论大作业
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
现代机器学习理论大作业
题目:葡萄酒的种类识别
---- 基于支持向量机(SVM)的数据分类预测
学院:
姓名:
学号:
《现代机器学习理论》葡萄酒的种类识别
---- 基于支持向量机(SVM)的数据分类预测
一、理论知识
1、支持向量机(SVM)简介
支持向量机(SVM)是Vapnik等人根据统计学习理论提出的一种学习方法,近年来在模式识别、回归分析、图像处理和数据挖掘等方面得到了广泛应用。支持向量机方法根据Vapnik的结构风险最小化原则,尽量提高学习机的泛化能力,即由有限训练样本得到的决策规则,对独立的测试集仍能够得到小的误差。此外,支持向量机算法是一个凸二次优化问题,能够保证找到的极值解就是全局最优解。这些特点使支持向量机成为一种优秀的学习算法。
目前在国外,SVM是一个研究的热门,并目已经取得了一些成果。这一点可以从近几年国外发表的学术论文看出,IEEE Transactions on Neural Networks也已经出版了关于VC理论和SVM方面的专集。自从90年代初经典SVM的提出,由于其完整的理论框架和在实际应用中取得的很多好的效果,在机器学习领域受到了广泛的重视。其理论和应用在横向和纵向上都有了发展。
目前对SVM的理论研究与进展主要包括:模糊支持向量机;最小二乘支持向量机;加权支持向量机;主动学习的支持向量机等。而对算法的改进主要内容有:降低计算量;自适应算法的研究;噪声数据处理;核函数的构造和参数的选择理论研究;主动学习策略的应用;增量学习等。
虽然SVM方法在理论上具有很突出的优势,但与其理论研究相比,应用研究相对比较落后。最近几年,应用研究才逐渐地多起来。在模式识别领域,包括手写体数字识别、人脸检测、语音识别、目标识别、文本分类等方面,取得了一定的成果。此外,支持向量机具有调节参数少,运算速度快,时间代价小的优点,随着支持向量机理论研究的逐步深入,支持向量机在模式识别、回归估计、概率密度函数估计等问题上的研究也逐步深入,必将成为各国研究者的研究热点。
2、支持向量机(SVM)原理
支持向量机(Support Vector Machine ,简称SVM)是建立在统计学习理论的VC 维理论和结构风险最小原理的基础上发展起来的一种机器学习方法。支持向量机集成了最大间隔超平面、Mercer 核、凸二次规划、稀疏解和松弛变量等多项技术。支持向量机的学习目标就是构造一个决策函数,能够将数据点尽可能多的正确分开。
2.1 线性可分问题
在很多现实情况下,训练样本数据具有噪声,特征空间一般不能线性分开,不可能建立一个不具有分类误差的分类超平面。如下图所示,希望找到一个最优超平面,对整个训练集合平均的分类误差的概率达到最小。
图1.2.1 线性不可分示意图
我们在原有基础上引入了松弛变量0,i i ξξ≥可以用来度量样本i x 违反约束条件的程度,在允许一定的程度上违反间隔约束。约束条件就变为
()1,T i i i y W x b ξ⋅+≥- 1,2,
,i n =
对于01i ξ≤≤,样本i x 落入分离区域的内部,挡在分类面的正确一侧,对于1i ξ≥,则i ξ可以用来度量样本i x 违反约束条件的程度,在允许一定的程度上违反间隔约束。约束条件就变为
()1,T i i i y W x b ξ⋅+≥- 1,2,
,i n =
则问题的目标函数和约束条件就为
()2
1
1min 2
..1n
i
i T i i i
W
C s t y W x b ξξ=+⋅+≥-∑ 其中0,1,2,
,i i n ξ≥=
其中
1
n
i i ξ=∑提现了经验风险,2
W 体现了表达能力,C 为惩罚参数,它的作用是控制
对错分样本的惩罚程度,实现在错分样本的比例与最大分类间隔之间的折中,C 数值越大,则对错误的惩罚越重,这个值得选取依赖于经验或通过实验确定。相应地,也可以通过拉格朗日函数来求参数。
线性不可分的约束最优化问题中W 和b 的最优值的计算和线性可分情况中的过程是相同的,因此线性可分可以看作是线性不可分的特例。线性可分和线性不可分也仅仅区分在它们的约束条件不同,线性可分的约束条件是0i α≥,而线性不可分的约束条件是0i C α≤≤。
2.2 非线性支持向量机
在上述讨论的支持向量机必须所有的训练样本能够被线性分开,构造出最优分类面,很多实际情况中训练样本是不能够被线性分开的,就引出了非线性支持向量机。非线性支持向量机的实现就是通过某种事先选择的非线性映射(核函数)将输入向量映射到一个高维特征空间中,在这个空间中构造最优分类超平面。
假设有非线性映射
:,n
R H φ→将输入向量从原始的低维空间n R 映射到新的高维空间H 中去,然后在高维特征空间中利用二次规划的方法寻找最优超平面。这就意味着建立非
线性学习器分为两步:首先使用一个非线性映射将训练样本数据变换到一个特征空间中,然后在这个特征空间使用线性学习分类器分类。图1.2.2展示了样本从二维输入空间映射到二维特征空间,在输入空间数据不能通过线性函数分开,但是在特征空间是可以的。
图1.2.2 特征的映射
在上面的线性支持向量机对偶问题中,不论是目标函数还是分类函数都只涉及到训练样
本之间的内积运算,i j x x ,如果有一种方式可以在高维特征空间中直接计算内积,就避免了复杂的高维运算。就像在原始输入点的函数中一样,就有可能将两个步骤融合到一起建立一个非线性的学习器。因此,我们只要能够找到一个核函数K 使得
()()(),,i j i j K x x x x φφ=。根据泛函的有关理论,只要核函数满足Mercer 条件,就对应
某一变换空间的内积。因此,在最优分类面中采用满足Mercer 条件的内积函数()
,i j K x x 就可以实现某一非线性变换后的线性分类,而计算复杂度却没有增加。
将核函数()
,i j K x x 带入原问题中,即可得到用于分类的非线性的支持向量机
()()2
2
1
1
min 2
..1n
i i T i i i
W
C s t y W x b ξφξ=++≥-∑
求解最优决策方法与线性的类似。训练样本数据映射到高维特征空间中,在求解最优化问题和计算决策函数时并不需要显式计算该非线性函数,而只需计算核函数,从而避免了特征空间的维数灾难。
核函数是输入空间和特征空间之间的映射,核函数的选择对非线性支持向量机的构建起着至关重要的作用,核函数的选择是一个难题,下面列出了几种常用的核函数:
(1) 线性可分
(),K x y x y =⋅
(2) 多项式核函数
()(),,d
K x y x y r γ=+
(3) 径向基(RBF)核函数
()(
)2
,exp K x y x y
γ=--
(4) Sigmoid 核函数(多层感知器核函数)
()()(),tanh ,K x y x y r γ=+
(5) 正则傅里叶核函数
()()()
221,212cos y K x y x y γγ-=
--+