现代机器学习理论大作业
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
现代机器学习理论大作业
题目:葡萄酒的种类识别
----基于支持向量机(SVM )的数据分类预测
学院:_________________
姓名:_________________
学号:_________________
现代机器学习理论》葡萄酒的种类识别
-- 基于支持向量机(SVM )的数据分类预测
一、理论知识
1、支持向量机(SVM )简介
支持向量机(SVM )是Vapnik 等人根据统计学习理论提出的一种学习方法,近年来在模式识别、回归分析、图像处理和数据挖掘等方面得到了广泛应用。支持向量机方法根据Vapnik 的结构风险最小化原
则,尽量提高学习机的泛化能力,即由有限训练样本得到的决策规则,对独立的测试集仍能够得到小的误差。此外,支持向量机算法是一个凸二次优化问题,能够保证找到的极值解就是全局最优解。这些特点使支持向量机成为一种优秀的学习算法。
目前在国外,SVM 是一个研究的热门,并目已经取得了一些成果。这一点可以从近几年国外发表的学术论文看出,IEEE Transactions on Neural Networks 也已经出版了关于VC 理论和SVM 方面的专集。自从90 年代初经典SVM 的提出,由于其完整的理论框架和在实际应用中取得的很多好的效果,
在机器学习领域受到了广泛的重视。其理论和应用在横向和纵向上都有了发展。
目前对SVM 的理论研究与进展主要包括:模糊支持向量机;最小二乘支持向量机;加权支持向量机;主动学习的支持向量机等。而对算法的改进主要内容有:降低计算量;自适应算法的研究;噪声数据处理;核函数的构造和参数的选择理论研究;主动学习策略的应用;增量学习等。
虽然SVM 方法在理论上具有很突出的优势,但与其理论研究相比,应用研究相对比较落后。最近几年,应用研究才逐渐地多起来。在模式识别领域,包括手写体数字识别、人脸检测、语音识别、目标识别、文本分类等方面,取得了一定的成果。此外,支持向量机具有调节参数少,运算速度快,时间代价小的优点,随着支持向量机理论研究的逐步深入,支持向量机在模式识别、回归估计、概率密度函数估计等问题上的研究也逐步深入,必将成为各国研究者的研究热点。
2、支持向量机(SVM )原理
支持向量机(Support Vector Machine ,简称SVM)是建立在统计学习理论的VC维理论和
结构风险最小原理的基础上发展起来的一种机器学习方法。支持向量机集成了最大间隔超平
面、Mercer核、凸二次规划、稀疏解和松弛变量等多项技术。支持向量机的学习目标就是
构造一个决策函数,能够将数据点尽可能多的正确分开。
2.1线性可分问题
在很多现实情况下,训练样本数据具有噪声,特征空间一般不能线性分开,不可能建立一个不具有分类误差的分类超平面。如下图所示,希望找到一个最优超平面,对整个训练集合平均的分类误差的概率达到最小。
图1.2.1线性不可分示意图
我们在原有基础上引入了松弛变量i 0, i可以用来度量样本x i违反约束条件的程度,在允许一定的程度上违反间隔约束。约束条件就变为
y i W T X i b 1 i, i 1,2,L ,n
对于0i 1,样本A落入分离区域的内部,挡在分类面的正确一侧,对于i 1,则i可以用来度量样本X i违反约束条件的程度,在允许一定的程度上违反间隔约束。约束条件就变为
y W T X i b 1 i, i 1,2,L ,n
则问题的目标函数和约束条件就为
1 2 min 2 W||
n
C
i 1
i
其中i 0,i 1,2丄,n
s.t y i W T X b 1 i
n
其中i提现了经验风险,
i 1
IWII2体现了表达能力,C为惩罚参数,它的作用是控制
对错分样本的惩罚程度,实现在错分样本的比例与最大分类间隔之间的折中,C数值越大,则对错误的惩罚越重,这个值得选取依赖于经验或通过实验确定。相应地,也可以通过拉格朗日函数来求参数。
线性不可分的约束最优化问题中W和b的最优值的计算和线性可分情况中的过程是相
同的,因此线性可分可以看作是线性不可分的特例。线性可分和线性不可分也仅仅区分在它
们的约束条件不同,线性可分的约束条件是i 0,而线性不可分的约束条件是0 i C。
2.2非线性支持向量机
在上述讨论的支持向量机必须所有的训练样本能够被线性分开,构造出最优分类面,很多实际情况中训练样本是不能够被线性分开的,就引出了非线性支持向量机。非线性支持向量机的实现就是通过某种事先选择的非线性映射(核函数)将输入向量映射到一个高维特征空间中,在这个空间中构造最优分类超平面。
:R H ,将输入向量从原始的低维空间R n映射到新的高维空间假设有非线性映射
H中去,然后在高维特征空间中利用二次规划的方法寻找最优超平面。这就意味着建立非
线性学习器分为两步:首先使用一个非线性映射将训练样本数据变换到一个特征空间中,然
后在这个特征空间使用线性学习分类器分类。图 1.2.2展示了样本从二维输入空间映射到二
维特征空间,在输入空间数据不能通过线性函数分开,但是在特征空间是可以的。
图1.2.2特征的映射
K x,y
2 1 2 cos x y
在上面的线性支持向量机对偶问题中, 不论是目标函数还是分类函数都只涉及到训练样
本之间的内积运算;X i ,X j :,如果有一种方式可以在高维特征空间中直接计算内积,就避免 了复杂的高维运算。就像在原始输入点的函数中一样,
就有可能将两个步骤融合到一起建立
一个非线性的学习器。因此,我们只要能够找到一个核函数K 使得 K X i ,X j :
X i , X j ]。根据泛函的有
关理论,只要核函数满足 Mercer 条件,就对应
某一变换空间的内积。
因此,在最优分类面中采用满足 Mercer 条件的内积函数 K X i ,X j 就
可以实现某一非线性变换后的线性分类,而计算复杂度却没有增加。
将核函数K X i ,X j 带入原问题中,即可得到用于分类的非线性的支持向量机
s.t y i W T g
X i
b
求解最优决策方法与线性的类似。
训练样本数据映射到高维特征空间中,
在求解最优化
问题和计算决策函数时并不需要显式计算该非线性函数,
而只需计算核函数,从而避免了特 征空
间的维数灾难。
核函数是输入空间和特征空间之间的映射,
核函数的选择对非线性支持向量机的构建起
着至关重要的作用,核函数的选择是一个难题,下面列出了几种常用的核函数
:
(1) 线性可分
K x,y x y
⑵
多项式核函数
K x, y
' x, y r
径向基(RBF )核函数
K x, y exp
Sigmoid 核函数(多层感知器核函数)
正则傅里叶核函数
min
1
||W |
2 n
C
i
2
i 1
K x,y
tanh x,y r