非线性支持向量机

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

非线性支持向量机

建立非线性支持向量机分为两步:首先将非线性数据转变到一个维数比原空间高的新的特征空间中,然后再新的特征空间中使用线性支持向量机。

我们通常将描述数据的量成为特征,而把选择随合适表达式将非线性数据转变到特征空间的任务成为特征选择。

在解决一个特征空间中的最优分类面问题时,我们只需要考虑这个空间中的内积运算。根据虽有分类面的性质,当非非线性支持向量机映射到特征空间时,在这个变幻空间中我们只需要进行内积运算即可。如果有一种方法可以在变换空间中直接计算内积,使其与原空间中的内积计算直接对应,那么久省去了通过特征选择将一个非线性支持向量机映射到特征空间的不会步骤。这样即使变换空间的维数增加许多,计算的复杂度也没增加多少。核函数方法就是这样一种方法。

核函数的定义:

定义:核是一个函数K,对所有x i,x jϵX,满足:K x i,x j=<∅(x i)∙∅(x j)>,∅为从X到特征空间F的映射。注意:核函数为对称函数。

因为K x i,x j=<∅(x i)∙∅(x j)>,所以在SVM算法中只需用到K,而无需考虑如何得到∅。如果在算法中每处的x i∙x j都由K x i,x j替代,算法就能在特征空间F中使用SVM,并且训练样本所花时间与训练原始样本所花时间相同。因此,在完成核变换后,所有操作和线性SVM一样,只不过操作进行的空间不一样。

在支持向量机中,最常用的核函数是:

多项式:

K x i,x j=(x i T x j+1)q,q>0

径向基函数:

K x i,x j=exp⁡(−x i−x j2σ2

)

双曲正切:

K x i,x j=tanh⁡(βx i T x j+γ)

下面,我们将用一个例子来说明该如何选择核函数。

假设训练数据都是R2中的向量,我们选择核函数K x i,x j=(x i∙x j)2。这样我们很容易找到一个新的空间H,以及从R2→ 的特征映射∅,比如说:(x i∙x j)2=∅x∙∅(y)如果选择H=R3,则

∅ x = x 1

2 2x 1x 2x 2

2

如果H =R 4,则

∅ x = x 12x 1x 2x 1x 2x 2

2 Mercer 条件

在统计学习理论中,只有当运算符合mercer 条件时,才可以进行内积运算。

令x ∈X ,∅是从X 到特征空间F 的映射,那么对于任意的对称函数K (x ,z ),mercer 在特征空间F 中内积运算的充分必要条件是:

对任意的g (x )≠0,有

g (x )2dx <∞

K x ,z g x g (z )dxdz ≥0

一旦引入适当的核函数,就相当于把原特征空间变化到某一个新的特征空间,此时,优化函数就成为了:

maxQ β = βi −12m

i =1 βi βj y i y j K (x i ∙x j )m i ,j =1 对应的最优分类函数也就变为:

f x =sgn (

βi y i K x i ,x +b m i =1) 这就是非线性情况下的支持向量机。

相关文档
最新文档