基于优化算法的核函数参数选择的研究
合集下载
相关主题
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
N
R ( ) ( )+ ( h / l ) ( 1 ) α ≤R α e m p 其中, R ( ) 为实际风险, R ( ) 为经验风险, ( h / l ) 为置信范 α α e m p 围, h 为函数集的 V C维, l 为训练样本数目。 根据推广能力理论, 把函数集构造为一个函数子集序列 S 1 使各个子集按照 V C维的大小( 亦即 h的大 S …S …, 2 n 小) 排列, 即h h … h …。其结构示意如图 1所示。 ≤ 2≤ ≤ k ≤ 1
1 ] V C维及训练样本的个数所构成的 [ 。真实风险界可简化为:
1 . 2 支持向量机算法
依据支持向量机理论, 设给定的训练数据集为: { x , y } , 其 i i 中i = 1 , …, l , 在线性不可分时, 可以通过函数 φ ( · ) 将原始的输 入空间 x 映射到新的高维空间 φ ( x ) 下, 并在新的高维特征空间 ( x ) 下实现线性可分。则最优分类超平面 H的方程可以写作 φ 如下形式: ·φ ( x )+ b = 0 ω 此时, 待求解的问题可以描述为: m i n 约束条件为: y ( w ·φ ( x )+ b ) ≥1- ξ i i i i = 1 , …, l ξ ≥0 i ( 3 )
2
( S c h o o l o f E l e c t r i c a n dA u t o m a t i o n , H e b e i U n i v e r s i t y o f T e c h n o l o g y , T i a n j i n 3 0 0 1 3 0 , C h i n a )
收稿日期: 2 0 0 8- 0 7- 1 5 。河北省科学技术研究与发展指导计划项 目( 0 7 2 1 3 5 1 1 2 ) 。武优西, 副教授, 主研领域: 机器学习。
机方法( 也称支持向量分类算法) , 接下的几年中, 又提出了用 于回归的支持向量机方法( 也称支持向量回归算法) 。而无论 是支持向量分类算法还是支持向量回归算法均是建立在统计学 习理论基础之上的, 遵循结构风险最小化原则, 根据有限样本信 息, 在模型的复杂性和学习能力之间寻求最佳折中, 以期获得最 好泛化性能的新的机器学习方法, 它在解决小样本问题、 非线性 问题、 高维问题上有着良好的表现, 它有效地克服了机器学习中 的过学习和欠学习问题, 使其学习精度高, 且学习结果具备良好 的泛化能力和良好的鲁棒性。自其诞生之后, 由于其坚实的理 论基础, 给机器学习领域带来了新的活力和动力, 因而倍受人们
i = 1 i = 1
为线性映射系数, K ( · ) 为核函数。 这里 N为支持向量个数, பைடு நூலகம் i 常用的核函数有线性核函数、 多项式核函数、 径向基核函数和 S i g m o i d 核函数等。 由于径向基核函数的参数 σ为高斯分布的宽度, 控制着函
0 引 言
[ 1 ] 上世纪 9 0年代, V a p n i k 率先提出了用于分类的支持向量
尽管支持向量机构建在统计学习理论基础之上, 但是在选 择不同的支持向量机参数后, 其学习结果也相差甚远, 原因在 于: 支持向量机在实现结构风险最小化时, 是采用预先设定函数 集的某种结构, 并在该结构中选择适当的子集, 使得该子集下期 望风险与置信范围之和达到最小, 因此如何预先设定函数集的 某种结构成为影响其学习结果好坏的关键因素, 目前多采用优 化算法来实现选择函数集的某种结构。但是目前这些优化算法 仍然需要预先给出函数集结构的范围, 才能获得较好的结果。 为此本文设计了一种分段函数的编码方式, 使得函数集合结构 能够在较大的参数范围内, 仍然可以有效地选择到最优的参数,
1
( 河北工业大学计算机科学与软件学院 天津 3 0 0 1 3 0 )
2
( 河北工业大学电气与自动化学院 天津 3 0 0 1 3 0 )
摘 要 尽管支持向量机在许多问题上有着良好的表现, 但是其参数和核函数的参数选取问题依然亟待解决。以往多采用优化 算法进行参数选取, 但也需要预先经验地获得核函数的参数的选取范围。在介绍结构风险最小化原则及支持向量机算法的基础上, 给出了基于优化算法的支持向量机参数选取的一般性算法。由于径向基核函数( R B F ) 的参数取值大小的不同, 可导致其性质和作 用不同, 为此提出了一种分段函数对 R B F的参数进行选择的方法, 该方法使得 R B F的参数取大值和小值的概率均等。由此可不必 预先经验地指定 R B F的参数的选取范围, 依然可以优化获得最优的参数。通过对头部组织电导率估算问题进行对比研究, 取得了 良好的效果, 验证了该方法的有效性。 关键词 支持向量机 核函数 参数选择 优化算法 分段函数
A b s t r a c t A l t h o u g hS u p p o r t V e c t o r M a c h i n e ( S V M)p e r f o r m s w e l l i nm a n y s i t u a t i o n s , i t i s s t i l l d i f f i c u l t t o s e l e c t i t s p a r a m e t e r a n dt h e p a r a m e t e r o f k e r n e l f u n c t i o n . P r e v i o u s l y , o p t i m i s a t i o na l g o r i t h m s a r em o s t l yu s e df o r f i n d i n gb e t t e r p a r a m e t e r so f S V Ma n di t sk e r n e l f u n c t i o n , h o w e v e r t h e s e l e c t i o nr a n g e o f t h e p a r a m e t e r s o f k e r n e l f u n c t i o na l s o n e e dt o e m p i r i c a l l y o b t a i n . T h e p a p e r i n t r o d u c e s t h e S t r u c t u r a l R i s kM i n i m i s a t i o n( S R M)p r i n c i p l e a n dS V Ma l g o r i t h m . B a s e do nt h a t , a o p t i m i s a t i o na l g o r i t h m( O A )b a s e dg e n e r a l a l g o r i t h mf o r S V Mp a r a m e t e r s s e l e c t i o ni s b r o u g h t f o r w a r d . S i n c ed i f f e r e n t v a l u e t a k i n gi np a r a m e t e r so f R a d i a l B a s e dF u n c t i o n( R B F )c a nc a u s ed i f f e r e n c ei ne f f e c t sa n d p r o p e r t i e s , s ow e p r o p o s e a p i e c e w i s e f u n c t i o nm e t h o df o r s e l e c t i n g t h e p a r a m e t e r v a l u e o f R B F , w h i c hm a k e s e q u a l p r o b a b i l i t y i ns e l e c t i n g b i g g e r o r s m a l l e r R B Fp a r a m e t e r v a l u e . H e n c e t h e s e l e c t i o nr a n g e o f R B Fp a r a m e t e r s c o u l dn o t b e e m p i r i c a l l y a p p o i n t e db u t t h e o p t i m u mp a r a m e t e r c a nb es t i l l g o t i na no p t i m i s e dw a y . A t l a s t , t h ec o m p a r a t i v es t u d yw a s c a r r i e do u t o nh e a dt i s s u ec o n d u c t i v i t ye s t i m a t i o na n da c h i e v e da g o o do u t c o m e , w h i c hp r o v e dt h ee f f e c t i v e n e s s o f t h em e t h o d . K e y w o r d s S u p p o r t v e c t o r m a c h i n e K e r n e l f u n c t i o n P a r a m e t e r s e l e c t i o n O p t i m i s a t i o na l g o r i t h m P i e c e w i s ef u n c t i o n 关注并被广泛地应用于多种领域。
1 3 8
并获得良好的学习结果。
计算机应用与软件
2 0 1 0年
最小, 则这个子集中使经验风险最小的函数就是最优函数。支 持向量机方法实际上就是建立在这种解决思路上的。
1 结构风险最小化原则及支持向量机算法
1 . 1 结构风险最小化原则
依据统计学习理论, 真实风险界是由两部分组成的, 即经验 风险和置信范围。这里置信范围是由学习机器或学习函数集的
1
( S c h o o l o f C o m p u t e r S c i e n c e a n dS o f t w a r e , H e b e i U n i v e r s i t y o f T e c h n o l o g y , T i a n j i n 3 0 0 1 3 0 , C h i n a )
第2 7卷第 1期 2 0 1 0年 1月
计算机应用与软件 C o m p u t e r A p p l i c a t i o n s a n dS o f t w a r e
V o l 2 7N o . 1 1 0 J a n . 2 0
基于优化算法的核函数参数选择的研究
武优西1 郭 磊2 柴 欣1 王 岩1
( 2 )
1 T w ·w+C ξ i ∑ 2 i = 1
N
为松弛变量,C 其中, 参数 C是对错分样本惩罚的程度, ξ i i ∑ξ
i = 1
是为了控制错误分类样本的数量, 参数 C取值的大小可以控制 学习机器模型复杂性与分类性能之间的平衡。 通过对上面问题的求解, 可以获得如下学习函数:
N N
4 ) f ( x )=∑ α ( x y ) ·φ ( x )+b=∑ α y K ( x ·x )+b ( φ i i i i i i
O NP A R A ME T E RS E L E C T I O NO FK E R N E LF U N C T I O NB A S E D O NO P T I MI S A T I O NA L G O R I T H M
1 2 1 1 WuY o u x i G u oL e i C h a i X i n Wa n gY a n
R ( ) ( )+ ( h / l ) ( 1 ) α ≤R α e m p 其中, R ( ) 为实际风险, R ( ) 为经验风险, ( h / l ) 为置信范 α α e m p 围, h 为函数集的 V C维, l 为训练样本数目。 根据推广能力理论, 把函数集构造为一个函数子集序列 S 1 使各个子集按照 V C维的大小( 亦即 h的大 S …S …, 2 n 小) 排列, 即h h … h …。其结构示意如图 1所示。 ≤ 2≤ ≤ k ≤ 1
1 ] V C维及训练样本的个数所构成的 [ 。真实风险界可简化为:
1 . 2 支持向量机算法
依据支持向量机理论, 设给定的训练数据集为: { x , y } , 其 i i 中i = 1 , …, l , 在线性不可分时, 可以通过函数 φ ( · ) 将原始的输 入空间 x 映射到新的高维空间 φ ( x ) 下, 并在新的高维特征空间 ( x ) 下实现线性可分。则最优分类超平面 H的方程可以写作 φ 如下形式: ·φ ( x )+ b = 0 ω 此时, 待求解的问题可以描述为: m i n 约束条件为: y ( w ·φ ( x )+ b ) ≥1- ξ i i i i = 1 , …, l ξ ≥0 i ( 3 )
2
( S c h o o l o f E l e c t r i c a n dA u t o m a t i o n , H e b e i U n i v e r s i t y o f T e c h n o l o g y , T i a n j i n 3 0 0 1 3 0 , C h i n a )
收稿日期: 2 0 0 8- 0 7- 1 5 。河北省科学技术研究与发展指导计划项 目( 0 7 2 1 3 5 1 1 2 ) 。武优西, 副教授, 主研领域: 机器学习。
机方法( 也称支持向量分类算法) , 接下的几年中, 又提出了用 于回归的支持向量机方法( 也称支持向量回归算法) 。而无论 是支持向量分类算法还是支持向量回归算法均是建立在统计学 习理论基础之上的, 遵循结构风险最小化原则, 根据有限样本信 息, 在模型的复杂性和学习能力之间寻求最佳折中, 以期获得最 好泛化性能的新的机器学习方法, 它在解决小样本问题、 非线性 问题、 高维问题上有着良好的表现, 它有效地克服了机器学习中 的过学习和欠学习问题, 使其学习精度高, 且学习结果具备良好 的泛化能力和良好的鲁棒性。自其诞生之后, 由于其坚实的理 论基础, 给机器学习领域带来了新的活力和动力, 因而倍受人们
i = 1 i = 1
为线性映射系数, K ( · ) 为核函数。 这里 N为支持向量个数, பைடு நூலகம் i 常用的核函数有线性核函数、 多项式核函数、 径向基核函数和 S i g m o i d 核函数等。 由于径向基核函数的参数 σ为高斯分布的宽度, 控制着函
0 引 言
[ 1 ] 上世纪 9 0年代, V a p n i k 率先提出了用于分类的支持向量
尽管支持向量机构建在统计学习理论基础之上, 但是在选 择不同的支持向量机参数后, 其学习结果也相差甚远, 原因在 于: 支持向量机在实现结构风险最小化时, 是采用预先设定函数 集的某种结构, 并在该结构中选择适当的子集, 使得该子集下期 望风险与置信范围之和达到最小, 因此如何预先设定函数集的 某种结构成为影响其学习结果好坏的关键因素, 目前多采用优 化算法来实现选择函数集的某种结构。但是目前这些优化算法 仍然需要预先给出函数集结构的范围, 才能获得较好的结果。 为此本文设计了一种分段函数的编码方式, 使得函数集合结构 能够在较大的参数范围内, 仍然可以有效地选择到最优的参数,
1
( 河北工业大学计算机科学与软件学院 天津 3 0 0 1 3 0 )
2
( 河北工业大学电气与自动化学院 天津 3 0 0 1 3 0 )
摘 要 尽管支持向量机在许多问题上有着良好的表现, 但是其参数和核函数的参数选取问题依然亟待解决。以往多采用优化 算法进行参数选取, 但也需要预先经验地获得核函数的参数的选取范围。在介绍结构风险最小化原则及支持向量机算法的基础上, 给出了基于优化算法的支持向量机参数选取的一般性算法。由于径向基核函数( R B F ) 的参数取值大小的不同, 可导致其性质和作 用不同, 为此提出了一种分段函数对 R B F的参数进行选择的方法, 该方法使得 R B F的参数取大值和小值的概率均等。由此可不必 预先经验地指定 R B F的参数的选取范围, 依然可以优化获得最优的参数。通过对头部组织电导率估算问题进行对比研究, 取得了 良好的效果, 验证了该方法的有效性。 关键词 支持向量机 核函数 参数选择 优化算法 分段函数
A b s t r a c t A l t h o u g hS u p p o r t V e c t o r M a c h i n e ( S V M)p e r f o r m s w e l l i nm a n y s i t u a t i o n s , i t i s s t i l l d i f f i c u l t t o s e l e c t i t s p a r a m e t e r a n dt h e p a r a m e t e r o f k e r n e l f u n c t i o n . P r e v i o u s l y , o p t i m i s a t i o na l g o r i t h m s a r em o s t l yu s e df o r f i n d i n gb e t t e r p a r a m e t e r so f S V Ma n di t sk e r n e l f u n c t i o n , h o w e v e r t h e s e l e c t i o nr a n g e o f t h e p a r a m e t e r s o f k e r n e l f u n c t i o na l s o n e e dt o e m p i r i c a l l y o b t a i n . T h e p a p e r i n t r o d u c e s t h e S t r u c t u r a l R i s kM i n i m i s a t i o n( S R M)p r i n c i p l e a n dS V Ma l g o r i t h m . B a s e do nt h a t , a o p t i m i s a t i o na l g o r i t h m( O A )b a s e dg e n e r a l a l g o r i t h mf o r S V Mp a r a m e t e r s s e l e c t i o ni s b r o u g h t f o r w a r d . S i n c ed i f f e r e n t v a l u e t a k i n gi np a r a m e t e r so f R a d i a l B a s e dF u n c t i o n( R B F )c a nc a u s ed i f f e r e n c ei ne f f e c t sa n d p r o p e r t i e s , s ow e p r o p o s e a p i e c e w i s e f u n c t i o nm e t h o df o r s e l e c t i n g t h e p a r a m e t e r v a l u e o f R B F , w h i c hm a k e s e q u a l p r o b a b i l i t y i ns e l e c t i n g b i g g e r o r s m a l l e r R B Fp a r a m e t e r v a l u e . H e n c e t h e s e l e c t i o nr a n g e o f R B Fp a r a m e t e r s c o u l dn o t b e e m p i r i c a l l y a p p o i n t e db u t t h e o p t i m u mp a r a m e t e r c a nb es t i l l g o t i na no p t i m i s e dw a y . A t l a s t , t h ec o m p a r a t i v es t u d yw a s c a r r i e do u t o nh e a dt i s s u ec o n d u c t i v i t ye s t i m a t i o na n da c h i e v e da g o o do u t c o m e , w h i c hp r o v e dt h ee f f e c t i v e n e s s o f t h em e t h o d . K e y w o r d s S u p p o r t v e c t o r m a c h i n e K e r n e l f u n c t i o n P a r a m e t e r s e l e c t i o n O p t i m i s a t i o na l g o r i t h m P i e c e w i s ef u n c t i o n 关注并被广泛地应用于多种领域。
1 3 8
并获得良好的学习结果。
计算机应用与软件
2 0 1 0年
最小, 则这个子集中使经验风险最小的函数就是最优函数。支 持向量机方法实际上就是建立在这种解决思路上的。
1 结构风险最小化原则及支持向量机算法
1 . 1 结构风险最小化原则
依据统计学习理论, 真实风险界是由两部分组成的, 即经验 风险和置信范围。这里置信范围是由学习机器或学习函数集的
1
( S c h o o l o f C o m p u t e r S c i e n c e a n dS o f t w a r e , H e b e i U n i v e r s i t y o f T e c h n o l o g y , T i a n j i n 3 0 0 1 3 0 , C h i n a )
第2 7卷第 1期 2 0 1 0年 1月
计算机应用与软件 C o m p u t e r A p p l i c a t i o n s a n dS o f t w a r e
V o l 2 7N o . 1 1 0 J a n . 2 0
基于优化算法的核函数参数选择的研究
武优西1 郭 磊2 柴 欣1 王 岩1
( 2 )
1 T w ·w+C ξ i ∑ 2 i = 1
N
为松弛变量,C 其中, 参数 C是对错分样本惩罚的程度, ξ i i ∑ξ
i = 1
是为了控制错误分类样本的数量, 参数 C取值的大小可以控制 学习机器模型复杂性与分类性能之间的平衡。 通过对上面问题的求解, 可以获得如下学习函数:
N N
4 ) f ( x )=∑ α ( x y ) ·φ ( x )+b=∑ α y K ( x ·x )+b ( φ i i i i i i
O NP A R A ME T E RS E L E C T I O NO FK E R N E LF U N C T I O NB A S E D O NO P T I MI S A T I O NA L G O R I T H M
1 2 1 1 WuY o u x i G u oL e i C h a i X i n Wa n gY a n