核函数特征空间0610

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

( x1, x2 )
( x1, x2 ) ( x12 , x22 , x1, x2 ) (4维)
• 对于n维输入空间,自由度取为d的单项式形式,特征映 射: d d
( x1 ,..., xn ) x1 ,..., xn ( x1 ,..., xn ) x 2 ,..., x 2 n 1 x ,....., x n 1
f ( x) j y j ( x j ) ( x) bl : Fra Baidu bibliotek练样本个数
j 1 l
如果能找到一种方式,避开对特征映射Φ 的显式运算,而 在特征空间F中直接计算内积 <(xi ),(x)> , 则可得到假设函数在对偶空间上的表示: ( , b) l 1 • 原问题化为对偶空间( )上的一个线性学习问题, 而特征空间 F 本身的维数 N 和特征映射的显式表示 ( x) (i ( x), i 1,..., N ) 不再影响计算。
线性学习器计算能力有限
• 目标概念(函数)通常不能由给定属性的 简单线性函数组合产生
– 导致使用多层阈值线性函数(如:多层神经网 络、BP算法等)
• 对目标概念的更为简洁的直接描述涉及比 给定数据更为广泛的抽象特征
– 导致核表示方法
核表示方法的特点
• 将给定数据映射到高维空间,变线性 不可分情形为线性可分,来增加线性 学习器的计算能力 • 用于学习的算法和理论可以在很大程 度上同应用领域的特性分开,而这些 特性将在设计合适的核函数时考虑
l i,j=1
ii)核的几个简单例子(pp.28-29)
iii)核函数方法的特点
ii) 核的几个简单例子
a) 线性变换:x Ax, ( x, y ) x ' A ' Ay x ' By
d

d1 d2 j x x 若还要用到交错项 n1 n2 ... xn j 的信息表示,则其特征 空间的维数将很快变得不可计算。
4)特征选择面临的重要任务
降低和排除维数灾难,提高计算性能和泛化性能 • 检测出无关特征并将其去除
– 特别是那些与目标值输出无关的特征
P.26 图3.1 经过特征映射,使得所得数据可以线性分开
P.26 图3.1
特征映射:二维输入空间 → 二维特征空间 不能 → 能
数据线性分开:
3)特征映射可能产生的困难
• 考虑二维输入空间的情形 假定关于问题的先验知识提示:相关信息已编码到自由 度为 2 的单项式的形式,则一个可能使用的映射是:
Ch.3 主要内容
1、特征空间和特征选择问题
2、使用线性学习器学习一个非线性关系
3、关于核函数的讨论
4、特征空间中的计算
5、核与高斯过程
使用不同技术的困难所在
1、特征空间和特征选择问题
1)一个合理的思路 2)定义和概念 3)特征映射可能产生的困难 4)特征选择面临的重要任务
1)一个合理的思路
需要增加一个预处理步骤,将给定数据 的表达形式转换成一个与特定的学习问题 (如P.25, 例3.1 万有引力,x→lnx ) 所需 要的表示相匹配的一种形式。
f ( x) wii ( x) b w, ( x)
i 1 N F
b
( x) (i ( x), i 1,..., N )
(非线性特征映射)
即用二步法建立一个非线性学习器。
2)到特征空间的隐式映射
• 线性学习器的一个重要性质是可以表述为对偶形式 l (对偶变量 , w j 1 j y j ( x j ) ) • 针对上述变换后的假设
• 例:万有引力计算中,物体的颜色、温度等
• 维数约简:
(主成分分析,…)
– 寻找包含原始属性中必要信息的最小特征集 x ( x1,..., xn ) ( x) (1 ( x),..., d ( x)) (d尽可能小于n)
• 关于万有引力的例子
• 作为学习过程的一个重要部分,如何实现自动化及 避免选择的任意性。
P.26,例 3.2 关于万有引力定理的进一步例子:
8 3
2、使用线性学习器学习一个非线性 关系
1)考虑问题的思路
2)到特征空间的隐式映射
3)核函数方法
1)考虑问题的思路
• 应用一个固定的非线性映射Φ ,将原始数据(属 性)从输入空间 Χ 映射到特征空间 F ,在特 征空间 F 中使用线性学习器,提高计算能力。 • 所考虑的假设集是形为 f(x) 的函数:
l 1
3)核函数方法
i)定义:核是一个函数K,s.t.x, y , K ( x, y) ( x) ( y) 其中(特征映射) : F
内积特征空间
核的使用,避免了特征向量的显式表示,而用原始数据 隐式表达了特征空间,并在对偶空间上直接训练线性学 习器。关于训练样例的唯一信息是它们在特征空间上的 Gram矩阵 K (xi, yi ) ,称为核矩阵(l l维 ),用粗体 表示
P.25 “万有引力定理”,使用映射:x→lnx
2)定义和概念
• 属性: 原始的数据量(或输入量), xi ( xi (1) ,...xi ( n) ) 空间X是输入空间(低维)。
n
• 特征: 经变化后,用于描述数据的量 ( xi ) (1 ( xi ),...,N ( xi )) 新空间 F { ( x); x X } 是特征空间(高维) • 特征选择(特征映射): ( ( )) 选择最适合学习问题的数据表达方式的任务
使用线性学习器分二类问题
• 分二类问题
寻找一个实值函数(决策函数)f:X R, 当 f(x) 0 时,输入 赋给正类; x ( x1 ,..., xn )' 当 f(x) 0 时,输入 赋给负类。
• 线性学习器 n 使用线性假设 f ( x) w, x b 1 wi xi b 确定最优超平面,其控制参数为 (w, b) Rn R 而决策规则由 sgn( f ( x)) 给出。
相关文档
最新文档