第五章聚类分析Kmeans聚类23页PPT
合集下载
02-KMeans聚类PPT

分群1 84
33.73%
分群2 114
45.78%
分群3 51
20.48%
K-Means聚类案例
%为便于可视化,仅选取6个属性维度中的两个维度进行绘图
figure; scatter(X(IDX==1,2),X(IDX==1,3),'rx') hold on scatter(X(IDX==2,2),X(IDX==2,3),'m+') scatter(X(IDX==3,2),X(IDX==3,3),'c*') plot(C(:,2),C(:,3),'ko','MarkerSize',4,'LineWidth',1.5) legend('Cluster 1','Cluster 2','Cluster 3','Centroids')
Matlab的K-Means函数
函数参数选项Param:
1. ‘Distance’(距离测度):
‘sqEuclidean’ 欧式距离(默认时,采用此距离方式) ‘cityblock’ 绝度误差和,又称:L1 ‘cosine’ 针对向量 ‘correlation’ 针对有时序关系的值 ‘ hamming’ 只针对二进制数据
Matlab的K-Means函数
函数参数选项Param:
2. ‘Start’(初始质心位置选择方法)
‘sample’从A中随机选取K个质心点 ‘uniform’根据A的分布范围均匀的随机生成K个质心 ‘cluste’r 初始聚类阶段随机选择10%的A的子样本(此方
法初始使用‘sample’方法) ‘matrix’提供一K*N的矩阵,作为初始质心位置集合。
K-means聚类算法ppt课件

K-means聚类算法
ppt课件.
1
K-means算法是很典型的基于距离的 聚类算法,采用距离作为相似性的评价指 标,即认为两个对象的距离越近,其相似 度就越大。
该算法认为类是由距离靠近的对象组 成的,因此把得到紧凑且独立的类作为最 终目标。
ppt课件.
2
假设数据集合为(x1, x2, …, xn),并 且每个xi为d维的向量,K-means聚类的目 的是,在给定分类组数k(k ≤ n)值的条 件下,将原始数据分成k类:
ppt课件.
4
数学表达式:
n:样本数。 k:样本分为k类。 rnk:第n个样本点是否属于第k类,属于则
rnk=1, 不属于则rnk=0。 μK:第k个中心点。
ppt课件.
5
k-means 要做的就是最小化
这个函数。
迭代的方法: 1、固定μK,得到rnk。 2、固定rnk,求出最优的μK。
ppt课件.
ppt课件.
12
K- medoids算法流程如下: 1、任意选取K个对象作为初始中心点 (O1,O2,…Oi…Ok)。 2、将余下的对象分到各个类中去(根据与 中心点最相近的原则); 3、对于每个类(Oi)中,顺序选取一个Or, 计算用Or代替Oi后的消耗—E(Or)。选择 E最小的那个Or来代替Oi。这样K个中心点 就改变了。
。不过,加上归一化规定,一个数据点的 隶属度的和总等于1:
ppt课件.
21
把n个元素xi(i=1,2,…,n)分为c个模糊组, 目标函数:
其中,m是大于1的实数,加权实数。uij 是xi属于类别j隶属度,cj是 类j的聚类中心。
ppt课件.
22
算法步骤: 1、用值在0,1间的随机数初始化隶属矩阵U,
ppt课件.
1
K-means算法是很典型的基于距离的 聚类算法,采用距离作为相似性的评价指 标,即认为两个对象的距离越近,其相似 度就越大。
该算法认为类是由距离靠近的对象组 成的,因此把得到紧凑且独立的类作为最 终目标。
ppt课件.
2
假设数据集合为(x1, x2, …, xn),并 且每个xi为d维的向量,K-means聚类的目 的是,在给定分类组数k(k ≤ n)值的条 件下,将原始数据分成k类:
ppt课件.
4
数学表达式:
n:样本数。 k:样本分为k类。 rnk:第n个样本点是否属于第k类,属于则
rnk=1, 不属于则rnk=0。 μK:第k个中心点。
ppt课件.
5
k-means 要做的就是最小化
这个函数。
迭代的方法: 1、固定μK,得到rnk。 2、固定rnk,求出最优的μK。
ppt课件.
ppt课件.
12
K- medoids算法流程如下: 1、任意选取K个对象作为初始中心点 (O1,O2,…Oi…Ok)。 2、将余下的对象分到各个类中去(根据与 中心点最相近的原则); 3、对于每个类(Oi)中,顺序选取一个Or, 计算用Or代替Oi后的消耗—E(Or)。选择 E最小的那个Or来代替Oi。这样K个中心点 就改变了。
。不过,加上归一化规定,一个数据点的 隶属度的和总等于1:
ppt课件.
21
把n个元素xi(i=1,2,…,n)分为c个模糊组, 目标函数:
其中,m是大于1的实数,加权实数。uij 是xi属于类别j隶属度,cj是 类j的聚类中心。
ppt课件.
22
算法步骤: 1、用值在0,1间的随机数初始化隶属矩阵U,
《聚类分析》PPT课件

应聘者 X Y Z
1 2 3 4 5 6 7 8 9 10 28 18 11 21 26 20 16 14 24 22 29 23 22 23 29 23 22 23 29 27 28 18 16 22 26 22 22 24 24 24
2021/8/17
5
2021/8/17
6
2021/8/17
Ch6 聚类分析
2021/8/17
1
聚类分析根据一批样品的许多观测指标,按 照一定的数学公式具体地计算一些样品或一些参 数(指标)的相似程度,把相似的样品或指标归为 一类,把不相似的归为一类。
例如对上市公司的经营业绩进行分类;据经 济信息和市场行情,客观地对不同商品、不同用 户及时地进行分类。又例如当我们对企业的经济 效益进行评价时,建立了一个由多个指标组成的 指标体系,由于信息的重叠,一些指标之间存在 很强的相关性,所以需要将相似的指标聚为一类, 从而达到简化指标体系的目的。
2021/8/17
29
(1) 所 选 择 的 亲 疏 测 度 指 标 在 实 际 应 用中应有明确的意义。如在经济变量分析 中,常用相关系数表示经济变量之间的亲 疏程度。
2021/8/17
30
(2)亲疏测度指标的选择要综合考虑已对样本观测 数据实施了的变换方法和将要采用的聚类分析方法。如在 标准化变换之下,夹角余弦实际上就是相关系数;又如若 在进行聚类分析之前已经对变量的相关性作了处理,则通 常就可采用欧氏距离,而不必选用斜交空间距离。此外, 所选择的亲疏测度指标,还须和所选用的聚类分析方法一 致。如聚类方法若选用离差平方和法,则距离只能选 用 欧氏距离。
剂的种类等。在名义尺度中只取两种特性状态的变量是很
重要的,如电路的开和关,天气的有雨和无雨,人口性别
聚类分析详解ppt课件

以上我们对例6.3.1采用了多种系统聚类法进行聚类,其结果 都是相同的,原因是该例只有很少几个样品,此时聚类的过 程不易有什么变化。一般来说,只要聚类的样品数目不是太 少,各种聚类方法所产生的聚类结果一般是不同的,甚至会 有大的差异。从下面例子中可以看到这一点。
动态聚类法(快速聚类)
(4) 对D1 重复上述对D0 的两步得 D2,如此下去 直至所有元素合并成一类为止。
如果某一步Dm中最小的元素不止一个,则称此现 象为结(tie),对应这些最小元素的类可以任选一对 合并或同时合并。
27
二、最长距离法
类与类之间的距离定义为两类最远样品间的距离, 即
DKL
max
iGK , jGL
聚类分析应注意的问题
(1)所选择的变量应符合聚类的要求
如果希望依照学校的科研情况对高校进行分类,那么可以 选择参加科研的人数、年投入经费、立项课题数、支出经 费、科研成果数、获奖数等变量,而不应选择诸如在校学 生人数、校园面积、年用水量等变量。因为它们不符合聚 类的要求,分类的结果也就无法真实地反映科研分类的情 况。
主要内容
引言 聚类分析原理 聚类分析的种类 聚类分析应注意的问题 聚类分析应用 聚类分析工具及案例分析
聚类分析的种类
(1)系统聚类法(也叫分层聚类或层次聚类) (2)动态聚类法(也叫快速聚类) (3)模糊聚类法 (4)图论聚类法
系统聚类法
对比
常用的系统聚类方法
一、最短距离法 二、最长距离法 三、中间距离法 四、类平均法 五、重心法 六、离差平方和法(Ward方法)
对比
k均值法的基本步骤
(1)选择k个样品作为初始凝聚点,或者将所有样品分成k 个初始类,然后将这k个类的重心(均值)作为初始凝聚点。
聚类分析法ppt课件全

8/21/2024
25
1.2.2 动态聚类分析法
1.2 聚类分析的种类
(3)分类函数
按照修改原则不同,动态聚类方法有按批修改法、逐个修改法、混合法等。 这里主要介绍逐步聚类法中按批修改法。按批修改法分类的原则是,每一步修 改都将使对应的分类函数缩小,趋于合理,并且分类函数最终趋于定值,即计 算过程是收敛的。
8/21/2024
23
1.2.2 动态聚类分析法
1.2 聚类分析的种类
(2)初始分类 有了凝聚点以后接下来就要进行初始分类,同样获得初始分类也有不同的
方法。需要说明的是,初始分类不一定非通过凝聚点确定不可,也可以依据其 他原则分类。
以下是其他几种初始分类方法: ①人为分类,凭经验进行初始分类。 ②选择一批凝聚点后,每个样品按与其距离最近的凝聚点归类。 ③选择一批凝聚点后,每个凝聚点自成一类,将样品依次归入与其距离
8/21/2024
14
1.2 聚类分析的种类
(2)系统聚类分析的一般步骤 ①对数据进行变换处理; ②计算各样品之间的距离,并将距离最近的两个样品合并成一类; ③选择并计算类与类之间的距离,并将距离最ቤተ መጻሕፍቲ ባይዱ的两类合并,如果累的个
数大于1,则继续并类,直至所有样品归为一类为止; ④最后绘制系统聚类谱系图,按不同的分类标准,得出不同的分类结果。
8/21/2024
18
1.2 聚类分析的种类
(7)可变法
1 2 D kr
2 (8)离差平方和法
(D k 2 pD k 2 q)D p 2q
D k 2 rn n ir n n p i D i2 pn n ir n n q iD i2 qn rn in iD p 2 q
8/21/2024
K-means算法讲解ppt课件

完整最新ppt 19
预测:预测是通过分类或估值起作用的,也就是说,通过 分类或估值得出模型,该模型用于对未知变量的预言。
聚类:在没有给定划分类的情况下,根据信息相似度将信 息分组。是一种无指导的学习。
关联规则:揭示数据之间的相互关系,而这种关系没有在 数据中直接表现出来。
偏差检测: 用于发现与正常情况不同的异常和变化。并分 析这种变化是有意的欺诈行为还是正常的变化。如果是异常 行为就采取预防措施。
完整最新ppt
13
决定性因素
Input & centroids
①数据的采集和抽象 ②初始的中心选择
Selected k
① k值的选定
MaxIterations & Convergence
①最大迭代次数 ②收敛值
factors?
Meassures
①度量距离的手段
完整最新ppt
14
主要因素
初始中 心点
Repeat 从簇表中取出一个簇
(对选定的簇进行多次二分实验) for i=1 to实验次数 do 试用基本K均值(k=2),二分选定的簇 end for 从实验中选取总SSE最小的两个簇添加到簇表中
Until 簇表中包含K个簇
17
谢谢!
完整最新ppt
18
此课件下载可自行编辑修改,此课件供参考! 部分内容来源于网络,如有侵权请与我联系删除!感谢你的观看!
6
什么是Kmeans算法?
Q1:K是什么?A1:k是聚类算法当中类的个数。 Q2:means是什么?A2:means是均值算法。
Summary:Kmeans是用均值算法把数 据分成K个类的算法!
完整最新ppt
7
Kmeans算法详解(1)
预测:预测是通过分类或估值起作用的,也就是说,通过 分类或估值得出模型,该模型用于对未知变量的预言。
聚类:在没有给定划分类的情况下,根据信息相似度将信 息分组。是一种无指导的学习。
关联规则:揭示数据之间的相互关系,而这种关系没有在 数据中直接表现出来。
偏差检测: 用于发现与正常情况不同的异常和变化。并分 析这种变化是有意的欺诈行为还是正常的变化。如果是异常 行为就采取预防措施。
完整最新ppt
13
决定性因素
Input & centroids
①数据的采集和抽象 ②初始的中心选择
Selected k
① k值的选定
MaxIterations & Convergence
①最大迭代次数 ②收敛值
factors?
Meassures
①度量距离的手段
完整最新ppt
14
主要因素
初始中 心点
Repeat 从簇表中取出一个簇
(对选定的簇进行多次二分实验) for i=1 to实验次数 do 试用基本K均值(k=2),二分选定的簇 end for 从实验中选取总SSE最小的两个簇添加到簇表中
Until 簇表中包含K个簇
17
谢谢!
完整最新ppt
18
此课件下载可自行编辑修改,此课件供参考! 部分内容来源于网络,如有侵权请与我联系删除!感谢你的观看!
6
什么是Kmeans算法?
Q1:K是什么?A1:k是聚类算法当中类的个数。 Q2:means是什么?A2:means是均值算法。
Summary:Kmeans是用均值算法把数 据分成K个类的算法!
完整最新ppt
7
Kmeans算法详解(1)
聚类分析解析课件

类间距的度量
类:一个不严格的定义
定义9.1:距离小于给定阀值的点的集合 类的特征
◦ 重心:均值 ◦ 样本散布阵和协差阵 ◦ 直径
类间距的定义
最短距离法 最长距离法 重心法 类平均法 离差平方和法 等等
最小距离法(single linkage method)
极小异常值在实际中不多出现,避免极 大值的影响
类的重心之间的距离
对异常值不敏感,结果更稳定
离差平方和法(sum of squares
method或ward method)
W代表直径,D2=WM-WK-WL
即
DK2L
nL nk nM
XK XL XK XL
Cluster K
Cluster M
Cluster L
◦ 对异常值很敏感;对较大的类倾向产生较大的距 离,从而不易合并,较符合实际需要。
如表9.2所示,每个样品有p个指标,共 有n个样品
每个样品就构成p维空间中的一个点
:第i个样品的第k个指标对应的取值
◦ i=1……n; k=1……p
:第i个样品和第j个样品之间的距离
◦ i=1……n; j=1……n
点间距离测量问题
样品间距离与指标间距离 间隔尺度、有序尺度与名义尺度 数学距离与统计距离 相似性与距离:一个硬币的两面
类图上发现相同的类
饮料数据
16种饮料的热量、咖啡因、钠及价格四种变量
SPSS实现
选择Analyze-Classify-Hierarchical Cluster, 然 后 把 calorie ( 热 量 ) 、 caffeine ( 咖 啡
因)、sodium(钠)、price(价格)选入 Variables, 在Cluster选Cases(这是Q型聚类:对观测 值聚类),如果要对变量聚类(R型聚类) 则选Variables, 为 了 画 出 树 状 图 , 选 Plots , 再 点 Dendrogram等。 可以在Method中定义点间距离和类间距 离
Kmeans聚类算法ppt课件

(5)对于“噪声”和孤立点数据敏感。
精选版课件ppt
8
K-means缺点以及改进 (1)要求用户必须事先给出要生成的簇的数目k。这个k并不是最好的。 解决:肘部算法 肘部算法是一种启发式方法来估计最优聚类数量,称为肘部法则(Elbow Method)。
各个类畸变程度(distortions)之和;每个类的畸变程度等于该类重心与其内 部成员位置距离的平方和;最优解以成本函数最小化为目标,其中uk是第k个 类的重心位置
第一次
第二次
精选版课件ppt
17
八、K-means聚类算法
在第五次迭代时,得到的三个簇与第四迭代结果相同,而且准则函数E收敛,迭代 结束,结果如下表所示:
k为迭代次数
精选版课件ppt
18
此课件下载可自行编辑修改,供参考! 感谢您的支持,我们努力做得更好!
精选版课件ppt
精选版课件ppt
3
八、K-means聚类算法
2. K-means聚类算法原理 K-Means算法的工作框架:
(1)给出 n 个数据样本,令 I 1,随机选择 K 个初始聚类中心 Z j (I) , j 1, 2,3,, K ;
(2)求解每个数据样本与初始聚类中心的距离 D xi , Z j I ,i 1, 2,3,, n
假设A、B、C、D的D(x)如上图所示,当算法取值Sum(D(x))*random 时,该值会以较大的概率落入D(x)较大的区间内,所以对应的点会以 较大的概率被选中作为新的聚类中心。
精选版课件ppt
10
八、K-means聚类算法
3 K-means聚类算法特点及应用 3.2 K-means聚类算法应用
i=1,2
精选版课件ppt
聚类分析 PPT课件

• 在饮料数据中,每种饮料都有四个变量值。这 就是四维空间点的问题了。
7
两个距离概念
• 按照远近程度来聚类需要明确两个概念: 一个是点和点之间的距离,一个是类和类 之间的距离。
• 点间距离有很多定义方式。最简单的是歐 氏距离。
• 当然还有一些和距离相反但起同样作用的 概念,比如相似性等,两点越相似度越大, 就相当于距离越短。
18
• 有了上面的点间距离和类间距离的概念, 就可以介绍聚类的方法了。这里介绍两个 简单的方法。
Cxy(2)rxy
i
(xi x)2 (yi y)2
i
i
当变量的测量值相差悬殊时,要先进行标准化. 如R为极差,
s 为标准差, 则标准化的数据为每个观测值减去均值后再除
以R或s. 当观测值大于0时, 有人采用Lance和Williams的距
离
1 | xi yi |
p i xi yi
10
类Gp与类Gq之间的距离Dpq (d(xi,xj)表示点xi∈ Gp和xj ∈ Gq之间的距离)
3
k-means算法
k-means算法,也被称为k-均值或k-平均。 该算法首先随机地选择k个对象作为初始的k个簇的质心; 然后对剩余的每个对象,根据其与各个质心的距离,将它赋 给最近的簇,然后重新计算每个簇的质心;这个过程不断重 复,直到准则函数收敛。通常采用的准则函数为平方误差和 准则函数,即 SSE(sum of the squared error),其定义如 下:
D 12
(xkx)'(xi x) DpqD 12D 1D 2
xk Gp G q
(中间距离, 可变平均法,可变法等可参考各书). 在用欧氏距离时, 有统一的递推公式
7
两个距离概念
• 按照远近程度来聚类需要明确两个概念: 一个是点和点之间的距离,一个是类和类 之间的距离。
• 点间距离有很多定义方式。最简单的是歐 氏距离。
• 当然还有一些和距离相反但起同样作用的 概念,比如相似性等,两点越相似度越大, 就相当于距离越短。
18
• 有了上面的点间距离和类间距离的概念, 就可以介绍聚类的方法了。这里介绍两个 简单的方法。
Cxy(2)rxy
i
(xi x)2 (yi y)2
i
i
当变量的测量值相差悬殊时,要先进行标准化. 如R为极差,
s 为标准差, 则标准化的数据为每个观测值减去均值后再除
以R或s. 当观测值大于0时, 有人采用Lance和Williams的距
离
1 | xi yi |
p i xi yi
10
类Gp与类Gq之间的距离Dpq (d(xi,xj)表示点xi∈ Gp和xj ∈ Gq之间的距离)
3
k-means算法
k-means算法,也被称为k-均值或k-平均。 该算法首先随机地选择k个对象作为初始的k个簇的质心; 然后对剩余的每个对象,根据其与各个质心的距离,将它赋 给最近的簇,然后重新计算每个簇的质心;这个过程不断重 复,直到准则函数收敛。通常采用的准则函数为平方误差和 准则函数,即 SSE(sum of the squared error),其定义如 下:
D 12
(xkx)'(xi x) DpqD 12D 1D 2
xk Gp G q
(中间距离, 可变平均法,可变法等可参考各书). 在用欧氏距离时, 有统一的递推公式
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
Matlab程序实现(续)
Z = zeros(N,K); for m=1:N
Z(m,j(m)) = 1; end e = sum(sum(Z.*Dist)./N); fprintf('%d Error = %f\n', n, e); Mo = M; end
2019/9/22
河北大学工商学院
Industrial & Comerricial College , Hebei University
数学符号
M iv 0 1如 如 果 果 样 样 本 本 xi不 xi属 属 于 于 第 第 v v个 个 聚 聚 类 类
非线性映射::X F ,将样本从输入空间映射到高
维的特征空间。
M
聚类中心:mv vj(x j ) j 1
注意:①聚类中心的维数与特征空间维数相同,所以可以将 其表示为输入样本在特征空间中像的加权和。
②对聚类中心的更新只需对系数矩阵 ( vj )kN 进行更新。
2019/9/22
河北大学工商学院
Industrial & Comerricial College , Hebei University
Kernel K-means算法(续)
基于核函数的距离度量:
M
||(x)mv||2||(x) vj(xj)||2 j1
聚类中心的更新公式:
m t 1 m t [(x t 1) m t] 其中
M t 1,
t1
M i
则有:
i1
M
M
t j1(xj) tj(1)(xj)(t1)
j 1
j 1
t1 j
的更新公式为:
tj1 t j(1)
缺点:
最终的结果会随初始中心的变化而变化; 算法依赖于用户指定的k值; 各聚类间线性不可分时,K-means算法就会失效。
2019/9/22
河北大学工商学院
Industrial & Comerricial College , Hebei University
初始中心的选取对算法的影响
棋盘格数据集(Checkerboard data set)
仅使用其中486个正类数据,并将数据变换到[-1,1]之间, 分布情况如下图所示:
1
0.5
0
-0.5
-1 -1
2019/9/22
-0.5
0
0.5
河北大学工商学院
1
Industrial & Comerricial College , Hebei University
在图像分割上的简单应用(续)
例2:
注:聚类中心个数为5,最大迭代次数为10。
2019/9/22
河北大学工商学院
Industrial & Comerricial College , Hebei University
算法的优缺点
优点:
思想简单易行; 时间复杂度接近线性; 对大规模数据的挖掘具有高效性和可伸缩性。
初始中心的选取对算法的影响(续)
初始聚类中心在平面内随机选取
1
0.5
0
-0.5
Points
Initial Centers
-1-1Cluster Ce-0n.t5ers
0
2019/9/22
河北大学工商学院
0.5
1
Industrial & Comerricial College , Hebei University
模式识别
第三章--聚类分析 K-means聚类
主要内容
K-means算法 Matlab程序实现 在图像分割上的简单应用 算法的优缺点 初始中心的选取对算法的影响 Kernel K-means算法
2019/9/22
河北大学工商学院
Industrial & Comerricial College , Hebei University
在图像分割上的简单应用
例1:
1. 图片:一只遥望大海的小狗; 2. 此图为100 x 100像素的JPG图片,每个像素可以表
示为三维向量(分别对应JPEG图像中的红色、绿色 和蓝色通道) ; 3. 将图片分割为合适的背景区域(三个)和前景区域 (小狗); 4. 使用K-means算法对图像进行分割。
Industrial & Comerricial College , Hebei University
作业
编程实现X-means算法(K-means+BIC)
/~dpelleg/download/xmeans.pdf
体会基于模型选择的自动聚类个数选取方法。
编程实现K-means+cluster Validity
K-means聚类算法
算法描述
1. 为中心向量c1, c2, …, ck初始化k个种子 2. 分组:
将样本分配给距离其最近的中心向量 由这些样本构造不相交( non-overlapping )
的聚类 3. 确定中心:
用各个聚类的中心向量作为新的中心 4. 重复分组和确定中心的步骤,直至算法收敛
初始中心的选取对算法的影响(续)
初始聚类中心均在中心附近
1
0.5
Points Initial Centers Cluster Centers
0
-0.5
-1-1
2019/9/22
-0.5
0
河北大学工商学院
0.5
1
Industrial & Comerricial College , Hebei University
Kernel K-means算法(续)
分组:
将xt+1赋给最近的中心mα:
M t 1 , 1 0如 其 果 他 对 所 有 的 v , ||( x t 1 m )||2 ||( x t 1 m v )||2
1
如果
M
M
M
ijK(xi,xj)2 jK(xt1,xj)
j
3. 按下式重新计算k个聚类中心;
xs
s:label(s)j
c j Nj
, j1,2,...,k
4. 重复步骤2和步骤3,直到达到最大迭代次数为止。
2019/9/22
河北大学工商学院
Industrial & Comerricial College , Hebei University
Matlab程序实现
2019/9/22
河北大学工商学院
Industrial & Comerricial College , Hebei University
K-means聚类算法(续)
分组:
将样本分配给距离它们最近的中心向量,并使目标函数
值减小
n
i1 j{m 1,2,.i.nk.,}||xi pj ||2
确定中心:
亦须有助于减小目标函数值,原因:
m
m
||y i w |2 | ||y i y |2 | ||y w |2 |
i 1
i 1
等式成立的充要条件:
w y m1 im1yi
2019/9/22
河北大学工商学院
Industrial & Comerricial College , Hebei University
Kernel K-means算法
修改欧氏距离度量 ,即引入基于核函 数的距离度量,使 聚类可以产生任意
形状?
K-means算法的聚类结果
2019/9/22
河北大学工商学院
Industrial & Comerricial College , Hebei University
Kernel K-means算法(续)
function [M, j, e] = kmeans(X, K, Max_Its)
[N,D]=size(X);
I=randperm(N);
M=X(I(1:K),:);
Mo = M;
for n=1:Max_Its
for k=1:K
Dist(:,k) = sum((X - repmat(M(k,:),N,1)).^2,2)';
Mt1,
i1 j1
j1
MM
M
vivjK(xi,xj)2 vjK(xt1,xj)
i1 j1
j1
0 其他
2019/9/22
河北大学工商学院
Industrial & Comerricial College , Hebei University
Kernel K-means算法(续)
对 于jt1 对 于jt1
2019/9/22
河北大学工商学院
Industrial & Comerricial College , Hebei University
Kernel K-means算法(续)
棋盘格数据上的聚类效果
2019/9/22
Kernel K-means算法的聚类结果
河北大学工商学院
K-means聚类算法(续)
算法的具体过程
1.
从数据集
{
x
n
}
N n
1
中任意选取k个赋给初始的聚类中心c1,
c2, …, ck;
2. 对数据集中的每个样本点xi,计算其与各个聚类中心
cj的欧式距离并获取其类别标号:
3.
la b e l( i) a r g m in ||x i c j||2 ,i 1 ,...,N ,j 1 ,...,k