LDA线性判别分析报告
合集下载
相关主题
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
首先计算每类数据的均值(中心点):
i是数据的分类个数,Ni代表某个分类下的数据点数,比如μ 1代表红点的中心,μ2代表蓝点的中心。
类均值点投影到w上的中心为: 如何判断向量w最佳?1、不同的分类得到的投影点要尽量分开;2、同一个分类投 影后得到的点要尽量聚合。从这两方面考虑,可以定义如下公式:
J(w)代表不同分类投影中心的距离,它的值越大越好。
LDA(线性判别分析) 2017.11
LDA(线性判别分析)
LDA的全称是Linear Discriminant Analysis(线性判别分析1936Ronald Fisher), 是一种监督学习降维方法,也就是说它的数据集的每个样本是有类别输出的。这点和 PCA(Principal Component Analysis)不同。PCA是不考虑样本类别输出的无监督降维技 术。
展开J(w)的分子并定义SB,SB称为Between-class scatter。 这样就得到了J(w)的最终表示:
上式求极大值可以利用拉格朗日乘数法,不过需要限定一下分母的值,否则分子分母
都变,怎么确定最好的w呢。可以令
,利用拉格朗日乘数法得到:
上式两边同乘以
可以得到:
发现w其实就是矩阵
的特征向量。
• LDA人脸识别(Fisherface)
通常情况下,待匹配人脸要和人脸库内的多张人脸匹配,所以这是一个多分类 的情况。出于简单考虑,可以先介绍二类的情况然后拓展到多类。假设有二维平面上 的两个点集x(x是包含横纵坐标的二维向量),它们的分布如下图(分别以蓝点和红 点表示数据):
以数学公式给出投影点到到原点的距离: w以从原点出发的直线来表示,直线上的点是原数据的投影点。下图给出了两种w 方案,直观判断右侧的w更好些,其上的投影点能够合理的区分原有的两个数据集。 但是计算机不知道这些,所以必须要有确定的方法来计算这个w。
上式称之为散列值(scatter matrixs),代表同一个分类投影后的散列值,也就 是投影点的聚合度,它的值越小代表投影点越聚合。
上式是w的函数,值越大w降维性能越好,下面的问题就是求解使上式取最大值的w。
把散列函数展开:
可以发现除w和wT外,剩余部分可以定义为:
这就是原数据的散列矩阵了 Sw称为Within-class scatter matrix。 得到:
小样本问题
在LDA 算法中存在训练样本数(20)比图像向量的维数4096要小很多的问题,即人脸 小样本问题,因此类内离散度Sw 总为奇异矩阵。这使得使用LDA方法求解变得很困难。 为此,我们利用PCA算法将4096维的人脸图像压缩为71维,就可避免出现小样本问题。 降维后再采用LDA算法利用人脸的类标签信息,就可提取出最具有判别能力的低维特 征子空间。
放映结束 感谢各位的批评指导!
谢 谢!
让我们共同进步
降维会不会对性能造成影响。 并不是直接对原来的数据进行删减,而是把原来的数据映射到新的一个特
征空间中继续表示,所有新的特征空间如果有19维,那么这19维足以能够表示非常非常多的数据,并没 有对原来的数据进行删减,只是把原来的数据映射到新的空间中进行表示,所以你的测试样本也要同样
的映射到这个空间中进行表示,这样就要求你保存住这个空间坐标转换矩阵,把测试样本同样的转换到相 同的坐标空间中。
2.确保这些变量是相互独立的
有效信息的提取综合及无用信息的摈弃。
3.提供一个框架来解释结果
降维标准:
投影后类内方差最小,类间方差最大。我们要将数据在低维度上进行投影, 投影后希望每一种类别数据的投影点尽可能的接近,而不同类别的数据的类别中心 之间的距离尽可能的大。
我们的数据一般是多个类别的,一般也是超过二维的,投影后的也一般不 是直线,而是一个低维的超平面。
根据需求取前k个特征值最大的特征向量。
举例:64*64大小的20张人脸图片进行训练。
每一列表示一个样本,这样就一共有4096*20的待降维矩阵,然后对这个矩阵降维,请 注意,如果采用列表示一个样本,那么获得的降维矩阵,是一个4096*19的矩阵,然后 用这个降维矩阵对测试样本和训练样本降维,我们的测试样本是4096*1的矩阵,降维 的时候这样: Y =UT* X ; UT (对降维矩阵进行转置)为19*4096的矩阵, 19*4096 * 40百度文库6*1,就获得了19*1的降维后的数据。
LDA是在目前机器学习、数据挖掘领域经典且热门的一个降维算法,LDA在模式识别领 域(比如人脸识别,舰艇识别等图形图像识别领域)中有非常广泛的应用。百度商务搜 索部里面也用了不少这方面的算法。
降维的目的: 1.减少预测变量的个数
在人脸识别中特征提取及数据维,假设输入200*200大小的人脸图像,单单提取它的灰度值作 为原始特征,则这个原始特征将达到40000维,这给后面分类器的处理将带来极大的难度。
得到了k个特征向量,如何匹配某人脸和数据库内人脸是否相似呢,方法是将这个 人脸在k个特征向量上做投影,得到k维的列向量或者行向量,然后和已有的投影求 得欧式距离,根据阈值来判断是否匹配。
LDA过程回顾:
1) 计算类内散度矩阵 Sw 2) 计算类间散度矩阵 Sb 3) 计算矩阵Sw−1Sb 4)计算Sw−1Sb的最大的d个特征值和对应的d个特征向量(w1,w2,...wd),得到投影矩阵 5) 对样本集中的每一个样本特征xi,转化为新的样本zi=WTxi 6) 得到输出样本集
有监督学习:分类。通过已有的训练 样本(即已知数据以及其对应标签) 去训练得到一个最优模型(这个模型 属于某个函数的集合,最优则表示在 某个评价准则下是最佳的),再利用 这个模型将所有的输入映射为相应的 输出。KNN、SVM
无监督学习:聚类。训练数据没有标签。K_means,PCA,随机森林
半监督学习:其训练数据的一部分是有标签的,另一部分没有标签。在很多实际问题中, 只有少量的带有标记的数据,因为对数据进行标记的代价有时很高半监督分类,半监督 聚类。
i是数据的分类个数,Ni代表某个分类下的数据点数,比如μ 1代表红点的中心,μ2代表蓝点的中心。
类均值点投影到w上的中心为: 如何判断向量w最佳?1、不同的分类得到的投影点要尽量分开;2、同一个分类投 影后得到的点要尽量聚合。从这两方面考虑,可以定义如下公式:
J(w)代表不同分类投影中心的距离,它的值越大越好。
LDA(线性判别分析) 2017.11
LDA(线性判别分析)
LDA的全称是Linear Discriminant Analysis(线性判别分析1936Ronald Fisher), 是一种监督学习降维方法,也就是说它的数据集的每个样本是有类别输出的。这点和 PCA(Principal Component Analysis)不同。PCA是不考虑样本类别输出的无监督降维技 术。
展开J(w)的分子并定义SB,SB称为Between-class scatter。 这样就得到了J(w)的最终表示:
上式求极大值可以利用拉格朗日乘数法,不过需要限定一下分母的值,否则分子分母
都变,怎么确定最好的w呢。可以令
,利用拉格朗日乘数法得到:
上式两边同乘以
可以得到:
发现w其实就是矩阵
的特征向量。
• LDA人脸识别(Fisherface)
通常情况下,待匹配人脸要和人脸库内的多张人脸匹配,所以这是一个多分类 的情况。出于简单考虑,可以先介绍二类的情况然后拓展到多类。假设有二维平面上 的两个点集x(x是包含横纵坐标的二维向量),它们的分布如下图(分别以蓝点和红 点表示数据):
以数学公式给出投影点到到原点的距离: w以从原点出发的直线来表示,直线上的点是原数据的投影点。下图给出了两种w 方案,直观判断右侧的w更好些,其上的投影点能够合理的区分原有的两个数据集。 但是计算机不知道这些,所以必须要有确定的方法来计算这个w。
上式称之为散列值(scatter matrixs),代表同一个分类投影后的散列值,也就 是投影点的聚合度,它的值越小代表投影点越聚合。
上式是w的函数,值越大w降维性能越好,下面的问题就是求解使上式取最大值的w。
把散列函数展开:
可以发现除w和wT外,剩余部分可以定义为:
这就是原数据的散列矩阵了 Sw称为Within-class scatter matrix。 得到:
小样本问题
在LDA 算法中存在训练样本数(20)比图像向量的维数4096要小很多的问题,即人脸 小样本问题,因此类内离散度Sw 总为奇异矩阵。这使得使用LDA方法求解变得很困难。 为此,我们利用PCA算法将4096维的人脸图像压缩为71维,就可避免出现小样本问题。 降维后再采用LDA算法利用人脸的类标签信息,就可提取出最具有判别能力的低维特 征子空间。
放映结束 感谢各位的批评指导!
谢 谢!
让我们共同进步
降维会不会对性能造成影响。 并不是直接对原来的数据进行删减,而是把原来的数据映射到新的一个特
征空间中继续表示,所有新的特征空间如果有19维,那么这19维足以能够表示非常非常多的数据,并没 有对原来的数据进行删减,只是把原来的数据映射到新的空间中进行表示,所以你的测试样本也要同样
的映射到这个空间中进行表示,这样就要求你保存住这个空间坐标转换矩阵,把测试样本同样的转换到相 同的坐标空间中。
2.确保这些变量是相互独立的
有效信息的提取综合及无用信息的摈弃。
3.提供一个框架来解释结果
降维标准:
投影后类内方差最小,类间方差最大。我们要将数据在低维度上进行投影, 投影后希望每一种类别数据的投影点尽可能的接近,而不同类别的数据的类别中心 之间的距离尽可能的大。
我们的数据一般是多个类别的,一般也是超过二维的,投影后的也一般不 是直线,而是一个低维的超平面。
根据需求取前k个特征值最大的特征向量。
举例:64*64大小的20张人脸图片进行训练。
每一列表示一个样本,这样就一共有4096*20的待降维矩阵,然后对这个矩阵降维,请 注意,如果采用列表示一个样本,那么获得的降维矩阵,是一个4096*19的矩阵,然后 用这个降维矩阵对测试样本和训练样本降维,我们的测试样本是4096*1的矩阵,降维 的时候这样: Y =UT* X ; UT (对降维矩阵进行转置)为19*4096的矩阵, 19*4096 * 40百度文库6*1,就获得了19*1的降维后的数据。
LDA是在目前机器学习、数据挖掘领域经典且热门的一个降维算法,LDA在模式识别领 域(比如人脸识别,舰艇识别等图形图像识别领域)中有非常广泛的应用。百度商务搜 索部里面也用了不少这方面的算法。
降维的目的: 1.减少预测变量的个数
在人脸识别中特征提取及数据维,假设输入200*200大小的人脸图像,单单提取它的灰度值作 为原始特征,则这个原始特征将达到40000维,这给后面分类器的处理将带来极大的难度。
得到了k个特征向量,如何匹配某人脸和数据库内人脸是否相似呢,方法是将这个 人脸在k个特征向量上做投影,得到k维的列向量或者行向量,然后和已有的投影求 得欧式距离,根据阈值来判断是否匹配。
LDA过程回顾:
1) 计算类内散度矩阵 Sw 2) 计算类间散度矩阵 Sb 3) 计算矩阵Sw−1Sb 4)计算Sw−1Sb的最大的d个特征值和对应的d个特征向量(w1,w2,...wd),得到投影矩阵 5) 对样本集中的每一个样本特征xi,转化为新的样本zi=WTxi 6) 得到输出样本集
有监督学习:分类。通过已有的训练 样本(即已知数据以及其对应标签) 去训练得到一个最优模型(这个模型 属于某个函数的集合,最优则表示在 某个评价准则下是最佳的),再利用 这个模型将所有的输入映射为相应的 输出。KNN、SVM
无监督学习:聚类。训练数据没有标签。K_means,PCA,随机森林
半监督学习:其训练数据的一部分是有标签的,另一部分没有标签。在很多实际问题中, 只有少量的带有标记的数据,因为对数据进行标记的代价有时很高半监督分类,半监督 聚类。