第4章统计分类器及其学习第四讲精品PPT课件
统计学课件PPT课件
用直条表示频数,用横轴表示 数据范围,纵轴表示频数。
箱线图
表示一组数据的中位数、四分 位数和异常值。
散点图
表示两个变量之间的关系。
折线图
表示时间序列数据随时间的变 化趋势。
04
概率与概方法
描述随机事件发生的可能性程度,通 常用P表示。
通过实验或经验数据计算随机事件的 概率。
表示数量、大小、距离等可以量化的 数据,如年龄、收入。
统计数据的收集方法
直接观察法
通过实地考察、观测等方式收集数据, 如市场调研人员现场观察消费者行为。
实验法
通过实验设计和实验操作获取数据, 如产品测试实验。
调查法
通过问卷、访谈等方式收集数据,如 民意调查。
行政记录法
通过政府部门或企业提供的记录获取 数据,如企业财务报表。
01
单总体参数假设检 验的概念
根据单一样本数据对总体参数进 行假设检验。
02
单总体参数假设检 验的方法
如t检验、Z检验、卡方检验等。
03
单总体参数假设检 验的应用场景
如检验单个样本的平均数、比例 等是否与已知的总体参数存在显 著差异。
两总体参数的假设检验
两总体参数假设检验的概念
根据两个样本数据对两个总体的参数进行假设检验。
04
常见概率分布及其应用
二项分布
适用于独立重复试验中成功次数的概率分布, 如抛硬币、抽奖等。
正态分布
适用于许多自然现象的概率分布,如人的身 高、考试分数等。
泊松分布
适用于单位时间内随机事件的次数概率分布, 如放射性衰变、网站访问量等。
指数分布
适用于描述时间间隔或寿命的概率分布,如 电子产品寿命、等待时间等。
统计分类器-第四章统计分类器
判别准则:
ll1 12 2
X X
21, 21,
X1 X2
h
14
贝叶斯分类器的错误率估计
P e t p x 1 P 1 d x t p x 2 P 2 d x
h
15
4.3 最小平均风险准则贝叶斯分类器
问题的提出 有M个类别Ω1,Ω2 ,... , ΩM, 将Ωi类的样本判别为Ωj类的代价为Lij。 将未知模式X判别为Ωj类的平均风险为:
需要训练的参数:aj,mj,Cj; 训练算法一般采用EM迭代算法。Expectation Maximization Algorithm
h
24
隐含Markov模型 (Hidden Markov Model, HMM)
h
25
观察序列
信号的特征需要用一个特征矢量的序列来表示:
O O 1,O 2, ,O T
其中的Oi为一个特征矢量,称为一个观察值。
Байду номын сангаас
h
26
HMM的结构
HMM由若干个隐状态构成,隐状态之间可以进行转移,是一个Markov过程。 隐状态是不可见的,每一个隐状态在每一个时刻可以输出任何观察值,但输出的概率不同。
h
27
“左-右”模型结构
1
2
h
3
28
HMM的数学表示
A,B,π
状态转移矩阵:A,M*M的方阵; 状态输出概率密度:B,包括M个概率密度函数; 初始概率:π,包括M个元素。
M维模型的状态数。
h
29
HMM的识别
计算出模型λ输出待识模式观察序列O的概率:
P O
计算量大,MT; Viterbi算法:M2T。
智能科学与技术导论课件第4章
4.1 模式识别概述
4.1.4 模式识别原理与过程
3.特征提取和选择
从大量的特征中选取出对分类最有效的有限特征,降低模式识别过程的计算复杂度,提高分 类准确性,是特征提取和选择环节的主要任务,目的都是为了降低特征的维度,提高所选取的特 征对分类的有效性。
4.1 模式识别概述
4.1.2 模式识别的基本概念
3.有监督学习与无监督学习
模式识别的核心是分类器,在已经确定分类器模型和样本特征的前提下,分类器通过某些算 法找到自身最优参数的过程,称为分类器的训练,也称为分类器的“学习”。
根据训练样本集是否有类别标签,可以分为有监督学习和无监督学习。 (1)有监督学习
1936年,英国学者Ronald Aylmer Fisher提出统计分类理论,奠定了统计模式识别的基础。 1960年,美国学者Frank Rosenblatt提出了感知机。 60年代,L.A.Zadeh(乍得)提出了模糊集理论,基于模糊数学理论的模糊模式识别方法得以 发展和应用。
4.1 模式识别概述
由于过分追求训练样本集中样本的分类的正确性,从而导致的分类器泛化能力降低,称为 分类器训练过程中“过拟合”。
4.1 模式识别概述
4.1.3 模式识别的基本方法
1.统计模式识别
统计模式识别原理: 1)根据待识别对象所包含的原始数据信息,从中提取出若干能够反映该类对象某方面性质的 相应特征参数,并根据识别的实际需要从中选择一些参数的组合作为一个特征向量。 2)依据某种相似性测度,设计一个能够对该向量组表示的模式进行区分的分类器,就可把特 征向量相似的对象分为一类。 统计模式识别是主流的模式识别方法,其将样本转换成多维特征空间中的点,再根据样本的 特征取值情况和样本集的特征值分布情况确定分类决策规则。 其主要的理论基础包括概率论和数理统计; 主要方法包括线性分类、非线性分类、Bayes分类器、统计聚类算法等。
统计基础知识ppt课件
目录
• 统计概述 • 描述性统计方法 • 概率论基础 • 推断性统计方法 • 方差分析与回归分析 • 时间序列分析与预测 • 统计软件应用与实例分析
01
统计概述
统计定义与作用
统计定义
统计是收集、整理、分析和解释数据 ,以揭示其数量特征和规律性的科学 。
统计作用
统计在各个领域都有广泛应用,如经 济、社会、医学、环境等。通过统计 ,我们可以更好地了解事物的数量特 征和规律,为决策提供依据。
演示如何对数据进行编码、转换 和标准化等预处理操作,以便进
行后续的统计分析。
基于实例数据的描述性统计结果展示
01
集中趋势度量
计算并展示实例数据的均值、中 位数和众数等集中趋势指标。
03
分布形态描述
通过绘制直方图、箱线图等图形 ,直观展示实例数据的分布形态
。
02
离散程度度量
计算并展示实例数据的标准差、 方差和四分位距等离散程度指标
03
概率论基础
事件与概率概念
事件定义与分类
事件是在一定条件下,所关心的某种 结果或某种现象的发生。根据事件之 间的关系,可以将其分为互斥事件、 对立事件、独立事件等。
概率定义与性质
古典概型与几何概型
古典概型是指具有有限个可能结果的 概率模型,几何概型是指具有无限多 个可能结果,且每个结果发生的可能 性相等的概率模型。
对模型进行检验和评估,确定 模型有效性
利用模型进行长期趋势预测并 输出结果
07
统计软件应用与实例 分析
常用统计软件介绍及功能比较
01
02
03
04
SPSS
适合社会科学领域的数据分析 ,提供丰富的统计方法和图形
2024年大班数学分类统计课件
2024年大班数学分类统计课件一、教学内容本课件依据教材第四章“数据的收集与统计”展开,详细内容包括:认识不同的分类标准,学习使用图表进行数据整理和简单描述,掌握分类统计的基本方法。
二、教学目标1. 理解分类统计的概念,并能够运用到实际情景中。
2. 能够通过观察图表,进行数据的整理和分析,得出相应的结论。
3. 培养学生的逻辑思维和问题解决能力,增强数学应用意识。
三、教学难点与重点教学难点:如何引导学生根据不同的分类标准进行数据整理和描述。
教学重点:分类统计方法的应用,以及通过图表分析数据的能力。
四、教具与学具准备1. 教具:多媒体教学设备,PPT课件,统计图表。
2. 学具:学生用图表纸,彩色笔,计数器。
五、教学过程1. 实践情景引入(5分钟)展示一组关于“交通工具”的图片,引导学生观察并提问:“你能把这些交通工具按照一定的标准分类吗?”2. 例题讲解(10分钟)通过PPT展示例题,引导学生根据不同的分类标准进行数据整理。
讲解如何使用图表进行数据记录和描述,强调分类统计的方法。
3. 随堂练习(15分钟)学生分组,每组选择一个分类标准,对给定的一组物品进行分类统计。
教师巡回指导,解答学生疑问。
提问:“你们还能想到其他的分类标准吗?”引导学生进行拓展思考。
六、板书设计1. 板书“数据的收集与统计”2. 主要内容:分类标准数据整理方法分类统计步骤七、作业设计1. 作业题目:将统计结果制作成图表,并进行简单描述。
2. 答案:学生完成作业后,教师进行批改,给出评价和建议。
八、课后反思及拓展延伸1. 反思:本次教学活动是否达到了预期的教学目标?学生的参与度和积极性如何?2. 拓展延伸:引导学生思考如何将分类统计的方法应用到生活中,例如家庭物品的分类整理等。
重点和难点解析1. 教学难点:如何引导学生根据不同的分类标准进行数据整理和描述。
2. 实践情景引入:确保情景能够有效吸引学生的兴趣,并与教学内容紧密结合。
3. 例题讲解:确保讲解清晰,使学生能够理解分类统计的方法。
2024全新统计学ppt课件(2024)
非平稳时间序列转换方法
01
02
03
转换后时间序列建模与 预测
对转换后序列进行平稳 性检验
选择合适模型进行建模 与预测
2024/1/29
33
组合预测模型应用
2024/1/29
组合预测模型原理
综合多个单一模型预测结果,提高预测精度和 稳定性。 组合预测模型构建步骤
34
组合预测模型应用
选择合适的单一预测模型
单侧检验与双侧检验
介绍单侧检验与双侧检验的概 念,根据实际问题选择合适的 检验类型。
常见的假设检验方法
列举并介绍常见的Z检验、t检 验、F检验和χ²检验等方法,阐 述其适用条件和计算步骤。
假设检验的注意事项
讨论假设检验中可能犯的第一 类错误和第二类错误,阐述样
本容量对假设检验的影响。
17
04
方差分析与回归分析应用举例
数据输入与格式设置
快速输入数据、设置数据格式、使用数据验 证等技巧。
数据可视化
创建图表、修改图表样式、添加数据标签等 可视化操作。
2024/1/29
数据整理与清洗
利用筛选、排序、查找替换等功能进行数据 清洗。
数据分析工具
使用Excel内置的数据分析工具进行描述性 统计、回归分析等。
38
SPSS软件操作界面简介
分布函数与概率密度函数
02
定义分布函数,介绍离散型随机变量的概率分布列及连续型随
机变量的概率密度函数。
常见的随机变量分布
03
列举并介绍常见的离散型(如二项分布、泊松分布)和连续型
(如正态分布、指数分布)随机变量分布。
15
参数估计方法
2024/1/29
第4章统计分类器及其学习第五讲精品PPT课件
HMM示例
如图HMM模型,初始概率: 1 1 2 0 3 0 状态转移概率矩阵:
a12
1
b11 b12 b13 b14
2
a23 b21 b22 b23 b24
a13
3
b31 b32 b33 b34
0 0.3 0.7
A
0
0.6
0
.4
0 0 1
状态输出概率矩阵:
HMM组成
Markov链 (, A)
状态序列 w1, w2, ..., wT
随机过程 观察值序列
(B)
v1, v2, ..., vT
HMM的组成示意图
一阶隐含Markov模型
• 隐含Markov模型中,状态是不可见的,在 每一个时刻t,模型当前的隐状态可以输出 一个观察值。
• 隐状态输出的观察值可以是离散值,连续 值,也可以是一个矢量。
观察序列
• 信号的特征需要用一个特征矢量的序列来 表示:
VT v1,v2, ,vT
• 其中的vi为一个特征矢量,称为一个观察值。
HMM的由来
1870年,俄国有机化学家Vladimir V. Markovnikov第一次提出马尔科夫模型
马尔可夫模型 马尔可夫链 隐马尔可夫模型
马尔可夫性
• 如果一个过程的“将来”仅依赖“现在” 而不依赖“过去”,则此过程具有马尔可 夫性,或称此过程为马尔可夫过程
HMM的工作原理
• HMM的内部状态转移过程同Markov模型相同,在每 次状态转移之后,由该状态输出一个观察值,只是状 态转移过程无法观察到,只能观察到输出的观察值序 列。
• 以离散的HMM为例,隐状态可能输出的观察值集合为 {v1, v2, …, vK},第i个隐状态输出第k个观察值的概率 为bik。
统计基础知识ppt课件
按收集 资料的 方式分
全
非统
专
经
面
全计
门
常
调 查
面 调
报
查表
调 查
性 调 查
一
直 访报
次
接 问告
性 调
观 察法法源自查法302、统计调查方案
一份完整的调查方案包括:
(1)确定调查任务与目的 注意:抓住当前最迫切需要解决的问题; 把需要与可能相结合
(2)确定调查对象、调查单位、报告单位 调查对象:调查研究的总体或调查范围。 调查单位:所要调查的具体单位。 报告单位:负责向统计调查机关提交调查资料的单位。
特例:人的年龄是连续变量但常用整数统计
23
变量的分类:
❖ 变量按其受影响因素的不同,可分为确定性变量和随机 变量两种。
❖ 受确定性因素影响的变量称为确定性变量,这种影响变 量值变化的因素是明显的、可以解释的,其影响变量值 变化的大小、方向都可以确定。
❖ 如:产品总成本的变化,受产品产量和单价两个因素的 影响。
❖ 不变标志:指某个标志在所有总体单位的具体表现都相同。 ❖ 可变标志:指某个标志在各总体单位的具体表现不相同。
10
2、 统计的基本概念
(3)变异和变量
变异:是有差别的意思,分为质的差异和量的差异。
例如:民营企业职工:性别标志有男女之分;年龄标志有数 量的大小之差,前者是属性变异,后者是数量变异。
省 级: 一等奖 项;二等奖 项;三等奖 项
质量指标
国家:
个; 省:
个
国家:
个; 省:
个
个
个
认证(是、否)
认证(是、否)
采用国际标准认可证书
项;
使用采标标志
大学课程《人工智能导论》PPT课件:第4章 分类与聚类
➢ conda list scikit-learn # to see which scikit-learn version is installed
引言
➢ML基本步骤
➢模型评估
➢ fowlkes_mallows_score:精确率和召回率的几何平均值,[0,1],越大,越相似。
➢ silhouette_score:轮廓系数,[-1,1]同类别越近,不同类别越远,系数越大。
➢ calinski_harabaz_score:类内部协方差越小,类之间协方差越大,该数值越大,聚类
➢数据清洗
➢构建模型
➢评估模型
➢模型应用
--[1]https:///oldwitch/p/12089884.html
引言
➢ML基本步骤
➢提出问题
➢ 分类
➢ 回归
➢ 聚类
➢ 降维
➢…
引言
➢ML基本步骤
➢ 理解数据
➢ 采集数据
➢ sklearn.datasets中有练习数据(数据要有代表性,数据量要合适)
➢ 导入数据
➢ pd.csv...
➢ 查看数据集信息
➢ data.shape查看数据集大小;.shape[0]查看行数;.shape[1]查看列数
➢ df.head()查看前几行;
➢ df.describe()查看数值数据的描述统计信息;
➢ ()根据行数查看数据是否有缺失值,数据类型是否合适
➢ Z-core,化为均值为0,方差为1:(x-mean(x))/std(x)/sklearn.preprocessing.scale(),适合最大/最小值未
[课件]第四章 统计描述PPT
的信息,对未知总体的情况做出具有一定概
率保证的估计和推断,包括假设检验和参数
估计两大内容。
2018/12/2
3
4.1 基本概念和原理
4.1.1频数分布
频数分布的概念及其构成
在统计分组的基础上,把总体所有单位按某一标志 进行分组,计算各组的单位数,它是统计描述的一 种重要形式。分布数列由两个要素构成:按某标志 所分的组;各组单位数。 L d L d o (f f ) (f f ) Δ Δ m 1 m 1 1 2
2018/12/2
9
4.1 基本概念和原理
4.1.2离散程度指标
变异指标的概念、作用及分类。
1、极差(Range)
R=Xmax-Xmin
几个术语
频数(次数)、频率(比率);累计频数(次数)、 累计频率(比率)
2018/12/2
4
4.1 基本概念和原理
成绩分组 人数 (人) 比重 向上累计 (%) 累计频数(人) 累计频率(%)
60以下
60~70 70~80 80~90 90以上
2
10 15 20 3
4
20 30 40 6
2
12 27 47 50
4
24 54 94 100
合 计
2018/12/2
50
100
——
——
5
4.1 基本概念和原理
4.1.2集中趋势指标
平均指标的概念、作用及分类。 1.算术平均数(Mean)
简单算术平均数:
x 1 x 2 x n 1 x i n n
统计分类器及学习
第四章 统计分类器及学习在距离分类器和判别函数分类器中,我们都是把模式看作是N 维欧氏空间中的一个点,而且统一类别的模式在空间中聚集在一定的区域,不同模式的区域在空间中具有一定的分离性。
在本章所讨论的统计分类器中,我们仍然认为模式是欧氏空间中的一个点,但是每一类模式不是分布在空间中的一个确定区域,而是可能分布在整个空间,只不过空间中每一点属于某一类的概率不同,属于这一类的可能性大一些,属于另一类的可能性小一些。
我们可以利用这样的性质来建立统计分类器。
4.1 概率论基本知识本章中我们使用的主要数学工具是概率论,因此先来复习一些概率论的知识。
一、事件自然界的事件可以分为确定性事件和不确定性事件,确定性和不确定性主要体现在事件的概念和发生上。
概念是确定的,发生也是确定的,这是确定事件,例如在标准大气压下,水加热到100度就会开;概念是确定的,发生是不确定的,称为随机事件,例如掷骰子事件;还有一些事件的概念本身就不确定,这类事件称为模糊事件,例如年青人的概念是不确定的,遇到的人是年青人的事件就是模糊事件。
对模糊事件的处理,在模式识别中也占有重要的地位,本章中我们只讨论随机事件。
二、随机变量随机事件的数量表示称为随机变量。
取值为离散的称为离散随机变量,例如掷硬币,只可能出现正、反两面,分别用0和1表示;取值为连续的称为连续随机变量,例如测量物体的长度。
三、频率和概率设A 为联系于某个试验的随机事件,试验在相同的条件下重复N 次,其中M 次A 事件发生,则A 发生的频率为M N ,计为:()N f A M N =。
由于A 事件的随机性,A 的频率也是一个随机变量。
但是当N 很大时,频率会趋向一个稳定值,称为A 的概率,即()()lim N N P A f A →∞=。
四、联合概率和条件概率联合概率:设,A B 是两个随机事件,A 和B 同时发生的概率称为联合概率,记为:(),P A B ; 条件概率:在B 事件发生的条件下,A 事件发生的概率称为条件概率,记为:()P A B ; 乘法定理:条件概率与联合概率之间存在如下关系:()()(),P A B P A B P B =;五、概率密度函数概率分布函数:设X 为连续型随机变量,定义分布函数()()F x P X x =≤; 概率密度函数:如果存在一个非负函数()p x 使得()()xF x p t dt -∞=⎰成立,则称()p x 为X 的概率密度函数。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
k 1
k 1
n
n
n
ak 2e22 aket(xkm ) xkm 2
n
k 1 n
n 1
k 1
J1(e) ak22 ak2 xkm2
k 1
ak et(xk m)
k1
k1
k1
n
et(xkm )2n
xkm2
kn 1
k1
n
et(xkm )(xkm )te xkm 2协方差矩阵的n-
m
1 n
n k1
xk
简单,但不能反 映样本间的差异
一维表达:将这些样本,映射到过m的一条直线上使误差最小? n 1,选取散布矩阵 S (xk m)(xk m)t 最大特征值 m a x k1 2,选取 m a x 对应的特征向量作为直线方向 xmae 3:将这些样本,映射到以m为原点的d’维空间中,使误
差准则函数最小?
PCA算法d’ 维表达:
有样本集合x1, ,xn,其中 xx1, ,xd,t 以样本均值 m d
为坐标原点建立新的坐标系,则有:x m 。
aiei ,其中
e i 为标准正交向量基:
因此有: i1
etie j
1, 0,
i j i j
ai eti xm
d
将特征维数降低到 d d ,则有对 x 的近似:xˆ m aiei
• PCA的其它名称:离散K-L变换,Hotelling 变换;
问题:有n个d维样本,x1,x2,..xn,如何仅用一个样本 x0代表这些样本,使误差准则函数最小?
n
J0(x0) x0xk 2 kn1
x0
m
1 n
n
xk
k1
(x0m)(xkm)2
k1
n
n
n
x 0 m 2 2(x 0 m )t(x k m ) x k m 2
误差平方和准则函数:
i1
n
Je
xk xˆk 2 n
d
d
2n
aikei aikei
d
2
aik ei
k1
k1 i1
i1
k 1 id1
nd
dn
a
2 ik
etixkmxkmeit
k 1 i d 1
id1k1
PCA算法d’ 维表达:
n
Je
xk xˆk 2 n
d
d
2n
aikei aikei
e
散布矩阵
散布矩阵的
Se e 特征值
etSeete
为了最大化 e t S e
选取散布矩阵最大特征值 m a x
选取 m a x 对应的特征向量作为投影直线e 的方向
PCA算法——从0维,1维到d’ 维
有n个d维样本,x1,x2,..xn,
零维表达:仅用一个样本x0代表这些样本,使误差最小?
x0
第四章统计分类器及其学习 第四讲
Principal Component Analysis
Fisher 线性判别准则
问题的提出
• 在建立识别系统时,抽取的原始特征往往比 较多,特征的维数比较大,这会给识别器的 训练带来很大的困难,因此希望能够采用某 种方法降低特征的维数。这些方法可以称作
成分分析的方法。
d
Je eT iSeii eT iei1 id1
Je
ei 2Sei
2iei
0
Sei iei
i 为 S 的特征值,e i 为 S 的特征矢量。
d
d
d
J e eTi Sei
i
e
T i
e
i
i
id1
id 1
i d 1
要使 J e 最小,只需将 S 的特征值由大到小排序,选择最大的前
k 1
k 1
1倍:散布矩阵
n
etSe xk m2
n
S (xk m)(xk m)t
k1
k1
最 小 化 J 1 ( e ) 最 大 化 e t S e , 约 束 条 件 为 : e = 1
最 大 化 e tS e, 约 束 条 件 为 : e= 1
Lagrange乘子法
uetSeete
u2Se 2e=0
d 个特征值对应的特征向量构成一个新的 d 维坐标系,将样本
向新的坐标系的各个轴上投影,计算出新的特征矢量
x1, ,xdT a 1, ,ad T 其中 ai eTi xm
PCA算法
1. 利用训练样本集合计算样本的均值m和散 布矩阵S;
2. 计算S的特征值,并由大到小排序;
3. 选择前d’个特征值对应的特征矢量作成一 个变换矩阵E=[e1, e2, …, ed’];
1. 主成分分析;寻找最小均方意义下,最能代表原始 数据的投影方法
2. 多重判别分析;寻找最小均方意义下,最能分开各 类数据的投影方法
人脸识别举例
1 主成分分析
(PCA,Principal Component Analysis)
• PCA是一种最常用的线性成分分析方法;
• PCA的主要思想是寻找到数据的主轴方向, 由主轴构成一个新的坐标系(维数可以比 原维数低),然后数据由原坐标系向新的 坐标系投影。
简单,但 不能反映 样本间的 差异
每个样本在直线上存在不同的投影,可以反映样本间的差异
xmae
ak
e为直线的单位向量
a为直线上的点到m的距离
x k make
n
J0(m) mxk 2 k1 0维平方误差
n
J1(a1, an,e) (m ake)xk2 k1 1维平方误差
n
n
J 1 (a 1 , a n ,e )(m a k e ) x k2a k e (x k m )2
k 1
k 1
k 1
n
n
n
x 0 m 2 2 (x 0 m )t (x k m ) x k m 2
k 1
k 1
k 1
x0=m时取得最小值
0
不依赖于x0
样本均值是样本数据集的零维表达。 将样本数据集的空间分布,压缩为一个均值点。
零维表达改为“一维”表达,将数据集空间, 压缩为一条过均值点的线。
k 1
k 1
n
n
n
ak 2e22 aket(xkm ) xkm 2
k 1 1
k 1
k 1
J1(a 1 ,akan,e)2ak2et(xkm )0
ak et(xk m)
xk
m
只需把向量 x k 向过 m 的直线
垂直投影就能得到最小方差
如何找到直线的最优方向?
n
n
J 1 (a 1 , a n ,e )(m a k e ) x k2a k e (x k m )2
d
2
aik ei
k1
k1 i1
i1
k 1 id1
nd
dn
ai2k
etixkmxkmeit
k 1 i d 1
id1k1
idd1eti kn1 xkmxkmeit
d
e
t i
S
e
t i
i d 1
散布矩阵
最 小 化 J(e ), 约 束 条 件 为 : e= 1使用拉格朗日乘数法:
d
Je eT iSeii eT iei1 id1