第4章分类基本概念决策树与模型评估-PPT精选
决策树ppt课件
分类问题背景介绍
分类问题是机器学习中一类重要 的问题,旨在将数据划分为不同
的类别。
在现实世界中,分类问题广泛存 在,如垃圾邮件识别、疾病诊断、
信用评分等。
分类算法的目标是通过学习训练 数据中的特征与类别之间的关系, 从而对新的未知数据进行类别预
测。
决策树在分类问题中优势
直观易理解
决策树在处理缺失值和异常值时容易受到干扰,可能导致模型性能下降。可以通过数据 预处理等方法减少缺失值和异常值对模型的影响。
CART算法实例演示
实例背景
假设有一个关于信用卡欺诈的数据集,包含多个特征(如交 易金额、交易时间、交易地点等)和一个目标变量(是否欺 诈)。我们将使用CART算法构建一个分类模型来预测交易 是否属于欺诈行为。
构建决策树时间较长
C4.5算法在构建决策树时需要计算每 个特征的信息增益比,当数据集较大 或特征较多时,构建决策树的时间可 能会较长。
C4.5算法实例演示
数据集介绍
以经典的鸢尾花数据集为例,该数据集包含150个 样本,每个样本有4个特征(花萼长度、花萼宽度、 花瓣长度、花瓣宽度)和1个标签(鸢尾花的类 别)。
建造年份等特征。
选择合适的决策树算法 (如CART、ID3等),
对数据进行训练。
模型评估与优化
采用均方误差等指标评 估模型性能,通过调整 参数、集成学习等方法
优化模型。
结果展示与解读
展示决策树图形化结果, 解释每个节点含义及预
测逻辑。
08
CATALOGUE
总结与展望
决策树模型总结回顾
模型原理
决策树通过递归方式将数据集划分为若干个子集,每个子 集对应一个决策结果。通过构建树形结构,实现分类或回 归任务。
分类基本概念决策树与模型评估
PPT文档演模板
分类基本概念决策树与模型评估
基于标称属性的分裂
l 多路划分: 划分数(输出数)取决于该属性不同属 性值的个数.
•CarType
•Family
•Luxury
•Sports
l 二元划分: 划分数为2,这种划分要考虑创建k个属 性值的二元划分的所有2k-1-1种方法.
•{Sport s,
PPT文档演模板
分类基本概念决策树与模型评估
一个决策树的例子
• 训练数据
PPT文档演模板
• Splitting Attributes
• Yes
• Ref und • No
• NO
• Mar
• Single, Divorced St • Married
• TaxI
• NO
• < 80K
nc• > 80K
•P(C1) = 0/6 = 0 P(C2) = 6/6 = 1 •Gini = 1 – P(C1)2 – P(C2)2 = 1 – 0 – 1 = 0
•P(C1) = 1/6
P(C2) = 5/6
•Gini = 1 – (1/6)2 – (5/6)2 = 0.278
•P(C1) = 2/6
P(C2) = 4/6
l 决策树的使用:对未知样本进行分类
– 通过将样本的属性值与决策树相比较
PPT文档演模板
分类基本概念决策树与模型评估
决策树分类任务
PPT文档演模板
•Decision Tree
分类基本概念决策树与模型评估
一个决策树的例子
• 训练数据
PPT文档演模板
• Splitting Attributes
分类基本概念决策树和模型评估
分类基本概念决策树和模型评估分类是机器学习中的一个重要任务,它的目标是将给定的数据样本划分到预定义的类别中。
分类问题在实际中有广泛的应用,比如垃圾邮件分类、疾病诊断等。
在分类任务中,决策树是一种常用的分类模型。
它是一种通过对数据集进行一系列的特征划分来构建一个树形结构的模型,以实现对数据的分类。
决策树模型的构建需要解决以下几个核心问题:1. 特征选择:选择最佳的特征进行划分,使得每个划分后的子集尽可能纯净(包含同一类别的样本)。
常用的特征选择方法有Gini指数、信息增益等。
2.结点划分:对每个结点进行划分,构建子结点。
可以采用二叉树的划分方式,也可以使用多叉树。
3.剪枝策略:决策树容易过拟合,为了有效防止过拟合,需要对决策树进行剪枝操作。
常用的剪枝策略有预剪枝和后剪枝。
4.决策规则的提取:根据构建好的决策树模型,可以通过遍历树获取分类的决策规则,以应用于新的样本。
决策树模型有很多优点,例如易于理解和解释、可处理离散和连续型特征等。
然而,决策树也有一些局限性,比如容易产生过拟合问题、对异常值敏感等。
在使用决策树模型进行分类之前,还需要进行模型的评估。
模型评估的目的是评估模型的性能和泛化能力,以便选择最佳的模型。
常用的模型评估方法有:1.训练集和测试集划分:将数据集划分为训练集和测试集,用训练集来构建模型,用测试集来评估模型的性能。
2.交叉验证:将数据集划分为k个子集,依次使用k-1个子集作为训练集,剩下的一个子集作为测试集,然后计算模型在所有测试集上的性能指标的平均值。
3.混淆矩阵:混淆矩阵用于衡量模型的分类性能,它将真实类别与预测类别进行比较,可以计算出准确率、召回率等指标。
4.ROC曲线和AUC值:ROC曲线是根据不同的分类阈值绘制出来的,横坐标是假阳率,纵坐标是真阳率。
AUC值表示ROC曲线下面积的大小,反映了模型分类性能的综合指标。
决策树模型的评估和选择是非常重要的,可以帮助选择最佳的模型参数和特征,以提高分类的准确性。
数据挖掘PPT全套课件
记录数据
记录(数据对象)的汇集,每个记录包含固定的数 据字段(属性)集
Tid Refund Marital Taxable Status Income Cheat
1 Yes 2 No 3 No 4 Yes 5 No 6 No 7 Yes 8 No 9 No 10 No
10
Single 125K No
和三维结构的DNA数据)
数据库技术、 并行技术、分 布式技术
数据挖掘的任务
预测 – 使用已知变量预测未知变量的值.
描述 – 导出潜在联系的模式(相关、趋势、聚类、异
常).
数据挖掘的任务
分类 [预测] 聚类 [描述] 关联分析 [描述] 异常检测 [预测]
分类 例子
Tid Refund Marital Taxable Status Income Cheat
矿石硬度、{好, 较好,最好}、 成绩
中值、百分位、 秩相关、游程 检验、符号检 验
日历日期、摄氏、 均值、标准差、
华氏温度
皮尔逊相关、
t和F检验
绝对温度、货币 量、计数、年龄 、质量、长度、 电流
几何平均、调 和平均、百分 比变差
属性类 型
标称
变换 任何一对一变换
序数
值的保序变换
新值 = f(旧值)
– (1)统计学的抽样、估计、假设检验
– (2)人工智能、模式识别、机器学习
的搜索算法/建摸技术、学习理论
– (3)最优化、进化算法、
信息论、信号处理、 可视化、信息检索
统计学
人工智能、 机器学习
– (4)数据库技术、并行计算
和模式识别
、分布式计算
传统的方法可能不适合
数据挖掘
决策树模型简介decision trees PPT课件
1—2—3—4
S (L,B ) B S (L 1,B ) S (L 1,B 1)
B: 2 3
4 t ot a l
21
1
33 1
4
47 6
1
14
5 15 25 10 51
L 6 31 90 65 202
7 63 301 350 876
1
1
2 L 1
1
L个水平的等级变量分裂成B个分支可能的数量
仅有一个等级变量
X ln(X) rank(X)
.20 1.7 3.3 3.5 14 2515
–1.6 .53 1.2 1.3 2.6 7.8
1
2345
6
potential split locations
名义变量的分裂
1—234 2—134 3—124 4—123 12—34 13—24 14—23
韩国的 Young Moon Chae 与 Seung Hee Ho 等人利用以监测卫生状态和开发国民健康促进程 序为特征的韩国医疗保险公司数据库,成功地将 决策树应用于人群健康状态评估以及为高血压管 理提供政策信息。
决策树简述
决策树(decision trees)也称判定树,是一个 类似于流程图的树结构,其中每个内部节点表示 在一个属性上的测试,每个分支代表一个测试输 出,而每个树叶节点代表类或类分布。树的最顶 层节点是根节点。
Kass (1980) Within-node sampling Minimum child size
穷举搜索考虑了输入变量所有的在每个结点可能的分裂 。穷举搜索易造成组合爆炸代价昂贵。
决策树基本概念教材模板ppt
4
监督和无监督学习
监督学习 (分类) 监督:提供了每个训练元组的类标号 即分类器的学习在被告知每个训练元组属于哪个类的 “监督”下进行的 新的数据基于训练集被分类
A是离散值的: 结点N的测试输出直接对应于A的已知值 A是连续值的: 结点N的测试有两个可能的输出,分别对应于条件
(Jeff, Professor, 4)
Tenured?
7
分类: 基本概念
分类: 基本概念 决策树 基于规则分类 贝叶斯分类方法 提高分类准确率的技术 小结
8
决策树
从有类标号的训练元组中学习决策树
树结构
每个内部结点(非树叶结点)表示在一个属性上的
测试
每个分枝代表该测试的一个输出
2
yes
Jim Associate Prof 7
yes
Dave Assistant Prof 6
no
Anne Associate Prof 3
no
学习:用分类算法分析训练数据
分类器 (模型)
IF rank = ‘professor’ OR years > 6 THEN tenured = ‘yes’
每个树叶结点存放一个类标号
ห้องสมุดไป่ตู้的最顶层结点是根结点
如何使用决策树分类?
给定一个类标号未知的元组X,在决策树上测试该
元组的属性值。跟踪一条由根到叶结点的路径,该
叶结点就存放着该元组的类预测。
决策树课件PPT精品文档61页
主要内容
决策树算法概述 从学习角度看,决策树属有指导学习算法 目标:用于分类和回归
C5.0算法及应用 分类回归树及应用 CHAID算法及应用 QUEST算法及应用 模型的对比分析
决策树算法概述:基本概念
得名其分析结论的展示方式类似一棵倒置的树
C5.0算法:熵
例如:二元信道模型
P(u1|v1) P(u1|v2)
P P((u u2 2||vv12))P P 1 12 1P P 2 21 2
C5.0算法:熵
先验不确定性:通信发生前,信宿对信源的状态具 有不确定性
后验不确定性:通信发生后,信宿收到发自信源的 信息,先验不确定性部分被消除,信宿对信源仍有 一定程度的不确定性 后验不确定性等于先验不确定性,表示信宿没有 收到信息; 后验不确定性等于零,表示信宿收到了全部信息 信息是用来消除随机不确定性的,信息量的大小 可由所消除的不确定性大小来计量
C5.0算法:熵
信息熵是信息论(C.E.Shannon,1948)中的基本概 念。信息论主要用于解决信息传递过程中的问题 ,也称统计通信理论
信息论的基本出发点认为:
信息传递通过由信源、信道和信宿组成的传递 系统实现
信源(发送端) 信道
信宿(接收端)
C5.0算法:熵
信息论的基本出发点认为: 传递系统存在于一个随机干扰环境之中 将发送的信息记为U,接收的信息记为V,那么 信道可看作为信道模型,记为P(U|V)
决策树算法概述:核心问题
第一,决策树的生长 利用训练样本集完成决策树的建立过程
第二,决策树的剪枝 利用测试样本集对所形成的决策树进行精简
决策树算法概述:树生长
第4章 决策树分类算法
四、决策树分类算法
2.决策树分类算法-ID3算法原理 2.1 ID3算法原理
ID3算法的基本策略如下: (1)树以代表训练样本的单个节点开始; (2)如果样本都在同一个类中,则这个节点成为树叶结点并标记为该类别; (3)否则算法使用信息熵(称为信息增益)作为启发知识来帮助选择合适的 将样本分类的属性,以便将样本集划分为若干子集, (4)对测试属性的每个已知的离散值创建一个分支,并据此划分样本; (5)算法使用类似的方法,递归地形成每个划分上的样本决策树: (6)整个递归过程在下列条件之一成立时停止。
gain(S,A)是指因为知道属性A的值后导致的熵的期望压缩。
四、决策树分类算法
2.决策树分类算法-ID3算法原理 2.3 ID3算法
(1) 初始化决策树T,使其只包含一个树根结点(X,Q),其中X是全体样本集, Q为全体属性集。 (2) if(T中所有叶节点(X’,Q’)都满足X属于同一类或Q’为空) then 算法停止; (3) else { 任取一个不具有(2)中所述状态的叶节点(X’,Q’);
理,C4.5算法的核心思想与ID3完全一样。
gain_ratio(S,A) gain(S,A) split_info(S,A)
其中,gain(S,A) 表示信息增益。
四、决策树分类算法
4. 决策树分类算法-C4.5算法原理 4.1 C4.5算法
2.数值属性的处理 C4.5处理数值属性的过程如下:
(1)按照属性值对训练数据进行排序; (2)用不同的阈值对训练数据进行动态划分; (3)当输入改变时确定一个阈值; (4)取当前样本的属性值和前一个样本的属性值的中点作为新的阈值; (5)生成两个划分,所有的样本分布到这两个划分中; (6)得到所有可能的阈值、增益和增益比例。
决策树法PPT课件
• 它以决策结点为出发点,引出若干方案分枝、每条
方案分枝代表一个方案,方案分枝末端是一个状态
结点,状态结点后引出若干概率分枝,每条概率分
枝代表一种自然状态,概率分枝上标明每种状态的
概率和损益值。这样从左往右,层层展开,形如树
状,由此得名决策树.
2021/6/16
3
•计算期望值
•将各自然状况的概率及损益值标于概率 分枝上,计算时要按照决策树图从右至
决策树法是风险性决策的常用方法
●风险型决策,是根据预测各种事件可能发生的先验 概率,然后再采用期望效果最好的方案作为最优决策 方案.
●其特点是已知方案的各种可能状态及其发生的可能 性大小。而决策的标准是期望值。因此决策树法是 风险性决策的常用方法。
2021/6/16
1
◎决策树法
●决策树分析法是一种运用概率与图论中的树对决策中的不同 方案进行比较,从而获得最优方案的风险型决策方法。
●其实剪枝的准则是如何确定决策树的规模,可以参考的剪枝思路有以 下几个: 1:使用训练集合(Training Set)和验证集合(Validation Set),来评估 剪枝方法在修剪结点上的效用 2:使用所有的训练集合进行训练,但是用统计测试来估计修剪特定结 点是否会改善训练集合外的数据的评估性能,如使用Chi-Square (Quinlan ,1986)测试来进一步扩展结点是否能改善整个分类数据 的性能,还是仅仅改善了当前训练集合数据上的性能。 3:使用明确的标准来衡量训练样例和决策树的复杂度,当编码长度最 小时,停止202树1/6/1增6 长,如MDL(Minimum Description Lengt7h)准则。
左依次进行,最后将期望值标于该方案 对应的状态结点上。
第四章-决策树PPT课件
34
可解释性
➢ 决策边界是平行坐标轴的 ➢ 对于过于复杂的问题,会导致很多小的划分
35
总结
优点
生成可理解的规则
分类时计算代价很小
能够选出对分类比较重要的属性
对长方形分布的样本处理很好
缺点
+++----------------+++----------------+++--------+++-------- ++++++++---++++++++------++++++++------+++++++++++++++----+++----++++----+++----+++++++----++++
纹理(15个样本) :{1, 2, 3, 4, 5, 6, 7, 9, 11, 12, 13, 14, 15, 16, 17} 稍糊(5个样本): {7,9,13,14,17} 清晰(7个样本): {1,2,3,4,5,6,15} 模糊(3个样本): {11,12,16} 缺失纹理属性取值的样本:{8,10}
• Wikipedia page for decision tree: /wiki/Decision_tree_learning
决策树(完整)ppt课件
留出法:将数据集D划分为两个互斥的集合:训练集S和测试集T
DST且 ST
;.
18
;.
19
预剪枝
训练集:好瓜 坏瓜 1,2,3,6,7,10,14,15,16,17
1,2,3,14
4,5,13 (T,T,F)
6,7,15,17
8,9 (T,F)
精度:正确分类的样本占所有 样本的比例
验证集:4,5,8,9,11,12,13
三种度量结点“纯度”的指标: 1. 信息增益 2. 增益率 3. 基尼指数
;.
6
1. 信息增益 信息熵
香农提出了“信息熵”的概念,解决了对信息的量化度量问题。 香农用“信息熵”的概念来描述信源的不确定性。
对于二分类任务 y 2
;.
7
假设我们已经知道衡量不确定性大小的这个量已经存在了,不妨就叫做“信息量”
用“编号”将根结点划分后获得17个 分支结点的信息熵均为:
E n t( D 1 ) E n t(D 1 7 ) ( 1 1 lo g 2 1 1 1 0 lo g 2 1 0 ) 0
则“编号”的信息增益为:
G a in (D ,编 号 ) E n t(D )1 71E n t(D v) 0 .9 9 8
;.
30
1. 属性值缺失时,如何进行划分属性选择?(如何计算信息增益) 2. 给定划分属性,若样本在该属性上的值缺失,如何对样本进行划分?
(对于缺失属性值的样本如何将它从父结点划分到子结点中)
D : D : 训练集
训练集中在属性a上没有缺失值的样本子集
D D v :
被属性a划分后的样本子集
D D k :
;.
2
二分类学习任务 属性 属性值
决策树与模型评估教材共65页文档
谢谢!
21、要知道对好事的称颂过于夸大,也会招来人们的反感轻蔑和嫉妒。——培根 22、业精于勤,荒于嬉;行成于思,毁于随。——韩愈
23、一切节省,归根到底都归结为时间的节省。——马克思 24、意志命运往往背道而驰,决心到最后会全部推倒。——莎士比亚
决策树与模型评估教材
11、用道德的示范来造就一个人,显然比用法律来Байду номын сангаас束他更有价值。—— 希腊
12、法律是无私的,对谁都一视同仁。在每件事上,她都不徇私情。—— 托马斯
13、公正的法律限制不了好的自由,因为好人不会去做法律不允许的事 情。——弗劳德
14、法律是为了保护无辜而制定的。——爱略特 15、像房子一样,法律和法律都是相互依存的。——伯克
基本概念决策树与模型评价
基本概念决策树与模型评价基本概念:决策树是一种常见的机器学习方法,用于解决分类和回归等问题。
它通过建立一系列决策规则来预测新样本的类别或数值。
决策树是一种树形结构,将样本从根节点逐步分割为不纯度较低的叶节点。
在每个节点上,分裂规则基于各个特征的属性值,以最小化不纯度。
决策树的构建过程是一个递归的自顶向下的方式,直到满足停止条件。
一个决策树由节点和边组成。
节点有三种类型:根节点、内部节点和叶节点。
根节点是决策树的起始点,内部节点指示特征上的一个测试,叶节点表示一个类别或数值结果。
决策树构建的关键是选择最佳分裂规则。
常见的度量指标有信息增益、基尼指数和平方误差。
信息增益是用来衡量一个特征对于分类结果的贡献程度的,通过计算分裂前后的熵的差值来选择最佳分裂规则。
基尼指数是类别不纯度的度量,它衡量了从一个数据集中随机抽取的两个元素属于不同类别的概率,选择基尼指数较小的分裂规则。
平方误差是回归问题中常用的度量指标,它衡量了预测值与真实值之间的差异。
选择平方误差最小的分裂规则。
模型评价:模型评价是对使用决策树进行分类或回归的结果进行评估的过程。
常见的评价指标有准确率、精确率、召回率、F1值和均方误差等。
准确率是分类问题中最常用的评价指标,它衡量了模型预测结果与真实结果相符的程度。
准确率定义为正确预测的样本数与总样本数的比例。
精确率和召回率是针对二分类问题的评价指标。
精确率表示被预测为正例中真正为正例的比例,召回率表示实际为正例中被预测为正例的比例。
F1值是精确率和召回率的综合评价指标,它定义为精确率和召回率的调和平均值。
对于回归问题,均方误差是最常用的评价指标。
均方误差定义为预测值与真实值之差的平方的平均值,它衡量了预测值与真实值之间的差异程度。
均方误差越小,模型的预测能力越好。
模型评价还可以使用交叉验证来进行。
交叉验证将数据集分为训练集和测试集,多次重复训练和测试的过程来评估模型的性能。
常见的交叉验证方法有k折交叉验证和留一交叉验证。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
No
Small
Yes
Medium
No
Large
No
Medium
Yes
Large
No
Small
No
Medium
No
Small
Attrib3 125K 100K 70K 120K 95K 60K 220K 85K 75K 90K
Training Set
Class No No No No Yes No No Yes No Yes
Training Set
Class No No No No Yes No No Yes No Yes
Tid 11 12 13 14 15
10
Attrib1 Attrib2
No
Small
YesMediumYsLargeNo
Small
No
Large
Attrib3 55K 80K 110K 95K 67K
Tid 11 12 13 14 15
10
Attrib1 Attrib2
No
Small
Yes
Medium
Yes
Large
No
Small
No
Large
Attrib3 55K 80K 110K 95K 67K
Test Set
Class ? ? ? ? ?
Learning algorithm
Induction Learn Model
Training Set
Class No No No No Yes No No Yes No Yes
Tid 11 12 13 14 15
10
Attrib1 Attrib2
No
Small
Yes
Medium
Yes
Large
No
Small
No
Large
Attrib3 55K 80K 110K 95K 67K
Refund
Yes
No
测试数据
Refund Marital Taxable Status Income Cheat
No
Married 80K ?
10
NO
MarSt
Single, Divorced
Married
< 80K
TaxInc
NO > 80K
NO
YES
应用决策树进行分类
Refund
Yes
No
测试数据
Test Set
Class ? ? ? ? ?
Tree Induction algorithm Induction
Learn Model
Apply Model
Deduction
Model
Decision Tree
决策树
有许多决策树算法: Hunt算法 信息增益——Information gain (ID3) 增益比率——Gain ration(C4.5) 基尼指数——Gini index (SLIQ,SPRINT)
Test Set
Class ? ? ? ? ?
Tree Induction algorithm Induction
Learn Model
Apply Model
Deduction
Model
Decision Tree
一个决策树的例子
Tid Refund Marital Taxable Status Income Cheat
10
Single 125K No
Married 100K No
Single 70K
No
Married 120K No
Divorced 95K
Yes
Married 60K
No
Divorced 220K No
Single 85K
Yes
Married 75K
No
Single 90K
Yes
训练数据
Splitting Attributes
数据分类——一个两步过程 (1)
第一步,建立一个模型,描述预定数据类集和概念集
– 假定每个元组属于一个预定义的类,由一个类标号 属性确定
– 学习模型可以用分类规则、决策树或数学公式的形 式提供
数据分类——一个两步过程 (2)
第二步,使用模型,对将来的或未知的对象进行分类
– 首先评估模型的预测准确率
Divorced 95K
Yes
Married 60K
No
Divorced 220K No
Single 85K
Yes
Married 75K
No
Single 90K
Yes
Dt
?
Hunt算法
Don’t Cheat
Refund
Yes
No
Don’t Cheat
Don’t Cheat
Tid Refund Marital Taxable Status Income Cheat
Refund
Yes
No
NO
MarSt
Single, Divorced
Married
TaxInc
NO
< 80K
> 80K
NO
YES
模型: 决策树
决策树的另一个例子
T id R e fu n d M a rita l T a x a b le S ta tu s In c o m e C h e a t
Single 85K
Yes
Married 75K
No
Single 90K
Yes
训练数据
Splitting Attributes
Refund
Yes
No
NO
MarSt
Single, Divorced
Married
TaxInc
NO
< 80K
> 80K
NO
YES
模型: 决策树
应用决策树进行分类
Start from the root of tree.
Tid 1 2 3 4 5 6 7 8 9 10
10
Attrib1 Attrib2
Yes
Large
No
Medium
No
Small
Yes
Medium
No
Large
No
Medium
Yes
Large
No
Small
No
Medium
No
Small
Attrib3 125K 100K 70K 120K 95K 60K 220K 85K 75K 90K
Refund Marital Taxable Status Income Cheat
No
Married 80K ?
10
NO
MarSt
Single, Divorced
Married
< 80K
TaxInc
NO > 80K
NO
YES
应用决策树进行分类
Refund
Yes
No
测试数据
Refund Marital Taxable Status Income Cheat
3.神经网络方法: BP算法,模型表示是前向反馈神经网络模型 4.粗糙集(rough set)知识表示是产生式规则
一个决策树的例子
Tid Refund Marital Taxable Status Income Cheat
1 Yes 2 No 3 No 4 Yes 5 No 6 No 7 Yes 8 No 9 No 10 No
10
NO
MarSt
Single, Divorced
Married
< 80K
TaxInc
NO > 80K
NO
YES
应用决策树进行分类
Refund
Yes
No
测试数据
Refund Marital Taxable Status Income Cheat
No
Married 80K ?
10
NO
MarSt
Single, Divorced
决策树的生成由两个阶段组成 – 决策树构建
开始时,所有的训练样本都在根节点 递归的通过选定的属性,来划分样本 (必须是离散值)
– 树剪枝
许多分枝反映的是训练数据中的噪声和孤立点,树剪枝 试图检测和剪去这种分枝
决策树的使用:对未知样本进行分类 – 通过将样本的属性值与决策树相比较
决策树分类任务
1 Yes 2 No 3 No 4 Yes
Single 125K No
Married 100K No
Single 70K
No
Married 120K No
5 No
Divorced 95K
No
8 No
S in g le 8 5 K
Yes
9 No
M a rrie d 7 5 K
No
10 No
S in g le 9 0 K
Yes
10
Married NO
MarSt Single, Divorced
Refund
Yes
No
NO
TaxInc
< 80K
> 80K
NO
YES
用决策树归纳分类
什么是决策树? – 类似于流程图的树结构 – 每个内部节点表示在一个属性上的测试 – 每个分枝代表一个测试输出 – 每个树叶节点代表类或类分布
Married
< 80K
TaxInc