决策树构成的基本要素
合集下载
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
决策树(DT)是一种十分常见的分类方法,也称分类树。
它是一种监督学习,即给定一堆样本,每个样本都有一组属性和一个类别,这些类别是事先确定的,那么通过学习得到一个分类器,这个分类器能够对新出现的对象给出正确的分类。
因此,决策树常常用来解决分类和回归问题。
决策树构成要素:
1)决策结点:用方块结点□表示,是对几种可能方案的选择,即最后选择的最佳方案。
如果决策属于多级决策,则决策树的中间可以有多个决策点,以决策树根部的决策点为最终决策方案。
2)方案枝:由结点引出若干条细支,每条细支代表一个方案,称为方案枝
3)状态结点:用圆形结点○表示,代表备选方案的经济效果(期望值),通过各状态节点的经济效果的对比,按照一定的决策标准就可以选出最佳方案。
4)概率枝:由状态节点引出的分支称为概率枝,概率枝的数目表示可能出现的自然状态数目。
每个分枝上要注明该状态的内容和其出现的概率。
5)结果结点:用三角结点△表示,将每个方案在各种自然状态下取得的收益值或损失值标注于结果节点的右端。
总之,决策树一般由决策结点、方案枝、状态结点、概率枝和结果结点等组成,这样树形图由左向右或自上而下,由简到繁展开,组成一个树状网络图。