决策树例题分析讲解学习

合集下载

全国软考-一个决策树算法案例分析

全国软考-一个决策树算法案例分析

建中型楼。
14
§4.5 效用与风险分析(Utility and Risk Analysis)
以前所述的决策分析方法是按照最好的货币期望值选择方案,但在决策 分析中除了要考虑方案的货币益损因素以外,还要考虑风险程度,包括决策 人对待风险的态度这一主观偏好因素。因而,往往单从货币益损期望值选择 的方案,不一定是最佳方案。本节将介绍决策分析中的期望效用。 所谓效用是一种特定结果的总价值的相对尺度,它反映决策者面对诸如 利润、损失和风险等因素集合的态度。
2
为了进行决策分析,必须做好以下两项工作:
(1)市场调研,综合楼被市场接受的程度如何?亦即市场的需求如何? 对此问题,公司管理者通过调研认为,只有两种市场接受状态,称为决策 者无法控制的自然
状态:
S1——高的市场接受程度,对楼房有显著需求; S2——低的市场接受程度,对楼房需求有限。 (2)要根据工程设计与造价核算以及销售价格计算出不同方案,不同自然状 态时,楼房的盈 亏(益损)表。对该问题,经计算得到如下益损矩阵Vij:
各方案dj的益损期望值为:
EV (d i ) P( S j ) * Vij
j 1 n
益损期望值为最大者对应的方案,可选为最佳方案。 对本问题而言,若已知:P(S1)=0.8,P(S2)=0.2,则 有: EV(d1)=0.8×800+0.2×700=780万 EV(d2)=0.8×1400+0.2×500=1220万 EV(d3)=0.8×2000+0.2×(-900)=1420万
P( S i | I K ) P( S i ) P( I K | S i )
P( S ) P( I
i 1 i
n
K
| Si )

决策树算法例题

决策树算法例题

决策树算法例题
一、决策树基本概念与原理
决策树是一种基于树结构的分类与回归模型。

它通过一系列的问题对数据进行划分,最终得到叶子节点对应的分类结果或预测值。

决策树的构建过程通常采用自上而下、递归划分的方法。

二、决策树算法实例解析
以一个简单的决策树为例,假设我们要预测一个人是否喜欢户外运动。

已知特征:性别、年龄、是否喜欢晒太阳。

可以通过以下决策树划分:
1.根据性别划分,男性为喜欢户外运动,女性为不喜欢户外运动。

2.若性别为男性,再根据年龄划分,年龄小于30分为喜欢户外运动,大于30分为不喜欢户外运动。

3.若性别为女性,无论年龄如何,均分为喜欢户外运动。

通过这个决策树,我们可以预测一个人是否喜欢户外运动。

三、决策树算法应用场景及优缺点
1.应用场景:分类问题、回归问题、关联规则挖掘等。

2.优点:易于理解、可解释性强、泛化能力较好。

3.缺点:容易过拟合、对噪声敏感、构建过程耗时较长。

四、实战演练:构建决策树解决实际问题
假设我们要预测房价,已知特征:面积、卧室数量、卫生间数量、距市中心距离。

可以通过构建决策树进行预测:
1.选择特征:根据相关性分析,选择距市中心距离作为最佳划分特征。

2.划分数据集:将数据集划分为训练集和测试集。

3.构建决策树:采用递归划分方法,自上而下构建决策树。

4.模型评估:使用测试集评估决策树模型的预测性能。

通过以上步骤,我们可以运用决策树算法解决实际问题。

决策树例题(详细分析“决策树”共10张)

决策树例题(详细分析“决策树”共10张)
• 一般按反向的时间程序逐步计算,将各方案的几 种可能结果的数值和它们各自的概率相乘,并汇 总所得之和,其和就是该方案的期望值。
• 第四步:确定决策方案:在比较方案考虑的是收益值 时,那么取最大期望值;假设考虑的是损失时,那么 取最小期望值。
• 根据计算出的期望值分析,此题采取开工方案较 好。
第7页,共10页。
决策树例题
第1页,共10页。
决策树的画法
• A、先画一个方框作为出发点,又称决策节点; • B、从出发点向右引出假设干条直线,这些直线叫做方案
枝;
• C、在每个方案枝的末端画一个圆圈,这个圆圈称为 概率分叉点,或自然状态点;
• D、从自然状态点引出代表各自然状态的分枝,称 为概率分枝;
• E、如果问题只需要一级决策,那么概率分枝末端画 三角形,表示终点 。
第四步:确定决策方案:在比较方案考虑的是收益值时,那么取最大期望值;
B、从出发点向右引出假设干条直线,这些直线叫做方案枝;
天气好 0.3 根据计算出的期望值分析,此题采取开工方案较好。
假设考虑的是损失时,那么取最小期望值。 A、先画一个方框作为出发点,又称决策节点;
40000
-1000
天气坏
0.7
-10000
第8页,共10页。
【例题9】
方案 A高 A低 B高 B低
效果
优 一般 赔 优 一般 赔 优 一般 赔 优 一般 赔
可能的利润(万元)
5000 1000 -3000 4000 500 -4000 7000 2000 -3000 6000 1000 -1000
概率
0.3 0.5 0.2 0.2 0.6 0.2 0.3 0.5 0.2 0.3 0.6 0.1

决策树id3算法例题经典

决策树id3算法例题经典

决策树id3算法例题经典一、决策树ID3算法例题经典之基础概念决策树ID3算法就像是一个超级聪明的小侦探,在数据的世界里寻找线索。

它是一种用来分类的算法哦。

比如说,我们要把一群小动物分成哺乳动物和非哺乳动物,就可以用这个算法。

它的基本思想呢,就是通过计算信息增益来选择特征。

就好比是在一堆乱糟糟的东西里,先找到那个最能区分开不同类别的特征。

比如说在判断小动物的时候,有没有毛发这个特征可能就很关键。

如果有毛发,那很可能就是哺乳动物啦。

二、经典例题解析假设我们有这样一个数据集,是关于一些水果的。

这些水果有颜色、形状、是否有籽等特征,我们要根据这些特征来判断这个水果是苹果、香蕉还是橙子。

首先看颜色这个特征。

如果颜色是红色的,那可能是苹果的概率就比较大。

但是仅仅靠颜色可不够准确呢。

这时候就需要计算信息增益啦。

通过计算发现,形状这个特征对于区分这三种水果的信息增益更大。

比如说圆形的可能是苹果或者橙子,弯弯的可能就是香蕉啦。

再考虑是否有籽这个特征。

苹果和橙子有籽,香蕉没有籽。

把这个特征也加入到决策树的构建当中,就可以更准确地判断出到底是哪种水果了。

三、决策树ID3算法的优缺点1. 优点这个算法很容易理解,就像我们平常做选择一样,一步一步来。

它的结果也很容易解释,不像有些复杂的算法,结果出来了都不知道怎么回事。

它不需要太多的计算资源,对于小数据集来说,速度很快。

就像小马拉小车,轻松就能搞定。

2. 缺点它很容易过拟合。

就是在训练数据上表现很好,但是一到新的数据就不行了。

比如说我们只根据训练数据里的几个苹果的特征构建了决策树,新的苹果稍微有点不一样,就可能判断错了。

它只能处理离散型的数据。

如果是连续型的数据,就需要先进行离散化处理,这就多了一道工序,比较麻烦。

四、实际应用场景1. 在医疗领域,可以用来判断病人是否患有某种疾病。

比如说根据病人的症状、年龄、性别等特征来判断是否得了感冒或者其他疾病。

就像医生的小助手一样。

决策树计算方法例题讲解

决策树计算方法例题讲解

决策树计算方法例题讲解决策树是一种常用的机器学习算法,用于分类和回归问题。

它通过构建一棵树形结构来进行决策,每个内部节点表示一个特征,每个叶子节点表示一个类别或一个数值。

下面我将通过一个具体的例题来详细讲解决策树的计算方法。

假设我们有一个数据集,其中包含了一些水果的特征(颜色、形状、纹理)以及对应的标签(是否为橙子)。

我们希望通过这些特征来构建一个决策树模型,能够根据水果的特征预测其是否为橙子。

首先,我们需要将数据集划分为训练集和测试集。

训练集用于构建决策树模型,测试集用于评估模型的性能。

1.特征选择在构建决策树之前,我们需要选择一个特征作为根节点。

常用的特征选择方法有信息增益、信息增益比、基尼指数等。

这里我们使用信息增益来选择特征。

信息增益衡量了在给定特征条件下,类别的不确定性减少的程度。

具体计算信息增益的步骤如下:-计算整个数据集的熵(entropy):-首先,统计每个类别的样本数量。

-然后,计算每个类别的概率,并求和。

-最后,根据概率计算整个数据集的熵。

-对于每个特征,计算其对应的信息增益:-首先,针对该特征的每个取值,将数据集划分为不同的子集。

-然后,计算每个子集的熵和权重,并求和。

-最后,用整个数据集的熵减去子集的熵和权重的乘积,得到信息增益。

选择具有最大信息增益的特征作为根节点。

2.构建决策树选择完根节点后,我们需要递归地构建决策树。

具体步骤如下:-对于每个内部节点,选择一个最佳的特征作为其子节点。

-将数据集根据该特征的不同取值划分为多个子集。

-对于每个子集,如果所有样本都属于同一类别,则将该子集设为叶子节点,并标记为该类别。

-否则,继续递归地构建决策树,直到满足停止条件(如达到预定深度或无法继续划分)。

3.决策树的剪枝构建完决策树后,我们需要进行剪枝操作,以避免过拟合现象。

剪枝可以通过预剪枝和后剪枝来实现。

-预剪枝:在构建决策树的过程中,在划分子集之前,先进行验证集的测试,如果测试结果不好,则停止划分,将当前节点设为叶子节点。

软考中项、高项常见计算题详解解读

软考中项、高项常见计算题详解解读

选择题:一、决策树分析(EMV)2011年下半年例题1:某公司希望举办一个展销会以扩大市场,选择北京、天津、上海、深圳作为候选会址。

获利情况除了会址关系外,还与天气有关。

天气可分为晴、多云、多雨三种。

通过天气预报,估计三种天气情况可能发生的概率为0.25、0.50、0.25,其收益(单位:人民币万元)情况见下表。

使用决策树进行决策的结果为(61)。

(61)A.北京B.天津C.上海D.深圳答案:B解析:北京的期望货币值为 4.5×0.25+4.4×0.5+1×0.25=3.575 天津 5×0.25+4×0.5+1.6×0.25=3.65上海 6×0.25+3×0.5+1.3×0.25=3.325深圳 5.5×0.25+3.9×0.5+0.9×0.25=3.55例题2 (2008上)某电子商务公司要从A地向B地的用户发送一批价值90000元的货物。

从A地到B地有水、陆两条路线。

走陆路时比较安全,其运输成本为10000元;走水路时一般情况下的运输成本只要7000元,不过一旦遇到暴风雨天气,则会造成相当于这批货物总价值的10%的损失。

根据历年情况,这期间出现暴风雨天气的概率为1/4,那么该电子商务公司_(70)。

A.应选择走水路B.应选择走陆路C.难以选择路线D.可以随机选择路线答案: A。

陆路10000水路7000×3/4+(7000+90000×10%)×1/4=9250例题3二、盈亏平衡点盈亏平衡点(Break Even Point,简称BEP)又称零利润点、保本点、盈亏临界点、损益分歧点、收益转折点。

通常是指全部销售收入等于全部成本时(销售收入线与总成本线的交点)的产量。

以盈亏平衡点的界限,当销售收入高于盈亏平衡点时企业盈利,反之,企业就亏损。

盈亏平衡点可以用销售量来表示,即亏平衡点的销售量;也可以用销售额来表示,即盈亏平衡点的销售额。

决策树算法例题经典

决策树算法例题经典

决策树算法例题经典决策树是一种常用的机器学习算法,用于处理分类和回归问题。

它通过对数据集进行划分,构建一个树状模型来进行决策。

在这篇文章中,我将介绍一个经典的决策树算法的例子,并详细解释其原理和实现方法。

假设我们有一个数据集,里面包含了一些患有乳腺癌的病人的信息。

每个病人的信息都有一些特征,比如年龄、乳房厚度、肿块大小等。

我们的任务是根据这些特征预测病人是否患有乳腺癌。

首先,我们需要选择一个合适的划分准则来构建决策树。

常用的划分准则有信息增益、信息增益比、基尼指数等。

在本例中,我们选择使用信息增益作为划分准则。

接下来,我们需要计算每个特征的信息增益。

信息增益是根据特征划分前后的熵变化来衡量的。

熵是一个用于度量系统无序程度的指标,越大表示越无序,越小表示越有序。

在本例中,我们可以通过计算患有乳腺癌和未患有乳腺癌的病人的比例来计算熵。

然后,我们选取信息增益最大的特征作为当前节点的划分特征。

这样可以使得划分后的子集的熵最小化,从而提高分类的准确性。

接着,我们递归地对每个子集进行上述操作,直到满足停止条件。

停止条件可以是子集中只有一类样本或没有更多的特征可供选择划分。

在实现决策树算法时,我们需要解决一些问题。

首先,如何选择划分特征。

上述例子中我们选择了信息增益最大的特征作为划分特征,但也可以选择其他准则。

其次,如何处理缺失值。

在实际应用中,数据集中可能会有一些缺失值,我们需要考虑如何处理这些缺失值。

最后,如何处理连续型特征。

决策树算法本质上是一个离散型算法,对于连续型特征,我们需要进行离散化处理。

决策树算法是一种简单但有效的机器学习算法,可以用于处理分类和回归问题。

它具有可解释性好、易于理解和实现等优点,在实际应用中得到了广泛的应用。

然而,决策树算法也存在一些限制,比如容易过拟合、适应性较差等。

为了提高决策树算法的性能,可以使用集成学习方法,如随机森林、梯度提升树等。

总之,决策树算法是一种经典的机器学习算法,本文介绍了它的原理和实现方法,并给出了一个实际应用的例子。

H信息系统项目管理师考点分析之八:决策树分析

H信息系统项目管理师考点分析之八:决策树分析

[原创]信息系统项目管理师考点分析之八:决策树分析(连载)一、决策树分析讲解决策树分析采用决策树图表进行分析,它描述了每一种可能的选择和这种情况发生的概率。

如下图:其中:矩形图代表决策点,表示需要在这点上作出选择;圆形图代表每一种选择的收益点。

P代表概率,P=0.6,表示概率为60%;各点的投入值如下:M->N调研论证阶段,投入40万;P->Q如采用设计开发方式,需投入260万,如成功则获利600万,失败则罚款100万。

P->R如采用设备更新,需投入160万,如成功则获利600万,失败则罚款100万。

期望值的计算方法:各概率分支的【(获利值-当前整条路径的投入值)*概率值】之和。

根据上面的计算方法,Q、R和N三个收益点的期望值计算如下:Q点收益的期望值=(600-260-40)*0.8+(-100-260-40)*0.2=160R点收益的期望值=(600-160-40)*0.5+(-100-160-40)*0.5=50N点收益的期望值计算不同于Q和R点,因为后面决策点P,这种情况,通常我们取后面决策点期望值最大的参与计算,如下:N点收益的期望值=160(这里取Q点)*0.4+(-40)*0.6=40。

结论:通过对Q、R、N点的计算,选择Q点为最佳方案。

注:从历年试题看,实际考试题目要比例题简单。

二、其他软考真题●某公司希望举办一个展销会以扩大市场,选择北京、天津、上海、深圳作为候选会址。

获利情况除了会址关系外,还与天气有关。

天气可分为晴、多云、多雨三种。

通过天气预报,估计三种天气情况可能发生的概率为0.25、0.50、0.25,其收益(单位:人民币万元)情况见下表。

使用决策树进行决策的结果为(61)。

(2009年上半年)收益值晴(0.25)多云(0.50)多雨(0.25)北京 4.5 4.41天津54 1.6上海63 1.3深圳 5.5 3.90.9(61)A.北京 B.天津 C.上海 D.深圳分析:北京:4.5*0.25+4.4*0.5+1*0.25=1.125+2.2+0.25=3.575天津: 5*0.25 +4*0.50 + 1.6*0.25=1.25+2+0.4=3.65上海 6*0.25 + 3*0.5 + 1.3*0.25=1.5+1.5+0.325=3.325深圳 5.5*0.25 + 3.9*0.5 + 0.9*0.25=1.375+1.95+0.225=3.55答案:B●某电子商务公司要从 A地向 B地的用户发送一批价值 90000元的货物。

决策树例题分析及解答

决策树例题分析及解答
*
最后比较决策点1的情况: 由于点③(719万元)与点②(680万元)相比,点③的期望利润值较大,因此取点③而舍点②。这样,相比之下,建设大工厂的方案不是最优方案,合理的策略应采用前3年建小工厂,如销路好,后7年进行扩建的方案。
*
决策树法的一般程序是: (1)画出决策树图形 决策树指的是某个决策问题未来发展情况的可能性和可能结果所做的估计,在图纸上的描绘决策树 (2)计算效益期望值 两个行动方案的效益期望值计算过程: 行动方案A1(建大厂)的效益期望值: 13.5×0.8×10+25.5×0.2×10-25=134万元 行动方案A2(建小厂)的效益期望值: 15×0.8×10+15×0.2×10-10=140万元 (3)将效益期望值填入决策树图 首先在每个结果点后面填上相应的效益期望值;其次在每个方案节点上填上相应的期望值,最后将期望值的角色分支删减掉。只留下期望值最大的决策分支,并将此数值填入决策点上面,至此决策方案也就相应选出
01
A1的净收益值=[300×0.7+(-60)×0.3] ×5-450=510万 A2的净收益值=(120×0.7+30×0.3)×5-240=225万 选择:因为A1大于A2,所以选择A1方案。 剪枝:在A2方案枝上打杠,表明舍弃。
02

*
例 题
为了适应市场的需要,某地提出了扩大电视机生产的两个方案。一个方案是建设大工厂,第二个方案是建设小工厂。
例: 某农业企业有耕地面积33.333公顷,可供灌水量6300立方米,在生产忙季可供工作日2800个,用于种植玉米、棉花和花生三种作物。预计三种作物每公顷在用水忙季用工日数、灌水量和利润见表,在完成16.5万公斤玉米生产任务的前提下,如何安排三种作物的种植面积,以获得最大的利润。

python决策树c4.5例题经典案例

python决策树c4.5例题经典案例

一、概述Python是一种高效的编程语言,广泛应用于数据分析和机器学习领域。

决策树是一种常用的机器学习算法,C4.5是其中一种经典的决策树算法。

本文将以Python为工具,以C4.5算法为基础,通过经典案例的解析,深入探讨C4.5决策树算法的原理和实践应用。

二、C4.5算法介绍1. C4.5算法是基于信息熵的一种决策树算法,其主要目的是通过对训练数据的分析,构建出一颗能够高效分类的决策树。

2. C4.5算法的关键步骤包括:计算信息增益、选择最优特征、递归构建决策树、处理缺失值等。

3. C4.5算法对连续型特征的处理采用二分策略,对离散型特征的处理采用多分策略,能够有效地处理不同类型的数据。

三、经典案例分析1. 数据准备我们以一个经典的鸢尾花数据集为例,数据集包括花萼长度、花萼宽度、花瓣长度、花瓣宽度等特征,以及鸢尾花的种类标签。

2. 数据预处理我们首先需要对数据进行预处理,包括数据清洗、特征选择、数据划分等步骤,以确保数据的质量和准确性。

3. 模型训练接下来,我们使用Python中的决策树库来训练C4.5决策树模型,通过对训练数据的拟合,构建出一颗能够有效分类的决策树。

4. 模型评估我们使用测试数据来评估模型的性能,包括准确率、召回率等指标,以验证模型的有效性和泛化能力。

四、Python实践1. 数据分析我们可以使用Pandas库对数据集进行加载和分析,通过统计分析和可视化等手段,对数据的特征和分布进行深入了解。

2. 模型构建在Python中,我们可以使用scikit-learn等机器学习库来构建C4.5决策树模型,通过设置参数、训练模型等步骤,得到一颗高效的决策树模型。

3. 模型调优在实践中,我们可以通过交叉验证、网格搜索等技术,对模型进行进一步优化,以获得更好的分类效果。

4. 模型应用我们可以将训练好的决策树模型应用到新的数据中,进行预测和分类,以解决实际的分类问题。

五、总结与展望C4.5决策树算法作为经典的机器学习算法,在实际应用中具有广泛的价值和意义。

决策树例题分析PPT课件

决策树例题分析PPT课件

此课件下载可自行编辑修改,供参考! 感谢您的支持,我们努力做得更好!
精选ppt课件最新
3
状态节点
2 方案分枝
1 决策结点
方案分枝
3
状态节点
概率分枝 4 结果节点
概率分枝 5 结果节点
概率分枝 6
结果节点
概率分枝 7
结果节点
精选ppt课件最新
4
• 应用决策树来作决策的过程,是从右向 左逐步后退进行分析。根据右端的损益
值和概率枝的概率,计算出期望值的大
小,确定方案的期望结果,然后根据不 同方案的期望结果作出选择。
• 试用决策树法选出合理的决策方案。 经过市场调查, 市场销路好的概率为0.7,销路不好的概率为0.3。
精选ppt课件最新
9
680万元 2
建大厂
销路好(0.7) 销路差(0.3)
200万元 -40万元
1 719万元
建小厂
扩建 5 销路好(1.0) 930万元
销路好(0.7) 4 不扩建
930万元
6 销路好(1.0)
➢ 比较决策点4的情况可以看到,由于点⑤(930万元) 与点⑥(560万元)相比,点⑤的期望利润值较大, 因此应采用扩建的方案,而舍弃不扩建的方案。
➢ 把点⑤的930万元移到点4来,可计算出点③的期望利 润值:
• 点③:0.7×80×3+0.7×930+0.3×60×(3+7)-280 = 719(万元)
8
例题
• 为了适应市场的需要,某地提出了扩大电视机生产的 两个方案。一个方案是建设大工厂,第二个方案是建 设小工厂。
• 建设大工厂需要投资600万元,可使用10年。销路好 每年赢利200万元,销路不好则亏损40万元。

决策树例题分析ppt课件

决策树例题分析ppt课件

3
560万元
719万元
销路差(0.3)
前3年,第一次决策
后7年,第二次决策
ppt课件.
190万元
80万元 60万元
10
➢ 计算各点的期望值:
• 点②:0.7×200×10+0.3×(-40)×10-600(投资) =680(万元)
• 点⑤:1.0×190×7-400=930(万元)
• 点⑥:1.0×80×7=560(万元)
8
例题
• 为了适应市场的需要,某地提出了扩大电视机生产的 两个方案。一个方案是建设大工厂,第二个方案是建 设小工厂。
• 建设大工厂需要投资600万元,可使用10年。销路好 每年赢利200万元,销路不好则亏损40万元。
• 建设小工厂投资280万元,如销路好,3年后扩建,扩 建需要投资400万元,可使用7年,每年赢利190万元。 不扩建则每年赢利80万元。如销路不好则每年赢利60 万元。
ppt课件.
1
例:设某茶厂计划创建精制茶厂,开始有两个方案,方案 一是建年加工能力为800担的小厂,方案二是建年加工能 力为2000担的大厂。两个厂的使用期均为10年,大厂投 资25万元,小厂投资10万元。产品销路没有问题,原料来 源有两种可能(两种自然状态):一种为800担,另一种为 2000担。两个方案每年损益及两种自然状态的概率估计值 见下表
ppt课件.
3
状态节点
2 方案分枝
1 决策结点
方案分枝
3
状态节点
概率分枝 4 结果节点
概率分枝 5 结果节点
概率分枝 6
结果节点
概率分枝 7
结果节点
ppt课件.
4
• 应用决策树来作决策的过程,是从的概率,计算出期望值的大
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
6
决策过程如下:画图,即绘制决策树
• A1的净收益值=[300×0.7+(-60)×0.3] ×5-450=510 万
• A2的净收益值=(120×0.7+30×0.3)×5-240=225万 • 选择:因为A1大于A2,所以选择A1方案。 • 剪枝:在A2方案枝上打杠,表明舍弃。
7
例题
• 为了适应市场的需要,某地提出了扩大电视机生产的 两个方案。一个方案是建设大工厂,第二个方案是建 设小工厂。
• 建设大工厂需要投资600万元,可使用10年。销路好 每年赢利200万元,销路不好则亏损40万元。
• 建设小工厂投资280万元,如销路好,3年后扩建,扩 建需要投资400万元,可使用7年,每年赢利190万元 。不扩建则每年赢利80万元。如销路不好则每年赢利 60万元。
• 试用决策树法选出合理的决策方案。 经过市场调查, 市场销路好的概率为0.7,销路不好的概率为0.3。
➢ 计算各点的期望值: • 点②:0.7×200×10+0.3×(-40)×10-600(投资
)=680(万元) • 点⑤:1.0×190×7-400=930(万元) • 点⑥:1.0×80×7=560(万元) ➢ 比较决策点4的情况可以看到,由于点⑤(930万元)
与点⑥(560万元)相比,点⑤的期望利润值较大, 因此应采用扩建的方案,而舍弃不扩建的方案。 ➢ 把点⑤的930万元移到点4来,可计算出点③的期望利 润值: • 点③:0.7×80×3+0.7×930+0.3×60×(3+7)-280 = 719(万元)
4
• 计算完毕后,开始对决策树进行剪枝, 在每个决策结点删去除了最高期望值以 外的其他所有分枝,最后步步推进到第 一个决策结点,这时就找到了问题的最 佳方案
• 方案的舍弃叫做修枝,被舍弃的方案用 “≠”的记号来表示,最后的决策点留 下一条树枝,即为最优方案。
5
• A1、A2两方案投资分别为450万和240 万,经营年限为5年,销路好的概率为 0.7,销路差的概率为0.3,A1方案销 路好、差年损益值分别为300万和负60 万;A2方案分别为120万和30万。
8
680万元 2
建大厂
销路好(0.7) 销路差(0.3)
200万元 -40万元
1 719万元
建小厂
扩建 5 销路好(1.0) 930万元
销路好(0.7) 4 不扩建
930万元
6 销路好(1.0)
3
560万元
719万元
销路差(0.3)
前3年,第一次决策
后7年,第二次决策
190万元
80万元 60万元
9
2
状态
方案分枝
3
状态节点
概率分枝 4 结果节点
概率分枝 5 结果节点
概率分枝 6
结果节点
概率分枝 7
结果节点
3
• 应用决策树来作决策的过程,是从右向 左逐步后退进行分析。根据右端的损益 值和概率枝的概率,计算出期望值的大 小,确定方案的期望结果,然后根据不 同方案的期望结果作出选择。
10
➢最后比较决策点1的情况: • 由于点③(719万元)与点②(680万元
)相比,点③的期望利润值较大,因此 取点③而舍点②。这样,相比之下,建 设大工厂的方案不是最优方案,合理的 策略应采用前3年建小工厂,如销路好, 后7年进行扩建的方案。
11
此课件下载可自行编辑修改,仅供参考! 感谢您的支持,我们努力做得更好!谢谢
决策树例题分析
补充: 风险型决策方法——决策树方法
• 风险决策问题的直观表示方法的图示法。因为图的形状 像树,所以被称为决策树。
• 决策树的结构如下图所示。图中的方块代表决策节点, 从它引出的分枝叫方案分枝。每条分枝代表一个方案, 分枝数就是可能的相当方案数。圆圈代表方案的节点, 从它引出的概率分枝,每条概率分枝上标明了自然状态 及其发生的概率。概率分枝数反映了该方案面对的可能 的状态数。末端的三角形叫结果点,注有各方案在相应 状态下的结果值。
相关文档
最新文档