决策树例题分析

合集下载

决策树例题分析及解答1

决策树例题分析及解答1

计算各点的期望值: • 点②:0.7×200×10+0.3×(-40)×10-600(投资)
=680(万元) • 点⑤:1.0×190×7-400=930(万元) • 点⑥:1.0×80×7=560(万元) 比较决策点4的情况可以看到,由于点⑤(930万元)
与点⑥(560万元)相比,点⑤的期望利润值较大, 因此应采用扩建的方案,而舍弃不扩建的方案。 把点⑤的930万元移到点4来,可计算出点③的期望利 润值: • 点③:0.7×80×3+0.7×930+0.3×60×(3+7)-280 = 719(万元)
20
例: 假设某场办工厂准备生产一种新产品,但是对市
场需求量的预测只能大致估计为较高、一般、较低、 很低四种情况,而对每一种情况出现的概率无法估计。 工厂为生产这种产品设计了四个方案,并计划生产五 年,根据计算,各个方案五年损益值如表所示。




需求量较高
600
800
350
400
需求量一般
400
• 例: 某农业企业有耕地面积33.333公顷,可供灌水量 6300立方米,在生产忙季可供工作日2800个,用于 种植玉米、棉花和花生三种作物。预计三种作物每公 顷在用水忙季用工日数、灌水量和利润见表,在完成 16.5万公斤玉米生产任务的前提下,如何安排三种作 物的种植面积,以获得最大的利润。
作物 类别
7
• 计算完毕后,开始对决策树进行剪枝, 在每个决策结点删去除了最高期望值以 外的其他所有分枝,最后步步推进到第 一个决策结点,这时就找到了问题的最 佳方案
• 方案的舍弃叫做修枝,被舍弃的方案用 “≠”的记号来表示,最后的决策点留 下一条树枝,即为最优方案。

人工智能决策树例题经典案例

人工智能决策树例题经典案例

人工智能决策树例题经典案例一、经典案例:天气预测决策树在天气预测中有广泛应用,下面是一个关于是否适宜进行户外运动的示例:1. 数据收集:- 温度:高(>30℃)/中(20℃-30℃)/低(<20℃)- 降水:是/否- 风力:高/中/低- 天气状况:晴朗/多云/阴天/雨/暴雨- 应该户外运动:是/否2. 构建决策树:- 根据温度将数据分为三个分支:高温、中温、低温- 在每个分支中,继续根据降水、风力和天气状况进行划分,最终得到是否适宜户外运动的决策3. 决策树示例:温度/ / \高温中温低温/ | | \ |降水无降水风力适宜/ \ | | / \是否高中低| |不适宜适宜- 如果温度是高温且有降水,则不适宜户外运动- 如果温度是高温且无降水,则根据风力判断,如果风力是高,则不适宜户外运动,如果风力是中或低,则适宜户外运动 - 如果温度是中温,则不论降水和风力如何,都适宜户外运动- 如果温度是低温,则需要考虑风力,如果风力是高,则适宜户外运动,如果风力是中或低,则不适宜户外运动4. 参考内容:决策树的构建和应用:决策树通过对输入特征进行划分,构建了一棵树形结构,用于解决分类或回归问题。

构建决策树主要包括数据预处理、特征选择、划分策略和停止条件等步骤。

特征选择可以使用信息增益、基尼指数等算法,划分策略可以使用二叉划分或多叉划分,停止条件可以是叶子节点纯度达到一定阈值或达到预定的树深度。

决策树的应用包括数据分类、特征选择和预测等任务。

天气预测案例中的决策树:将天气预测问题转化为分类问题,通过构建决策树,可以得到识别是否适宜户外运动的规则。

决策树的决策路径可以用流程图或树状图表示,帮助理解和解释决策过程。

决策树的节点表示特征值,分支表示判断条件,叶子节点表示分类结果。

决策树的生成算法可以基于启发式规则或数学模型,如ID3、C4.5、CART等。

决策树的优缺点:决策树具有可解释性强、易于理解和实现、能处理非线性关系等优点。

决策树例题分析

决策树例题分析

决策树例题分析决策树是一种常见的机器学习算法,它通过树形结构对数据进行分类和预测。

本文将基于一个例题,详细分析决策树的构建和应用过程。

例题描述:某公司想要根据客户的特征来判断他们是否会购买某个产品。

为了实现这个目标,公司收集了以下一些数据:客户的年龄、年收入和婚姻状况,以及他们最终购买与否的情况。

现要用这些数据建立一个决策树模型来预测客户是否会购买产品。

数据集准备:首先,我们需要对数据集进行准备和清洗。

将数据集划分为训练集和测试集,其中训练集用于建立决策树模型,测试集用于评估模型的性能。

然后,对于缺失值或异常值,可以根据具体情况进行处理,例如使用均值填充或删除异常样本。

特征选择:在决策树算法中,需要选择最佳的特征来构建决策树。

一个好的特征应该能够很好地区分不同类别的样本。

在本例中,我们可以使用信息增益或基尼系数作为特征选择的标准。

根据特征选择的结果,选择最佳的特征作为根节点。

决策树构建:在选择了根节点特征后,我们需要对数据集进行划分,并递归地构建决策树。

在每个节点上,根据选择的分裂特征和划分标准,将数据集分为更小的子集。

直到满足终止条件,例如节点中只包含同一类别的样本或达到了预定深度。

在构建过程中,可以使用剪枝技术来防止过拟合。

决策树预测:构建完决策树模型后,就可以用它来进行预测了。

对于一个新的样本,从根节点开始,根据节点的特征判断样本应该往哪个分支走,直到到达叶节点。

叶节点对应的类别就是预测的结果。

可以使用预测准确率、精确率、召回率等指标来评估模型的性能。

模型评估和优化:在预测的过程中,我们可以使用测试集来评估模型的性能。

根据评估结果,可以选择调整模型参数或选择其他特征,并再次训练模型。

一般来说,更好的特征和更合适的模型参数可以提高决策树的性能。

总结:决策树是一种常见而强大的分类和预测算法。

通过选择最佳特征、构建决策树和预测样本,可以实现对数据集的分类和预测。

在实际应用中,需要根据不同问题的特点选择合适的特征和模型参数,以达到更好的性能。

决策树例题分析及解答

决策树例题分析及解答

各点效益值计算过程是:
点2:13.5×0.8×3+172.9×0.8+25.5×0.2×3+206.5×0.2-25(投资)=202.3万元
点3:15×0.8×3+105×0.8+15×0.2×3+105×0.2-10(投资)=140万元
点4:21.5×0.6×7年+29.5×0.4×7年=172.9万元
例: 某农业企业有耕地面积33.333公顷,可供灌水量6300立方米,在生产忙季可供工作日2800个,用于种植玉米、棉花和花生三种作物。预计三种作物每公顷在用水忙季用工日数、灌水量和利润见表,在完成16.5万公斤玉米生产任务的前提下,如何安排三种作物的种植面积,以获得最大的利润。
作物类别
忙季需工作日数
建设大工厂需要投资600万元,可使用10年。销路好每年赢利200万元,销路不好则亏损40万元。
建设小工厂投资280万元,如销路好,3年后扩建,扩建需要投资400万元,可使用7年,每年赢利190万元。不扩建则每年赢利80万元。如销路不好则每年赢利60万元。
试用决策树法选出合理的决策方案。 经过市场调查,市场销路好的概率为0.7,销路不好的概率为0.3。




需求量较高 需求量一般 需求量较低 需求量很低
600 400 -150 -350
800 350 -350 -700
350 220 50 -100
40求量一般
需求量较低
需求量很低
max

600
400
-150
-350
600

800
350
-350
-700
800
*
1
4
2
3
6
5

决策树算法例题

决策树算法例题

决策树算法例题
一、决策树基本概念与原理
决策树是一种基于树结构的分类与回归模型。

它通过一系列的问题对数据进行划分,最终得到叶子节点对应的分类结果或预测值。

决策树的构建过程通常采用自上而下、递归划分的方法。

二、决策树算法实例解析
以一个简单的决策树为例,假设我们要预测一个人是否喜欢户外运动。

已知特征:性别、年龄、是否喜欢晒太阳。

可以通过以下决策树划分:
1.根据性别划分,男性为喜欢户外运动,女性为不喜欢户外运动。

2.若性别为男性,再根据年龄划分,年龄小于30分为喜欢户外运动,大于30分为不喜欢户外运动。

3.若性别为女性,无论年龄如何,均分为喜欢户外运动。

通过这个决策树,我们可以预测一个人是否喜欢户外运动。

三、决策树算法应用场景及优缺点
1.应用场景:分类问题、回归问题、关联规则挖掘等。

2.优点:易于理解、可解释性强、泛化能力较好。

3.缺点:容易过拟合、对噪声敏感、构建过程耗时较长。

四、实战演练:构建决策树解决实际问题
假设我们要预测房价,已知特征:面积、卧室数量、卫生间数量、距市中心距离。

可以通过构建决策树进行预测:
1.选择特征:根据相关性分析,选择距市中心距离作为最佳划分特征。

2.划分数据集:将数据集划分为训练集和测试集。

3.构建决策树:采用递归划分方法,自上而下构建决策树。

4.模型评估:使用测试集评估决策树模型的预测性能。

通过以上步骤,我们可以运用决策树算法解决实际问题。

决策树例题经典案例

决策树例题经典案例

决策树例题经典案例决策树是一种常见的机器学习算法,它通过对数据集进行划分,构建一颗树形结构来进行决策预测。

在实际应用中,决策树被广泛运用于金融、医疗、营销等领域,帮助人们进行决策分析和预测。

下面我们将通过几个经典案例来深入理解决策树的应用。

案例一,贷款申请。

假设银行需要根据客户的个人信息来决定是否批准其贷款申请。

我们可以利用决策树来构建一个贷款申请的决策模型。

首先,我们需要收集客户的个人信息,比如年龄、收入、信用记录等。

然后,我们将这些信息作为特征,构建决策树模型。

通过对客户信息的分析,决策树可以帮助银行进行贷款申请的预测,提高贷款申请的审批效率。

案例二,疾病诊断。

医疗领域也是决策树的重要应用场景之一。

假设医生需要根据患者的症状来进行疾病诊断,我们可以利用决策树来构建一个疾病诊断的模型。

首先,我们收集患者的症状信息,比如发烧、咳嗽、头痛等。

然后,我们将这些症状作为特征,构建决策树模型。

通过对患者症状的分析,决策树可以帮助医生进行疾病的诊断,提高诊断的准确性。

案例三,产品营销。

在营销领域,决策树也被广泛应用于产品推荐和客户分类。

假设一家电商平台需要根据用户的购物行为来进行产品推荐,我们可以利用决策树来构建一个产品推荐的模型。

首先,我们收集用户的购物记录、浏览记录等信息。

然后,我们将这些信息作为特征,构建决策树模型。

通过对用户行为的分析,决策树可以帮助电商平台进行个性化推荐,提高用户的购物体验。

通过以上经典案例的介绍,我们可以看到决策树在不同领域的应用场景。

无论是贷款申请、疾病诊断还是产品营销,决策树都能够帮助我们进行决策分析和预测,提高工作效率和决策准确性。

因此,掌握决策树算法是非常重要的,它不仅可以帮助我们解决实际问题,还可以提升我们在机器学习领域的竞争力。

希望通过本文的介绍,读者能够对决策树有更深入的理解,为实际问题的解决提供更多的思路和方法。

决策树算法例题经典

决策树算法例题经典

决策树算法例题经典
案例1:购物产品推荐。

假设当前我们需要进行购物产品推荐工作,用户可以选择若干项属性,例如品牌、价格、颜色、是否有折扣等等,在已知一些样本的基础上,构
建一棵决策树,帮助用户快速得到最佳购买推荐。

如果用户选择的品牌为A,则直接推荐产品P3;如果选择品牌为B,
则继续考虑价格,如果价格低于100,则推荐产品P1,否则推荐产品P2。

如果用户选择的品牌为C,则直接推荐产品P4。

当然,这只是一个简单的例子,实际应用场景中可能会有更多的属性
和样本。

因此,在构建决策树时需要考虑选取最优特征,避免过度拟合等
问题。

案例2:疾病预测。

假设有一组医学数据,其中包括患者的年龄、性别、身高、体重、血
压等指标以及是否患有糖尿病的标签信息。

我们希望构建一个决策树来帮
助医生快速判断患者是否可能患有糖尿病。

如果患者年龄大于45岁,则进一步考虑体重,如果体重高于120kg,则判断为高风险群体;否则判断为低风险群体。

如果患者年龄不超过45岁,则直接判断为低风险群体。

当然,这只是一个简单的例子,实际应用场景中可能会有更多的指标
和样本。

因此,在构建决策树时需要考虑选取最优特征,避免过度拟合等
问题。

决策树例题分析及解答分解课件

决策树例题分析及解答分解课件
决策树例题分析及解 答分解课件
目录
CONTENTS
• 决策树与其他机器学习算法的比 • 决策树未来发展方向
01
决策树简 介
决策树的定义
决策树是一种监督学习算法,用于解决分类和回归问题。
它通过递归地将数据集划分成更纯的子集来构建决策树,每个内部节点表示一个 特征属性上的判断条件,每个分支代表一个可能的属性值,每个叶子节点表示一 个类别。
03
决策树例题分析
题目描述
题目
预测一个学生是否能够被大学录 取
数据集
包含学生的个人信息、成绩、活动 参与情况等
目标变量
是否被大学录取(0表示未录取,1 表示录取)
数据预处理
01
02
03
数据清洗
处理缺失值、异常值和重 复值
数据转换
将分类变量转换为虚拟变 量,将连续变量进行分箱 处理
数据归一化
将特征值缩放到0-1之间, 以便更好地进行模型训练
结果解读与优化建议
结果解读
根据模型输出的结果,分析决策树 的构建情况,理解各节点的划分依据。
优化建议
根据模型评估结果和业务需求,提出 针对性的优化建议,如调整特征选择、 调整模型参数等。
05
决策树与其他机器
学习算法的比 较
与逻辑回归的比较
总结词
逻辑回归适用于连续和二元分类问题,而决策树适用于多元分类问题。
建立决策树模型
选择合适的决策树算 法:ID3、C4.5、 CART等
构建决策树模型并进 行训练
确定决策树的深度和 分裂准则
模型评估与优化
使用准确率、召回率、F1分数等指标 评估模型性能
对模型进行优化:剪枝、调整参数等
进行交叉验证,评估模型的泛化能力

决策树例题分析及解答_(1)

决策树例题分析及解答_(1)
27

益损值 态
方案
需求 需求 量较 量一
高般

600 400

800 350

350 220

400 250
需求 量较

-150
-350
50
需求量 很低
max
min
-350 -700 -100
600 -350 800 -700 350 -100
a=0.7
315 350 215
90 -50 400 -50 265
自然状态 概率 建大厂(投资25 建小厂(投资10
万元)
万元)
原料800担 0.8 原料2000担 0.2
13.5 25.5
15.0 15.0
4
补充: 风险型决策方法——决策树方法
• 风险决策问题的直观表示方法的图示法。因为图的形状 像树,所以被称为决策树。
• 决策树的结构如下图所示。图中的方块代表决策节点, 从它引出的分枝叫方案分枝。每条分枝代表一个方案, 分枝数就是可能的相当方案数。圆圈代表方案的节点, 从它引出的概率分枝,每条概率分枝上标明了自然状态 及其发生的概率。概率分枝数反映了该方案面对的可能 的状态数。末端的三角形叫结果点,注有各方案在相应 状态下的结果值。
600×0.7+(--350 ×0.3)=315
28
决策准则小结
不同决策者甚至同一决策者在不同决 策环境下对同一个问题的决策可能截 然不同,并没有所谓的“正确答案” 。决策准则的选取主要取决于决策者 对于决策的性格和态度,以及制定决 策时的环境
所有的准则都不能保证所选择的方案 在实际情况发生时会成为最佳方案
• 试用决策树法选出合理的决策方案。 经过市场调查, 市场销路好的概率为0.7,销路不好的概率为0.3。

人工智能 决策树例题

人工智能 决策树例题

人工智能决策树例题决策树是人工智能和机器学习中用于分类和回归问题的一种常用算法。

可以通过对训练数据集的学习,构建出一棵决策树,用于对新数据进行分类。

下面是一个基于人工智能的决策树算法的例子:假设我们有一个银行客户数据集,其中包含以下特征:年龄、收入、婚姻状况、信用评分等。

我们的目标是预测客户是否会流失(即停止使用该银行的服务)。

首先,我们使用决策树算法对训练数据集进行学习,构建出一棵决策树。

这棵决策树会对每个节点进行判断,将数据分成不同的群组,并对每个群组进行分类。

例如,一个节点可能判断“年龄小于30”的客户更容易流失,而另一个节点可能判断“信用评分高于700”的客户不容易流失。

然后,我们可以使用这棵决策树来预测新客户的流失风险。

对于每个新客户,我们可以根据他们的特征信息,沿着决策树的路径进行判断,最终得到他们的流失风险。

需要注意的是,决策树算法虽然简单易懂,但也可能存在过度拟合的问题。

为了避免这个问题,我们通常会对决策树进行剪枝操作,或者使用集成学习等技术来提高模型的泛化能力。

下面是一个关于决策树的经典例题:例题描述:假设我们有一个数据集,包含不同年龄段的人群(年轻、中年、老年)以及他们的收入水平(低、中、高)、是否拥有房产(是/否)等信息,并且我们要根据这些特征预测一个人是否会购买某种理财产品。

构建决策树步骤:1. 选择一个最优属性作为根节点。

通常通过计算信息增益、信息增益率或基尼不纯度来确定,例如首先以“收入水平”作为划分标准。

2. 对于“收入水平”,我们可以创建三个分支:-收入低的分支,可能大多数人未购买理财产品;-收入中的分支,进一步基于其他特征如年龄、是否有房进行判断;-收入高的分支,可能多数人购买了理财产品。

3. 在每个子集中,继续寻找最优属性并分割数据,直到达到预定条件(如所有样本属于同一类别或者达到预设的最大深度)。

最终形成的决策树模型会像一棵树形结构,从根节点开始,每个内部节点表示一个属性测试,每个分支代表该属性的一个输出值,而每个叶节点则对应一种预测结果(是否购买理财产品)。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

乙 800 350 -350 -700
丙 350 220 50 -100
丁 400 250 90 -50
17
损益值 方案
状态 需求量 需求量 需求量较 需求量 max
较高 一般 低 很低

乙 丙 丁
600
800 350 400
400
350 220 250
-150
-350 50 90
-350
-700 -100 -50
14
各点效益值计算过程是: 点2:13.5×0.8×3+172.9×0.8+25.5×0.2×3+206.5×0.2- 25(投资)=202.3万元 点3:15×0.8×3+105×0.8+15×0.2×3+105×0.2-10(投 资)=140万元 点4:21.5×0.6×7年+29.5×0.4×7年=172.9万元 点5:29.5×1.0×7=206.5 点6:15×0.6×7+15×0.4×7=105万元 通过以上计算。可知建小厂的效益期望值为140万元,而 建大厂的效益期望值为202.3万元,所以应选择建大厂的方 案。
0 50 180 150
240 440 40 0
300 650 50 0
300 650 450 400
22
平均主义决策(折衷决策)
在悲观与乐观中取折中值,既不过于冒险,也不过 于保守,先确定折中系数a。 a在0~1之间,a=0则为悲观决策,a=1则为 乐观决策。将各个方案在各种自然状态下可能取 得的最大收益值找出,用它乘以a,再加上最小 收益值乘以1-a,即为各方案折中后的收益值, 从中找折中后收益值最大的方案。
23
状 益损值 态
方案
需求 量较 高
需求 量一 般
需求 量较 低
需求量 很低
max
min
a=0.7
甲 乙 丙

600 800 350
400
400 350 220
250
-150 -350 50
90
-350 -700 -100
-50
600 800 350
400
-350 -700 -100
-50
315 350 215
265
600×0.7+(--350 ×0.3)=315
24
决策准则小结
不同决策者甚至同一决策者在不同决 策环境下对同一个问题的决策可能截 然不同,并没有所谓的“正确答案”。 决策准则的选取主要取决于决策者对 于决策的性格和态度,以及制定决策 时的环境 所有的准则都不能保证所选择的方案 在实际情况发生时会成为最佳方案
19
悲观原则
需求量 较高
需求量 一般
需求量 较低
需求量 很低
min -350 -700
甲 乙
600 800
400 350
-150 -350
-350 -700


350
400
220
250
50
90
-100
-50
-100
-50
20
3、最小后悔准则(最小机会损失准则) 用益损值表计算出后悔值(同一状态下各方案的最大益 损值与已采用方案的益损值之差),取后悔值最小的 方案 先将各个方案可能带来的最大遗憾计算出来。 遗憾值的计算方法:将每一种自然状态下各个方案可 能取得的最大收益值找出来,其遗憾值为0,其余各方 案的收益值与找出的该状态下的最大收益值相减,即 为该方案在该状态下的遗憾值;然后再从各方案在各 种自然状态下的遗憾值中,找出最大遗憾值;最后从 各方案最大遗憾值中找出遗憾值最小的方案。
9
最后比较决策点1的情况: • 由于点③(719万元)与点②(680万元)相比, 点③的期望利润值较大,因此取点③而舍点②。 这样,相比之下,建设大工厂的方案不是最优方 案,合理的策略应采用前3年建小工厂,如销路好, 后7年进行扩建的方案。
10
决策树法的一般程序是: (1)画出决策树图形 决策树指的是某个决策问题未来发展情 况的可能性和可能结果所做的估计,在图纸上的描绘决策树 (2)计算效益期望值 两个行动方案的效益期望值计算过程: 行动方案A1(建大厂)的效益期望值: 13.5×0.8×10+25.5×0.2×10-25=134万元 行动方案A2(建小厂)的效益期望值: 15×0.8×10+15×0.2×10-10=140万元 (3)将效益期望值填入决策树图 首先在每个结果点后面填上 相应的效益期望值;其次在每个方案节点上填上相应的期望值, 最后将期望值的角色分支删减掉。只留下期望值最大的决策分 支,并将此数值填入决策点上面,至此决策方案也就相应选出
5
决策过程如下:画图,即绘制决策树
• • • •
A1的净收益值=[300×0.7+(-60)×0.3] ×5-450=510万 A2的净收益值=(120×0.7+30×0.3)×5-240=225万 选择:因为A1大于2,所以选择A1方案。 剪枝:在A2方案枝上打杠,表明舍弃。
6
例题
• 为了适应市场的需要,某地提出了扩大电视机生产的 两个方案。一个方案是建设大工厂,第二个方案是建 设小工厂。 • 建设大工厂需要投资600万元,可使用10年。销路好每 年赢利200万元,销路不好则亏损40万元。 • 建设小工厂投资280万元,如销路好,3年后扩建,扩 建需要投资400万元,可使用7年,每年赢利190万元。 不扩建则每年赢利80万元。如销路不好则每年赢利60 万元。 • 试用决策树法选出合理的决策方案。 经过市场调查, 市场销路好的概率为0.7,销路不好的概率为0.3。
21
益损值 方案
状态 需求量较 需求量一 高 般
需求量较 需求量很低 低
甲 乙
600 800
400 350
-150 -350
-350 -700


益损值 方案 状态
350
400
220
250
50
90
需求量 较低
-100
-50
需求量 很低 最大后 悔值
需求量 需求量 较高 一般
甲 乙 丙 丁
200 0 450 400
15
非确定性决策方法
是指决策者对环境情况几乎一无所知,决策者只好根据自己的主观倾向进行 决策
1、
乐观决策(极大极大决策 、大中取大)
决策者持乐观态度,有具有较强的实力,担心失 去获利的机会。愿冒大的风险,意图大的回报。 决策者凭借冒险精神,在不知道未来各种可能 状态发生概率的前提下,将各个方案在各种状 态下可能取得的最大收益值作为该方案的收益 值,然后,再从各方案收益值中找出最大收益 值的方案。
3
• 计算完毕后,开始对决策树进行剪枝,在每个 决策结点删去除了最高期望值以外的其他所有 分枝,最后步步推进到第一个决策结点,这时 就找到了问题的最佳方案 • 方案的舍弃叫做修枝,被舍弃的方案用“≠” 的记号来表示,最后的决策点留下一条树枝, 即为最优方案。
4
• A1、A2两方案投资分别为450万和240万,经营年 限为5年,销路好的概率为0.7,销路差的概率为 0.3,A1方案销路好、差年损益值分别为300万和 负60万;A2方案分别为120万和30万。
25
16
例:
假设某场办工厂准备生产一种新产品,但是对市 场需求量的预测只能大致估计为较高、一般、较低、 很低四种情况,而对每一种情况出现的概率无法估计。 工厂为生产这种产品设计了四个方案,并计划生产五 年,根据计算,各个方案五年损益值如表所示。
甲 需求量较高 需求量一般 需求量较低 需求量很低 600 400 -150 -350
11
建小厂的方案在经济上是比较合理的
12

例:随着茶叶生产的发展,三年后的原 料供应可望增加,两个行动方案每年损益及 两种自然状态的概率估计如表
三年后两种收益估计值
自然状态 原料1200担 原料3000担 概率 0.6 0.4 建大厂 21.5 29.5
单位: 万元
建小厂 15.0 15.0
13
风险型决策方法——决策树方法
• 风险决策问题的直观表示方法的图示法。因为图的形状 像树,所以被称为决策树。
• 决策树的结构如下图所示。图中的方块代表决策节点, 从它引出的分枝叫方案分枝。每条分枝代表一个方案, 分枝数就是可能的相当方案数。圆圈代表方案的节点, 从它引出的概率分枝,每条概率分枝上标明了自然状态 及其发生的概率。概率分枝数反映了该方案面对的可能 的状态数。末端的三角形叫结果点,注有各方案在相应 状态下的结果值。
7
销路好(0.7) 680万元 2 建大厂 销路差(0.3)
200万元
-40万元
1
719万元
扩建 建小厂 930万元 销路好(0.7) 4 不扩建 销路好(0.7) 6 930万元 3 719万元 前3年,第一次决策 560万元 销路差(0.3) 后7年,第二次决策
5
销路好(0.7)
190万元
80万元
60万元
8
计算各点的期望值: • 点②:0.7×200×10+0.3×(-40)×10-600(投资) =680(万元) • 点⑤:1.0×190×7-400=930(万元) • 点⑥:1.0×80×7=560(万元) 比较决策点4的情况可以看到,由于点⑤(930万元) 与点⑥(560万元)相比,点⑤的期望利润值较大, 因此应采用扩建的方案,而舍弃不扩建的方案。 把点⑤的930万元移到点4来,可计算出点③的期望利 润值: • 点③:0.7×80×3+0.7×930+0.3×60×(3+7)-280 = 719(万元)
1
状态节点
概率分枝 4 概率分枝 5
结果节点
2
方案分枝
结果节点
相关文档
最新文档