2015数据挖掘技术试卷A卷-参考答案

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

2014~ 2015学年 第二学期期末考试

数据挖掘技术 试卷(A 卷)参考答案 使用班级 1250411/12/13/14 答题时间_120分钟_

一、填空题 (共10空, 每空1分,共10分)

1.数据挖掘的任务:分类、聚类、回归、关联分析、离群点监测、演化分析、序列模式。

2.数据集的三个重要特性:_维度、稀疏性、分辨率。

二、判断题 (共10小题, 每小题1分,共10分)

判断下列3~7小题的描述是否正确?

3.ID3算法不仅可以处理离散属性,还可以处理连续属性。( F )

4.决策树方法通常用于关联规则挖掘。( F )

5.先验原理可以表述为,一个频繁项集的任一子集也应该是频繁的。( T )

6.Clementine 是IBM 公司的专业级数据挖掘软件。( T )

7.具有较高的支持度的项集具有较高的置信度。( F ) 判断下列8~12小题的描述是否属于数据挖掘任务?

8.利用历史数据预测公司将来的股价。 ( T )

9.监测病人心率的异常变化 。 ( F ) 10.监测地震活动的地震波 。 ( F ) 11.提取声波的频率 。 ( F )

12.根据顾客喜好摆放商品位置。 ( T )

三、简答题(6个小题,每小题5分,共30分)

13. 什么是信息熵?

答:信息熵(entropy)是用来度量一个属性的信息量(1分)。假定S 为训练集,S 的目标属性C 具有m 个可能的类标号值,C={C1,C2,…,Cm},假定训练集S 中,Ci 在

所有样本中出现的频率为 (i=1,2,3,…,m),则该训练集S 所包含的信息熵定义为: (3分)

熵越小表示样本对目标属性的分布越纯,反之熵越大表示样本对目标属性分布越混乱。(1分) 14.什么是文本挖掘?

答:文本挖掘是一个对具有丰富语义的文本进行分析,从而理解其所包含的内容和意义的过程。(2分)对其进行深入的研究可以极大地提高人们从海量文本数据中提取信息的能力,具有很高的商业价值。(1分)包括分词、文本表示、文本特征选择、文本分类、文本聚类、文档自动摘要等内容。(2分) 15. 什么是主成份分析?

答:主成份分析(PCA )是一种用于连续属性的线性变换技术,找出新的属性(主成份),(1分)这些新属性是原属性的线性组合,(1分)是相互正交的,(1分)使得原来数据投影到较小的集合中,并且捕获数据的最大变差。(1分)PCA 通常揭示先前未曾觉察的联系,解释不寻常的结果。(1分) 16. 简述k -最近邻算法过程。 答:KNN 分类算法的基本描述如下: 算法名:KNN

输入:最近邻数目K ,训练集D ,测试集Z (1分) 输出:对测试集Z 中所有测试样本预测其类标号值 (1分) (1)for 每个测试样本 (1分) do

(2) 计算z 和每个训练样本 之间的距离 (1分) (3) 选择离z 最近的k 最近邻集合 (1分) (4) 返回 中样本的多数类的类标号 (1分) (5)end for

17. 简述Apriori 算法原理。

答:Apriori 性质:一个项集是频繁的,那么它的所有子集都是频繁的。(1分)一个项集的支持度不会超过其任何子集的支持度。(1分)该算法采用逐层的方法找出频繁项集,(1分)首先找出1频繁-项集,通过迭代方法利用频繁k-1-项集生成k 候选项集,(1分)扫描数据库后从候选k-项集中指出频繁k-项集,直到生成的候选项集为空。(1分) 18. 什么是离群点?

答:离群点是在数据集中偏离大部分数据的数据,(2分)使人怀疑这些数据的偏离并非由随机因素产生,(1分)而是产生于完全不同的机制。(2分)

四、计算题 (共2题, 每小题20分,共40分)

1221

()(,,...,)log m

m i i i Entropy S Entropy p p p p p ===-∑

(',')z x y Z =∈(,)x y D ∈z D D ⊆(',)d x x z D

19.数据集如下表:

以A1、B1、C1为初始簇中心,利用曼哈顿距离的k-means算法计算:

(1) 第一次循环后的三个簇中心;

(2) 最后的三个簇中心,以及各簇包含的对象。(要有计算步骤)

解:(1)计算其他7个数据点到三个中心的曼哈顿距离:

M(A2,A1)=11 M(A2,B1)=7 M(A2,C1)=4

M(A3,A1)=13 M(A3,B1)=3 M(A3,C1)=2

M(B2,A1)=8 M(B2,B1)=10 M(B2,C1)=7

M(B3,A1)=12 M(B3,B1)=2 M(B3,C1)=3

M(B4,A1)=3 M(B4,B1)=7 M(B4,C1)=8

M(C2,A1)=2 M(C2,B1)=10 M(C2,C1)=11

M(C3,A1)=8 M(C3,B1)=8 M(C3,C1)=5

经过本次循环,属于A1簇的数据点为(A1,B4,C2),(1分)中心为X1(1.67,2.33);(1分)

属于B1簇的数据点为(B1,B3),(1分)中心为X2(5.5, 8.5);(1分)

属于C1簇的数据点为(C1,A2,A3,B2,C3),(1分)中心为X3(8, 5.2);(1分)

(2)计算10个点到三个新中心的距离:

M(A1,X1)=1 M(A1,X2)=11 M(A1,X3)=10.2

M(A2,X1)=10 M(A2,X2)=7 M(A2,X3)=1.2

M(A3,X1)=12 M(A3,X2)=2 M(A3,X3)=4.8

M(B1,X1)=9 M(B1,X2)=1 M(B1,X3)=5.8

M(B2,X1)=7.66 M(B2,X2)=10 M(B2,X3)=4.2

M(B3,X1)=11 M(B3,X2)=1 M(B3,X3)=5.8

M(B4,X1)=2 M(B4,X2)=8 M(B4,X3)=7.2

M(C1,X1)=10 M(C1,X2)=3 M(C1,X3)=2.8

M(C2,X1)=1.66 M(C2,X2)=11 M(C2,X3)=10.2

M(C3,X1)=7 M(C3,X2)=8 M(C3,X3)=2.2

经过本次循环,属于X1簇的数据点为(A1,B4,C2),(1分)中心为Y1(1.67, 2.33);(1分)

属于X2簇的数据点为(A3,B1,B3),(1分)中心为Y2(6, 8.67);(1分)

属于X3簇的数据点为(A2,B2,C1,C3),(1分)中心为Y3(8.25, 4.25);(1分)

再次计算10个数据点到三个新中心的距离:

M(A1,Y1)=1 M(A1,Y2)=11.67 M(A1,Y3)=9.5

M(A2,Y1)=10 M(A2,Y2)=6.67 M(A2,Y3)=1.5

M(A3,Y1)=12 M(A3,Y2)=1.33 M(A3,Y3)=6

M(B1,Y1)=9 M(B1,Y2)=1.67 M(B1,Y3)=7

M(B2,Y1)=7.66 M(B2,Y2)=9.67 M(B2,Y3)=3

M(B3,Y1)=11 M(B3,Y2)=0.33 M(B3,Y3)=7

M(B4,Y1)=2 M(B4,Y2)=8.67 M(B4,Y3)=6.5

M(C1,Y1)=9 M(C1,Y2)=2.67 M(C1,Y3)=4

M(C2,Y1)=1.66 M(C2,Y2)=11.67 M(C2,Y3)=9.5

M(C3,Y1)=7 M(C3,Y2)=7.67 M(C3,Y3)=1.5

经过本次循环,属于Y1簇的数据点为(A1,B4,C2),(1分)中心为Y1(1.67, 2.33);(1分)

属于Y2簇的数据点为(A3,B1,B3,C1),(1分)中心为Y2(6.25, 8.25);(1分)

属于Y3簇的数据点为(A2,B2,C3),(1分)中心为Y3(8.67, 3.33);(1分)

可以看到,已经不变了。(2分)

使用朴素Bayes算法预测气候状况为雨天,高温,湿度中等,微风时,是否适合户外运动?

解:即求X={下雨,高,中等,微风}的户外运动为可以的后验概率P(Y=y|X)和X在户外运动为不可以的后验概率P(Y=n|X),其中概率最大者为X的预测值。(3分)

根据Bayes定理,P(Y=y|X)=P(X|Y=y) * P(Y=y)=P(x1|Y=y)* P(x2|Y=y)* P(x3|Y=y)* P(x4|Y=y)* P(Y=y) (2分)

相关文档
最新文档