人工智能机器学习技术练习(习题卷1)
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
人工智能机器学习技术练习(习题卷1)第1部分:单项选择题,共62题,每题只有一个正确答案,多选或少选均不得分。
1.[单选题]SVM在()情况下表现糟糕。
A)线性可分数据
B)清洗过的数据
C)含噪声数据与重叠数据点
答案:C
解析:
2.[单选题]回归评估指标中RMSE和MSE的关系是()
A)MSE是RMSE的平方
B)没有关系
C)RMSE是MSE的平方
答案:A
解析:
3.[单选题]让学习器不依赖外界交互、自动地利用未标记样本来提升学习性能,就是(__)。
A)有监督学习
B)全监督学习
C)无监督学习
D)半监督学习
答案:D
解析:
4.[单选题]假设有矩阵a,则查看该矩阵有几个维度的是()。
A)ndim
B)a.size
C)a.ndim()
D)a.size()
答案:A
解析:
5.[单选题]在标准化公式z = 中,使用e 的目的是( )
A)为了加速收敛
B)如果 过小
C)使结果更准确
D)防止分母为零
答案:D
解析:
6.[单选题]向量 X=[1,2,3,4,-9,0] 的 L1 范数为?
A)1
B)19
解析:L0 范数表示向量中所有非零元素的个数;L1 范数指的是向量中各元素的绝对值之和,又称“稀疏矩阵算子
”;L2 范数指的是向量中各元素的平方和再求平方根。
本例中,L0 范数为 5,L1 范数为 19,L2 范数为 √111。
7.[单选题]最早被提出的循环神经网络门控算法是什么。
()
A)长短期记忆网络
B)门控循环单元网络
C)堆叠循环神经网络
D)双向循环神经网络
答案:A
解析:
8.[单选题]下面关于回归过程的说法,错误的是
A)收集数据:采用任意方法收集数据
B)分析数据:绘出数据的可视化二维图将有助于对数据做出理解和分析,在采用缩减法求得新回归系数之后, 可以 将新拟合线绘在图上作为对比
C)训练算法:找到回归系数
D)用算法:使用回归,可以在给定输入的时候预测出一个数值,这是对分类方法的提升,因为这样只可以预测连续型数据
答案:D
解析:
9.[单选题]核矩阵是( )的。
A)没有规律
B)半正定
C)正定
D)样本矩阵
答案:B
解析:只要一个对称函数所对应的核矩阵半正定,它就能作为核函数使用。
10.[单选题]下面选项中t不是s的子序列的是
A)s=<{2,4},{3,5,6},{8}> t=<{2},{3,6},{8}>
B)s=<{2,4},{3,5,6},{8}> t=<{2},{8}>
C)s=<{1,2},{3,4}> t=<{1},{2}>
D)s=<{2,4},{2,4}> t=<{2},{4}>
答案:C
解析:
11.[单选题]与PCA相比,t-SNE的以下说明哪个正确?
A)数据巨大(大小)时,t-SNE可能无法产生更好的结果。
B)无论数据的大小如何,T-NSE总是产生更好的结果。
C)对于较小尺寸的数据,PCA总是比t-SNE更好。
D)都不是
答案:A
解析:
12.[单选题]关于logistic回归和SVM不正确的是()
A)Logistic 回归目标函数是最小化后验概率
答案:A
解析:
13.[单选题]假如你使用EM算法对一个有潜变量的模型进行最大似然估计(Maximum likelihood estimate)。
这时候要求你将算法进行修改,使得其能找到最大后验分布(Maximum a Posteriori estimation, MAP),你需要修改算法的哪个步骤
A)Expection
B)Maimization
C)不需要修改
D)都需要修改
答案:A
解析:E step根据当前参数进行估算,M step根据估算结果更新参数。
那么修改估算方法自然在E step中。
14.[单选题]若A与B是任意的两个事件,且P(AB)=P(A)·P(B),则可称事件A与B()。
A)等价
B)互不相容
C)相互独立
D)相互对立
答案:C
解析:若A与B为互斥事件,则有概率加法公式P(A+B)=P(A)+P(B);若A与B不为互斥事件,则有公式P(A+B)=P(A)+P(B)-
P(AB);若A与B为相互独立事件,则有概率乘法公式P(AB)=P(A)P(B)
15.[单选题]能够直观显示出学习器在样本总体上的查全率、查准率的图是()。
A)ROC曲线
B)误差曲线
C)方差曲线
D)P-R曲线
答案:D
解析:
16.[单选题]查准率和查全率是一对__的度量。
A)相容
B)相等
C)矛盾
D)包含
答案:C
解析:
17.[单选题]下列哪项方法不属于图像分割方法()。
A)边缘检测法
B)阈值分割法
C)区域分割法
D)特征提取法
答案:D
解析:
18.[单选题]假定有一个数据集S,但该数据集有很多误差,采用软间隔SVM训练,阈值
为C,如果C的值很小,以下那种说法正确( )
D)以上都不对
答案:A
解析:
19.[单选题]Boosting是一可将弱学习器提升为强学习器的算法,最著名的代表是____。
A)Bagging
B)随机森林
C)AdaBoost
D)决策树
答案:C
解析:
20.[单选题]在以下不同的场景中,使用的分析方法不正确的有( )
A)根据商家最近一年的经营及服务数据,用聚类算法判断出天猫商家在各自主营类目下所属的商家层级
B)根据商家近几年的成交数据,用聚类算法拟合出用户未来一个月可能的消费金额公式
C)用关联规则算法分析出购买了汽车坐垫的买家,是否适合推荐汽车脚垫
D)根据用户最近购买的商品信息,用决策树算法识别出淘宝买家可能是男还是女
答案:B
解析:
21.[单选题]KNN算法属于一种典型的()算法
A)监督学习
B)无监督学习
C)半监督学习
D)弱监督学习
答案:A
解析:
22.[单选题]从宏观角度来看,数据可视化的功能不包括( )。
A)信息记录
B)信息的推理分析
C)信息清洗
D)信息传播
答案:C
解析:
23.[单选题]有关决策树的说法哪个是错误的( )
A)可以转化为决策规则
B)对新样本起到分类预测的作用
C)决策树的深度越大越好
D)决策树的算法和神经网络的原理不一样
答案:C
解析:
24.[单选题]集成学习中,每个基分类器的正确率的最低要求( )
A)50%以上
B)60%以上
C)70%以上
25.[单选题]下图中判断未知绿圆的类别,体现了哪个机器学习算法的思想?()
A)决策树
B)贝叶斯分类器
C)支持向量机
D)K近邻算法
答案:D
解析:
26.[单选题]在深度学习中,涉及到大量矩阵相乘,现在需要计算三个稠密矩阵A,B,C的乘积ABC,假设三个矩阵的尺寸分别为m*n,n*p,p*q,且m<n<p<q,以下计算顺序效率最高的是:()
A)A(BC)
B)(AB)C
C)(AC)B
D)所有效率都相同
答案:B
解析:
27.[单选题]机器学习的经典定义是: ()
A)利用技术进步改善系统自身性能
B)利用技术进步改善人的能力
C)利用经验改善系统自身的性能
D)利用经验改善人的能力
答案:C
解析:
28.[单选题]对于在原空间中线性不可分问题,支持向量机()。
A)无法处理
B)将数据映射到核空间中
C)在原空间中寻找非线性函数的划分数据
D)在原空间中寻找线性函数划分数据
答案:B
解析:
29.[单选题]在猫狗图像分类任务中,如果100个样本,其中50张猫,50张狗,但图像混在一起,无法区分他们是猫是狗,也就是每个图像无对应的类别标签。
如果将这100张样本作为训练集,使用机器学习算法训练学习如何分类猫和狗
,此时的训练方法是
A)无监督学习
B)半监督学习
C)监督学习
D)混合学习
答案:A
解析:
30.[单选题]关于集成学习算法的说法正确的是( )
A)一种并行的算法框架
B)一种串行的算法框架
C)一类全新的数据挖掘算法
31.[单选题]有如下数据集,则频繁3-项集为:
class="fr-fic fr-dib cursor-hover"
A){O,K,E}
B){M,U,E}
C){N,K,O}
D){Y,U,E}
答案:A
解析:
32.[单选题]学习器的实际预测输出与样本的真实输出之间的差异称为__。
A)错误率
B)精度
C)误差
D)查准率
答案:C
解析:
33.[单选题]下面哪项不属于循环神经网络的输出模式。
()
A)单输出
B)多输出
C)同步多输出
D)异步多输出
答案:C
解析:
34.[单选题]数据科学家经常使用多个算法进行预测,并将多个机器学习算法的输出(称为“集成学习”)结合起来,以获得比所有个体模型都更好的更健壮的输出。
则下列说法正确的是?
A)基本模型之间相关性高
B)基本模型之间相关性低
C)集成方法中,使用加权平均代替投票方法
D)基本模型都来自于同一算法
答案:B
解析:本题考查的是集成学习的基本原理。
集成学习,顾名思义,通过将多个单个学习器集成/组合在一起,使它们共同完成学习任务。
举个例子来说明,假如你有 T 个朋友,每个朋友向你预测推荐明天某支股票会涨还是会跌,那么你该选择哪个朋友的建议呢?第一种方法是从 T 个朋友中选择一个最受信任,对股票预测能力最强的人,直接听从他的建议就好。
这是一
出对该支股票的预测。
这种方法对应的是 uniformly 思想。
第三种方法,如果每个朋友水平不一,有的比较厉害,投票比重应该更大一些,有的比较差,投票比重应该更小一些。
那么,仍然对 T 个朋友进行投票,只是每个人的投票权重不同。
这种方法对应的是 non-uniformly 的思想。
第四种方法与第三种方法类似,但是权重不是固定的,根据不同的条件,给予不同的权重。
比如如果是传统行业的股票,那么给这方面比较厉害的朋友较高的投票权重,如果是服务行业,那么就给这方面比较厉害的朋友较高的投票权重。
以上所述的这四种方法都是将不同人不同意见融合起来的方式,这就是集成思想,即把多个基本模型结合起来,得到更好的预测效果。
通常来说,基本模型之间的相关性越低越好,因为每个模型有各自的特长,集成起来才更加强大。
35.[单选题]请阅读下列一段示例程序:
Import numpy as np
Arr1 = np.array([[0], [1], [2]])
Arr2 = np.array([1, 2])
Result = arr1 + arr2
Print(result.shape)
运行上述程序,那么最终输出的结果为( )。
A)(3, 2)
B)(2, 3)
C)(3, 0)
D)(2, 0)
答案:A
解析:
36.[单选题]边界跟踪技术技术属于哪一类分割方法。
()
A)阈值分割法
B)边缘分割法
C)区域分割法
D)特征分区法
答案:B
解析:
37.[单选题]()属于无监督学习
A)分类
B)回归
C)聚类
D)决策树模型
答案:C
解析:
38.[单选题]下面不属于商业的有(__)。
A)howgood
B)stitch fix
C)instacart
D)cyence
答案:D
解析:
39.[单选题]LSTM调整参数时信息的传播方向是( )。
A)后向传播
答案:A
解析:
40.[单选题]若svm出现欠拟合,以下合适的做法是
A)使用更powful的kernel
B)增加训练样本
C)使用L2 正规化
D)做数据增强
答案:A
解析:
41.[单选题]Relief是为()问题设计的。
A)二分类
B)多分类
C)回归
D)降维
答案:A
解析:
42.[单选题]当数据分布不平衡时,我们可采取的措施不包括( )。
A)对数据分布较多的类别赋予更大的权重
B)对数据分布较多的类别欠采样
C)对数据分布较少的类别过采样
D)对数据分布较少的类别赋予更大的权重
答案:A
解析:
43.[单选题]特征工程的目的是()。
A)找到最合适的算法
B)得到最好的输入数据
C)减低模型复杂度
D)加快计算速度
答案:B
解析:特征工程的目的是筛选出更好的特征,获取更好的训练数据。
44.[单选题]下列哪种算法可以用神经网络构建?
1 K-NN最近邻算法;
2 线性回归;
3 逻辑回归。
A)1 and 2
B)2 and 3
C)1, 2 and 3
D)None of the above
答案:B
解析:1.KNN是关于距离的学习算法,没有任何参数,所以无法用神经网络构建。
2. 神经网络实现最小二乘法。
3. 逻辑回归相当于一层的神经网络。
45.[单选题]对于随机森林和 GBDT,下面说法正确的是()。
A)在随机森林的单个树中,树和树之间是有依赖的,而 GBDT中的单个树之间是没有依赖的
B)这两个模型都使用随机特征子集,来生成许多单个的树
解析:组成随机森林的树可以并行生成;而 GBDT只能是串行生成。
46.[单选题]3.以下哪些是无序属性()
A){1,2,3}
B){飞机,火车、轮船}
C)闵可夫斯基距离
D){小,中,大}
答案:B
解析:
47.[单选题](__)是分类正确的样本数占样本总数的比例。
A)精度
B)错误率
C)偏差
D)误差
答案:A
解析:
48.[单选题]控制论学派属于( )。
[] *
A)符号主义
B)认知主义
C)联结主义
D)行为主义
答案:D
解析:
49.[单选题]假设12个销售价格记录组已经排序如下:5, 10, 11, 13, 15, 35, 50, 55, 72, 92, 204, 215 使用如下每种方法将它们划分成四个箱。
等频(等深)划分时,15在第几个箱子内?
A)第一个
B)第二个
C)第三个
D)第四个
答案:B
解析:
50.[单选题]下面回归模型中的哪个步骤/假设最能影响过拟合和欠拟合之间的平衡因素()。
A)多项式的阶数
B)是否通过矩阵求逆或梯度下降学习权重
C)使用常数项
D)使用正则化
答案:A
解析:选取合适的多项式阶数对于回归的拟合程度会产生重要的影响。
多项式阶数越高,越容易产生过拟合现象。
51.[单选题]以下几个对直方图规定化的两种映射方式(SML 与GML)的叙述中正确的是?
A)SML的误差一定大于GML;
B)原始直方图与规定化直方图中的灰度级数相等时(M=N),SML 的误差一定等于GML;
C)<M时,SML的误差一定大于GML;
D)SML与GML均是统计无偏的;
52.[单选题]若a = range(100),以下哪个操作是非法的是()。
A)a[-0.3]
B)a[2:13]
C)a[::3]
D)a[2-3]
答案:A
解析:
53.[单选题]在K-摇臂赌博机中,若尝试次数非常大,在一段时间后,摇臂的奖赏能很好的近似出来,不再需要探索,则可让ε随着尝试次数增加而
A)增大
B)置为无穷
C)置为0
D)减少
答案:D
解析:
54.[单选题]5.EM算法的停止条件()
A)已达到最大迭代轮数
B)数据样本异常
C)训练器异常
D)似然函数减小
答案:A
解析:
55.[单选题]抖动技术可以()
A)改善图像的空间分辨率
B)改善图像的幅度分辨率
C)利用半输出技术实现
D)消除虚假轮廓现象
答案:D
解析:
56.[单选题]学习率对机器学习模型结果会产生影响,通常希望学习率()。
A)越小越好
B)越大越好
C)较小而迭代次数较多
D)较大而迭代次数较小
答案:C
解析:
57.[单选题]假设你需要调整超参数来最小化代价函数(cost function),会使用下列哪项技术?
A)穷举搜索
B)随机搜索
C)Bayesian优化
D)都可以
答案:D
解析:
B)大数据产业全景图
C)大数据产业
D)大数据网络
答案:B
解析:
第2部分:多项选择题,共17题,每题至少两个正确答案,多选或少选均不得分。
59.[多选题]训练CNN时,GPU显存溢出,此时可以采取什么办法?()
A)减少mini_batch大小
B)移除一些卷积层
C)减少图片输入大小
D)增加激活函数
答案:ABC
解析:
60.[多选题]影响基本K-均值算法的主要因素有()
A)样本输入顺序
B)模式相似性测度
C)聚类准则
D)初始类中心的选取
答案:ABD
解析:关于A,具体推导详见《模式识别》的动态聚类算法,书中提到,这是一个局部搜索算法,不能保证得到全局最优解,算法结果受初始值和样本调整顺序的影响。
也就是说如果在迭代的过程中,数据集不够随机,很容易陷入局部最优。
61.[多选题]数据科学项目主要涉及的角色有(__)和项目发起人、客户、项目经理。
A)数据科学家
B)领域专家
C)数据工程师
D)操作人员
答案:ACD
解析:
62.[多选题]( )是关键词提取的算法。
A)TF-IDF
B)TextRank
C)LDA
D)PCA
答案:ABC
解析:
63.[多选题]特征向量的归一化方法有()。
A)线性函数转换
B)对数函数转换
C)反余切函数转换
D)减去均值,除以方差
答案:ABCD
解析:
64.[多选题]数据科学项目的基本流程涉及发活动包括(__)和数据的管理与获取、结果的可视化与文档化、模式/模型的验证和优化。
A)模式/模型的应用和维护
B)项目目标定义
C)项目成本控制
D)模式/模型的洞见
答案:ABD
解析:
65.[多选题]属于数据变换的类型有(__)。
A)平滑处理
B)聚类
C)标准化
D)特征构造
答案:ABD
解析:
66.[多选题]隐马尔可夫模型中的变量可以分为两组(__)和(__)。
A)状态变量
B)行为变量
C)观测变量
D)已确定变量
答案:AC
解析:
67.[多选题]( )可以做LSTM学习。
A)MATLAB
B)tensorflow
C)kreas
D)word
答案:ABC
解析:
68.[多选题]以下哪些函数是凸函数?()
A)f(x) = x
B)f(x) = x^3
C)f(x) = x^4
D)f(x) = x^3+x^4
答案:AC
解析:二阶导数非负
69.[多选题]以下()属于线性分类器最佳准则?
A)感知准则函数
B)贝叶斯分类
C)支持向量机
D)Fisher准则
答案:ACD
解析:
70.[多选题]在决策树基本算法中,有三种情形会导致递归返回,这三种情形分别是(__)。
A)当前结点包含的样本全属于同一类别,无需划分
B)当前属性集为空,或是所有样本在所有属性上取值相同,无法划分
C)当前结点包含的样本集合为空,不能划分
D)当前结点包含的样本不属于同一类别,不可划分
答案:ABC
解析:
71.[多选题]集成学习学习中多样性的度量(用于度量集成中个体分类器的多样性)有哪些___
A)不合度量
B)相关系数
C)Q-统计量
D)к-统计量
答案:ABCD
解析:
72.[多选题]精确推断方法通常需要很大的计算开销,因此在现实应用中近似推断方法更为常用。
近似推断方法两类的典型代表有?
A)MCMC采样
B)变分推断
C)UUC采样
D)拆解推测
答案:AB
解析:
73.[多选题]ID3算法从功能上看有哪两点明显不足?
A)实例各特征的取值必须是离散值,而不能是连续实数值
B)预测目标值只能为离散值,不能是连续实数值,因此只能处理分类问题,不能处理回归问题
C)实例各特征的取值必须是连续实数值,而不能是离散值
D)预测目标值只能为连续实数值,不能是离散值,因此只能处理回归问题,不能处理分类问题
答案:AB
解析:
74.[多选题]在ROC空间中,以(__)为横轴,以(__)为纵轴。
A)TP rate
B)FN rate
C)FP rate
D)TN rate
答案:AC
解析:
75.[多选题]下面属于探索性分析主要关注的四大主题的有(__)。
A)耐抗性
B)方差
C)重新表达
D)启示
答案:ACD
解析:
第3部分:判断题,共12题,请判断题目是否正确。
76.[判断题]L2正则化往往用于防止过拟合,而L1正则化往往用于特征选择。
A)正确
B)错误
答案:对
77.[判断题]使用merge()函数进行数据合并时,不需要指定合并键。
A)正确
B)错误
答案:错
解析:
78.[判断题]监督学习需要有大量标注好的数据集来对模型进行训练
A)正确
B)错误
答案:对
解析:
79.[判断题]平方损失函数适合二分类或多分类的场景,而交叉熵损失则更适合输出为连续的场景。
()
A)正确
B)错误
答案:错
解析:
80.[判断题]“预训练+微调”法以及“权共享”方法都是为了节省训练开销
A)正确
B)错误
答案:对
解析:
81.[判断题]预剪枝决策树通常比后剪枝决策树保留了更多的分支。
A)正确
B)错误
答案:错
解析:
82.[判断题]在距离度量中,最常的是“闵可夫斯基距离”。
当p=2时,闵可夫斯基距离就是欧式距离,当p=1时,闵可夫斯基距离就是曼哈顿距离。
A)正确
B)错误
答案:对
解析:
83.[判断题]数据集一般划分为训练集、验证集和测试集三部分,训练集用于建模,验证集用于模型验证与矫正,测试集用于模型的最终评估。
A)正确
B)错误
答案:对
解析:
84.[判断题]先验概率是指根据以往经验和分析得到的概率
A)正确
B)错误
答案:对
解析:
85.[判断题]聚类和分类的区别在于用于聚类的训练样本的类标记是未知的。
A)正确
B)错误
答案:对
解析:
86.[判断题]分类学习的目的是从给定的人工标注的分类训练样本数据集中学习出一个分类函数或者分类模型,也常常称作分类器
A)正确
B)错误
答案:对
解析:
87.[判断题]贝叶斯决策论是概率框架下实施决策的基本方法,它是决策论+ 概率论的组合
A)正确
B)错误
答案:对
解析:
第4部分:问答题,共9题,请在空白处填写正确答案。
88.[问答题]聚类算法与分类算法最大的区别:聚类算法是()的学习算法,而分类算法属于监督的学习算法
答案:无监督
解析:
89.[问答题]回归任务中最常用的性能度量是( )。
答案:均方误差
解析:
90.[问答题]设计一个对率回归算法的基本流程
答案:(1)将x的值归一化(2)计算权重函数(3)选择sigmoid函数(4)选择损失函数L(5)梯度下降求w(6)不断更新w和b,用训练好的权重参数做预测
解析:
91.[问答题]主成分分析方法是一种什么方法( )
答案:降维方法
解析:
92.[问答题]Scipy中的( )模块包含大量用于科学计算的常数。
答案:constants
解析:
93.[问答题]K近邻算法跟所有机器学习算法一样,在高维情形下出现数据样本系数、距离计算困难等问题,这些障碍被称为()
答案:维数灾难
解析:
94.[问答题]请描述K-means算法的过程。
答案:首先设置簇的个数K,初始化各簇的质心,计算每个样本到各簇的距离,将每个样本分配到离它最近的簇,更新各簇的质心,不断迭代,直到达到最大迭代次数。
95.[问答题]标准梯度下降法若误差曲面存在多个局部最小值,那么标准梯度模型可能找不到()。
答案:全局最小值
解析:
96.[问答题]是说,若有多个假设与观察一致,则选择最简单的那个
答案:奥卡姆剃刀
解析:
97.[单选题]随机森林的分类机制是()
A)投票
B)提升
C)概率计算
答案:A
解析:
98.[单选题]如果一个SVM模型出现欠拟合,那么()能解决这一问题。
A)增大惩罚参数C
B)减小惩罚参数C
C)减小核系数(gamma参数)
答案:A
解析:SVM 模型出现欠拟合,表明模型过于简单,需要提高模型复杂度。
C越大,相应的模型越复杂。
99.[单选题]样本选择的目的是为了()
A)统计样本分布
B)筛选无意义样本
C)监督学习
答案:B
解析:
100.[单选题]下列哪个不是 RDD 的缓存方法 ()。
A)persist()
B)Cache()
C)Memory()
答案:C
解析:。