国开作业《人工智能》形成性考核(二)参考(含答案)933

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

国开作业《人工智能》形成性考核(二)
参考(含答案)933
本次考核为形成性考核,试卷分为两部分。

第一部分:选择题
1. 训练一个神经网络时,下列哪种方法可以有效降低过拟合?(D)
A. 增加训练集的大小
B. 减小网络的深度
C. 减小网络的宽度
D. 加入正则化项
2. 下列关于熵的说法,哪个是正确的?(B)
A. 熵越小,数据的不确定性越小
B. 熵越大,数据的不确定性越大
C. 熵和不确定性没有关系
D. 熵只能为整数
3. 下列哪项不是强化研究的三要素之一?(C)
A. 奖励
B. 状态
C. 目标
D. 行动
4. 下列哪种神经网络常用于自然语言处理任务?(A)
A. 循环神经网络
B. 卷积神经网络
C. 深度信念网络
D. 受限玻尔兹曼机
5. Ernie模型是哪家公司开发的?(B)
A. 谷歌
B. 百度
C. 腾讯
D. 阿里巴巴
第二部分:简答题
1. 请简要介绍一下卷积神经网络(CNN)的原理,并说明
CNN可以用来解决哪类问题?
卷积神经网络是由一系列卷积层和池化层组成的神经网络,其
中卷积层负责提取图像中的特征,池化层负责缩小数据尺寸以减小
运算量,并增强模型的泛化能力。

CNN可以用来解决计算机视觉
领域的问题,如物体分类、物体检测、图像分割等。

2. 常见的循环神经网络(RNN)有哪些结构?简述它们的原理。

常见的循环神经网络结构有RNN、LSTM和GRU。

RNN会对
序列中的每个元素进行循环处理,将上一个元素的输出作为当前元
素的输入。

LSTM通过门控机制来长期记忆信息并削减梯度消失的
影响;GRU是LSTM的变种,将门控机制分为更新门和重置门,
从而降低了计算量,提高了计算速度。

3. 请利用线性回归算法,通过自己搜集的数据,建立一个房价
预测模型。

略。

4. 请简要介绍Transformer模型的原理,并说明Transformer相
比基于循环神经网络的模型有哪些优势?
Transformer是由若干个注意力机制堆叠而成的模型,它将输入序列分别进行自注意力和交叉注意力计算,得到对应的注意力矩阵,实现了序列之间的信息传递。

相比基于循环神经网络的模型,Transformer具有并行化计算能力、处理长距离依赖关系能力更强、避免了循环中依赖关系的累乘,同时它还可以在encoder和decoder
之间共享参数,提高了模型的泛化能力和训练效率。

以上为参考答案,仅供参考。

相关文档
最新文档