江苏开放大学神经网络与深度学习060732形成性考核作业一最新答案

内容查看
查看价格30

试题列表
单选题
题型:单选题客观题分值5分难度:中等得分:5
1
下列关于过拟合描述正确的是?
A
过拟合意味着⾼偏差⾼⽅差
B
过拟合意味着低偏差低⽅差
C
过拟合意味着低偏差⾼⽅差
D
过拟合意味着⾼偏差低⽅差
正确答案:C
题型:单选题客观题分值5分难度:一般得分:5
2
image.png最后输出为image.png ,其中image.png为Sigmoid函数,计算image.png的值为()
A
xf(xy + 2x)(1 − f(xy + 2x))
B
(y + 2)f(xy + 2x)(1 − f(xy + 2x))
C
f(xy + 2x)(1 − f(xy + 2x))
D
xf(xy + 2x)
正确答案:A
题型:单选题客观题分值5分难度:一般得分:5
3
不会对K-means算法产⽣影响的因素是?
A
聚类准则
B
初始类中⼼的选取
C
样本输⼊顺序
D
模式相似性测度
正确答案:A
题型:单选题客观题分值5分难度:简单得分:5
4


在其他条件不变的前提下,以下哪种做法容易引起机器学习中的过拟合问题?
A
删除稀疏的特征
B
减少正则化的强度
C
增加训练集数量
D
减少神经⽹络隐藏层节点数
正确答案:B
题型:单选题客观题分值5分难度:简单得分:5
5
下⾯关于ID3算法说法错误的是?
A
选取信息增益最⼤的特征,作为树的根节点
B
ID3算法要求特征必须离散化
C
信息增益可以⽤熵,⽽不是GINI系数来计算
D
ID3算法是⼀个⼆叉树模型
正确答案:D
题型:单选题客观题分值5分难度:简单得分:5
6
下列算法中属于⽆监督学习算法的是?
A
Logisitic Regression
B
K-means
C
SVM
D
KNN
题型:单选题客观题分值5分难度:中等得分:5
7
Sigmoid是逻辑回归模型的激活函数 ,对sigmoid函数求导,结果为?
A

B

C

D

题型:单选题客观题分值5分难度:简单得分:5
8
以下哪⼀个不是深度学习在近⼏年获得⻜速发展的原因?
A
感知机模型的提出
B
更多稳健的优化算法和深度学习平台的发展
C
更好的⾮线性激活函数和新的正则化技术的发展
D
更多优秀的⽹络结构和并⾏运算的发展
题型:单选题客观题分值5分难度:简单得分:5
9
下列对于机器学习⼀般⽅法的叙述,错误的是?
A
监督学习算法训练含有很多特征的数据集,不过数据集中的样本都有⼀个标签(label)或⽬标 (target)
B
⽆监督学习算法训练含有很多特征的数据集,然后学习出这个数据集上有⽤的结构性质
C
深度学习属于监督学习的⼀种,⽬前常⽤多层神经⽹络的⽅法进⾏训练
D
强化学习算法会和环境进⾏交互,学习系统和它的训练过程会有反馈回路
题型:单选题客观题分值5分难度:简单得分:5
10
下列对于机器学习一般方法的叙述,错误的是?
A
监督学习算法训练含有很多特征的数据集,不过数据集中的样本都有一个标签(label)或目标(target)
B
强化学习算法会和环境进行交互,学习系统和它的训练过程会有反馈回路
C
无监督学习算法训练含有很多特征的数据集,然后学习出这个数据集上有用的结构性质
D
深度学习属于监督学习的一种,目前常用多层神经网络的方法进行训练
题型:单选题客观题分值5分难度:简单得分:5
11
下列降维⽅法中不属于⽆监督学习的是?
A
线性判别分析(LDA)
B
局部线性嵌⼊(LLE)
C
主成分分析(PCA)
D
多维尺度变换(MDS)
题型:单选题客观题分值5分难度:一般得分:5
12
下列关于多层感知机MLP的说法,不正确的是()
A
MLP通常使⽤反向传播算法来进⾏监督学习
B
MLP的常⽤激活函数有Sigmoid函数,tanh函数,ReLU函数等
C
MLP各层之间的神经元连接⽅式为全连接
D
增加MLP的隐藏层层数会增强MLP的表示能⼒,因此测试误差便⼀定会减⼩,预测能⼒也会更强
题型:单选题客观题分值5分难度:简单得分:5
13
下列关于⽀持向量机说法错误的是?
A
⽀持向量机模型可以通过核⽅法来处理线性不可分的数据
B
SVM构建了⼀个或多个⾼维(甚⾄是⽆限维的)超平⾯来分割样本点,这个超平⾯即为分类边界
C
⽀持向量机的分类边界与全体数据点有关
D
⽀持向量机(Support Vector Machine, SVM)属于有监督学习的分类模型,并⼴泛应⽤于统计分 类及回归分析中
题型:单选题客观题分值5分难度:中等得分:5
14
下列关于Lasso回归和岭回归的说法错误的是?
A
相⽐于Lasso回归,岭回归更易出现稀疏解
B
Lasso回归在误差函数上增加的正则化项是模型参数的L1范数
C
Lasso回归和岭回归均是在误差函数上增加⼀个正则化项
D
岭回归在误差函数上增加的正则化项是模型参数的L2范数的平⽅
多选题
题型:多选题客观题分值5分难度:较难得分:5
1
反向传播算法在基于梯度下降的策略寻找最优参数时,结果往往会收敛到局部极⼩值,可以 采取下列哪些⽅法来“跳出”局部极⼩值,从⽽进⼀步接近全局最⼩值?()
A
增加神经⽹络的深度
B
采取正则化策略
C
使⽤随机梯度下降
D
使⽤多组不同的参数值初始化多个神经⽹络
题型:多选题客观题分值5分难度:简单得分:5
2
以下关于深度学习和神经⽹络的描述,正确的是?
A
神经⽹络是⼀种浅层学习
B
⽬前深度学习以神经⽹络为主要模型
C
神经⽹络等同于深度学习
D
神经⽹络可以较好的解决贡献度分配问题(Credit Assignment Problem)
题型:多选题客观题分值5分难度:简单得分:5
3
以下关于感知机模型的说法,错误的是?
A
单层感知机只由单层神经元组成。
B
Sigmoid、tanh、ReLU都是感知机模型中常⻅的激活函数。
C
损失函数是感知机模型优化的⽬标函数,拟合越差损失函数值越⼤。
D
多层感知机由两层神经元组成,分别为输⼊层和输出层。
题型:多选题客观题分值5分难度:一般得分:5
4
以下哪些函数为⾮线性映射函数?
A

B
y = 2x + 5.7
C
y = 2x + 3
D

题型:多选题客观题分值5分难度:较难得分:5
5
相⽐于传统的神经⽹络激活函数Sigmoid函数和tanh函数,使⽤ReLU函数作为激活函数的优 势有哪些()
A
ReLU的单侧抑制提供了⽹络的稀疏表达能⼒,模拟了⼈类⼤脑神经元的实际活动
B
ReLU函数具有连续,可导等⽐较好的数学性质
C
ReLU函数计算简单,并且能加快⽹络的训练速度
D
可以有效缓解梯度消失的问题
题型:多选题客观题分值5分难度:简单得分:5
6
AlphaGo是DeepMind研发的围棋⼈⼯智能系统,2016年以4:1击败韩国选⼿李世乭引起了整 个社会对⼈⼯智能的极⼤关注,下列关于AlphaGo说法正确的是()
A
AlphaGo训练模型过程中通过价值⽹络和策略⽹络选择最优下⼦⽅法
B
AlphaGo的技术不涉及强化学习
C
AlphaGo使⽤蒙特卡罗树搜索提⾼稳定性
D
训练AlphaGo没有⽤到⼈类玩家的棋局数据

0
觉得这篇文章对你有用的话,就打赏一下支持文章作者
课程作业辅导,点击图片加微信,有偿服务

评论0

站点公告

开放大学课程作业代写,有需要扫码加微信

显示验证码

社交账号快速登录