试题列表
单选题
题型:单选题客观题分值4分难度:一般得分:4
1
在Q-Learning中,所谓的Q函数是指()
A
状态值函数
B
策略函数
C
状态-动作值函数
D
奖励函数
学生答案:C
老师点评:
题型:单选题客观题分值4分难度:一般得分:4
2
在如下GRU结构中,隐藏单元 的计算⽅法是?
A
B
C
D
学生答案:B
老师点评:
题型:单选题客观题分值4分难度:一般得分:4
3
下图是⼀个简单的⻢尔可夫过程,以下选项中对该过程描述错误的是()
A
下⾬的概率⽐天⽓晴朗的概率⼤
B
⽆论是晴天还是⾬天,保持当前状态的概率都⽐相互转化的概率要⼤
C
下⾬天去散步的概率和晴天打扫房屋的概率⼀样⼤
D
与刚下⾬时相⽐,下⾬⼀⼩时后天⽓放晴的概率更⼤
学生答案:D
老师点评:
题型:单选题客观题分值4分难度:一般得分:4
4
下列端到端的⽹络结构中,表示Decoder过程的是?
A
都不是
B
B
C
A
D
C
学生答案:D
老师点评:
题型:单选题客观题分值4分难度:简单得分:4
5
RNN在⾃然语⾔处理领域中被⼴泛应⽤,下⾯⼀句话中:我的⼿机坏了,我打算_______⼀部新⼿机。如果想要预测横线中⽂字的内容,最合适使⽤下列哪个模型()
A
LSTM
B
GRU
C
基本循环神经⽹络
D
双向循环神经⽹络
学生答案:D
老师点评:
题型:单选题客观题分值4分难度:简单得分:4
6
下列关于W-GAN的论述,错误的是( )
A
W-GAN中可以直接求解Wasserstein距离
B
W-GAN模型使⽤Wasserstein距离替代JS距离
C
W-GAN可以避免传统GAN中存在的梯度消失问题
D
W-GAN保证了⽣成样本的多样性
题型:单选题客观题分值4分难度:一般得分:4
7
有如下LSTM结构图,下列选项中哪⼀项是计算遗忘⻔?
A
B
C
D
题型:单选题客观题分值4分难度:一般得分:4
8
⽣成对抗⽹络(GAN)是⼀个具有开创意义的深度⽣成模型,关于GAN下列说法错误的是( )
A
GAN中⽣成器与判别器的训练⽬标正好相反
B
GAN的训练过程稳定
C
在GAN的训练过程中,需要平衡判别器与⽣成器两者的能⼒
D
判别器的⽬的是判断⼀个样本是⽣成器产⽣的还是真实样本
题型:单选题客观题分值4分难度:一般得分:4
9
PyTorch中的基本数据结构为?
A
dataframe
B
tensor
C
ndarray
D
torch
题型:单选题客观题分值4分难度:一般得分:4
10
下图有两个翻译模型A和B,其中⽤到attention机制的模型是?
A
A和B都不是
B
A
C
B
D
A和B都是
题型:单选题客观题分值4分难度:一般得分:4
11
下列关于⻢尔可夫决策过程的叙述,错误的是()
A
⻢尔可夫决策过程的主要元素包括所有状态的集合,所有动作的集合,转移概率算⼦以及奖励函 数
B
许多强化学习问题都可以转化为⻢尓可夫决策过程来描述
C
⻢尔可夫决策过程综合了过去所有的动作来决定下⼀时刻的动作
D
⻢尔可夫决策过程的⽬标是得到回报的期望最⼤
题型:单选题客观题分值4分难度:一般得分:4
12
下列关于状态值函数vπ(s)和动作值函数qπ(s, a)的叙述,说法正确的是()
A
给定初始状态s时,状态值函数可以使⽤动作值函数表示,即vπ(s) = Ea(qπ(s, a))
B
状态值函数vπ(s)表示从状态s出发,执⾏动作a后再使⽤策略π带来的回报期望
C
最优值函数v∗ (s) 与最优状态值函数 q∗(s, a)的值相同
D
动作值函数qπ(s, a)表示从状态s出发,使⽤策略π带来的回报期望
题型:单选题客观题分值4分难度:一般得分:4
13
强化学习⼤体上可以分为基于值函数的⽅法和基于策略函数的⽅法,则下列说法中错误的是 ( )
A
基于值函数的⽅法策略更新时可能会导致值函数的改变⽐较⼤ ,影响收敛性
B
基于值函数的⽅法容易收敛到局部最优解
C
基于策略函数的⽅法在策略更新时会更加平稳
D
Actor-Critic算法融合了基于值函数和策略函数两种⽅法,收敛性更好
多选题
题型:多选题客观题分值4分难度:一般得分:4
1
为解决序列模型⻓期依赖的问题,经常使⽤的结构有?
A
AutoEncoder
B
Pixel RNN
C
LSTM
D
GRU
题型:多选题客观题分值4分难度:一般得分:4
2
注意⼒模型⼴泛应⽤于下列的哪些任务中()
A
⽂本翻译
B
图⽚描述
C
语⾳识别
D
视觉问答
题型:多选题客观题分值4分难度:一般得分:
3
下列哪些是⾃编码器的应⽤场景( )
A
机器翻译
B
数据降噪
C
语⾳识别
D
特征学习
题型:多选题客观题分值4分难度:一般得分:4
4
下列选项中哪些是基于能量模型(Energy Based Model, EBM)的实际应⽤( )
A
⼈脸识别
B
图⽚修复
C
⼈脸检测
D
⾃然语⾔处理
题型:多选题客观题分值4分难度:一般得分:4
5
与AlphaGo相⽐,AlphaGo Zero的改进主要体现在()
A
引⼊残差⽹络ResNet,代替⼈⼯提取特征
B
放弃使⽤⼈类玩家数据
C
使⽤蒙特卡洛树搜索(MCTS)选择落⼦点
D
将有监督学习与增强学习相结合
题型:多选题客观题分值4分难度:一般得分:4
6
下列关于强化学习与监督学习的论述,说法正确的是( )
A
强化学习和监督学习是两种完全不同的学习⽅式,彼此之间⽆法构成联系
B
强化学习任务的⽬的是找到能使⻓期累积奖励最⼤化的策略
C
强化学习中的“策略”实际上就相当于监督学习中的“分类器”或“回归器”
D
监督学习有标记样本,强化学习没有标记样本
题型:多选题客观题分值4分难度:一般得分:4
7
关于⼀个优秀的深度学习框架的特点,下列说法正确的是?
A
良好的社区⽀持
B
⽅便构建⼤型计算图
C
⽅便对计算图中节点的梯度进⾏计算
D
可以⾼效地在GPU上运⾏
题型:多选题客观题分值4分难度:一般得分:4
8
下列有关CPU和GPU的叙述,正确的是?
A
GPU适⽤于超⼤矩阵的计
B
CPU基于低延时的设计,使每条指令所需执⾏时间更少
C
GPU基于⼤吞吐量的设计,通过⼤量线程并⾏,使得同时执⾏⼀条指令的数据变多
D
CPU功耗⼩,所以更适合深度学习领域
题型:多选题客观题分值4分难度:一般得分:4
9
下列关于受限玻尔兹曼机(RBM)的描述,正确的是( )
A
RBM可以作为构建深度神经⽹络的组件
B
RBM中从可⻅层到隐藏层使⽤的是Sigmoid激活函数
C
RBM是基于能量的模型
D
RBM相较于BM⽽⾔,⽹络结构更加复杂
题型:多选题客观题分值4分难度:一般得分:4
10
下列选项中属于DQN的改进的是()
A
Experience Replay打破数据相关性
B
⽤两个神经⽹络分别近似值函数和策略函数
C
Target Network保证稳定性
D
把Q-Network分为独⽴于动作的值函数、依赖于动作的Advantage函数两个通道
题型:多选题客观题分值4分难度:一般得分:4
11
下列关于变分⾃编码器(VAE)的叙述,正确的是( )
A
VAE与⼀般的⾃编码器原理相似
B
推断⽹络的⽬标是使变分分布尽可能接近真实的后验分布
C
VAE的结构包括推断⽹络(编码器)和⽣成⽹络(解码器)
D
VAE中的编码器与解码器的输出是确定的编码
题型:多选题客观题分值4分难度:一般得分:4
12
在有监督学习中,机器学习模型可以被分为判别式模型和⽣成式模型,下列属于⽣成式模型 的有( )
A
⽀持向量机
B
逻辑回归
C
隐⻢尔可夫模型
D
朴素⻉叶斯
江开江苏开放大学神经网络与深度学习形成性考核作业三最新答案
随机题搜索:
觉得这篇文章对你有用的话,就打赏一下支持文章作者
评论0