第一章 单元测试
1、单选题:
对西瓜的成熟度进行预测得到结果为0.51,这属于()学习任务。
选项:
A:其余选项都不是
B:分类
C:回归
D:聚类
答案: 【回归】
2、单选题:
在学习过程中,X表示数据集,Y是所有标记的集合,也称为( )。
选项:
A:属性集合
B:样本集合
C:输出空间
D:函数
答案: 【输出空间】
3、单选题:
机器学习算法在学习过程中可能获得多个不同的模型,在解决“什么样的模型更好”这一问题时遵循“若有多个假设与观察一致,则选最简单的那个”,即( )原则。
选项:
A:没有免费的午餐
B:迪米特法则
C:奥卡姆剃刀
D:里氏替换
答案: 【奥卡姆剃刀】
4、单选题:
机器学习是整个人工智能的核心,机器学习算法的特征之一就是( )。
选项:
A:特征
B:数据
C:类别
D:模型
答案: 【模型】
5、单选题:
模型的泛化能力是指
选项:
A:适用于验证集样本的能力
B:适用于测试集样本的能力
C:适用于训练集样本的能力
D:适用于新样本的能力
答案: 【适用于新样本的能力】
6、多选题:
下列关于学习算法的说法正确的是
选项:
A:学习算法必须有某种偏好,才能产出它认为“正确”的模型
B:在某些问题上表现好的学习算法,在另一些问题上却可能不尽人意
C:要谈论算法的相对优劣,必须要针对具体的学习问题
D:学习算法自身的归纳偏好与问题是否相配通常并不起决定性的作用
答案: 【学习算法必须有某种偏好,才能产出它认为“正确”的模型;在某些问题上表现好的学习算法,在另一些问题上却可能不尽人意;要谈论算法的相对优劣,必须要针对具体的学习问题】
7、多选题:
获得假设(模型)空间时,从特殊到一般的过程属于
选项:
A:特化
B:泛化
C:归纳
D:演绎
答案: 【泛化;归纳】
8、多选题:
机器学习可以应用在下列哪些领域()
选项:
A:搜索引擎
B:商业营销
C:自动驾驶汽车
D:天气预报
答案: 【搜索引擎;商业营销;自动驾驶汽车;天气预报】
9、多选题:
根据训练数据是否拥有标记信息,学习任务可以分为()。
选项:
A:监督
B:分类
C:回归
D:聚类
E:半监督
F:无监督
答案: 【监督;半监督;无监督】
10、判断题:
演绎是从一般到特殊的”特化”过程,即从基础原理推演出具体状况
选项:
A:对
B:错
答案: 【对】
11、判断题:
分类预测的是离散值
选项:
A:对
B:错
答案: 【对】
12、判断题:
分类和回归是无监督学习
选项:
A:错
B:对
答案: 【错】
13、判断题:
奥卡姆剃刀原则:即“若有多个假设与观察一致,选最简单的一个”。
选项:
A:对
B:错
答案: 【对】
14、判断题:
实际应用中,“一个模型肯定比另一个模型具有更强的泛化能力”的这种情况是不存在的。
选项:
A:对
B:错
答案: 【对】
15、判断题:
机器学习的目标就是获得与训练集一致的假设。
选项:
A:错
B:对
答案: 【对】
第二章 单元测试
1、判断题:
测试性能随着测试集的变化而变化
选项:
A:错
B:对
答案: 【对】
2、单选题:
以下关于回归的说法中,不正确的是()。
选项:
A:回归的目标属性是离散的
B:回归是根据历史数据拟合以函数将属性集映射到相应的值集
C:回归是一种预测建模任务
D:回归也是一种分类
答案: 【回归的目标属性是离散的】
3、单选题:
下列关于查全率和查准率的说法哪种正确()。
选项:
A:查全率和查准率成反比
B:查全率和查准率成正比
C:好的模型可以做到查全率和查准率都达到100%
D:查全率和查准率存在着互逆关系
答案: 【查全率和查准率存在着互逆关系】
4、单选题:
关于性能比较和模型选择,下列说法正确的是()。
选项:
A:模型的选择可以使用直接选取相应评估方法在相应度量下比较大小的方法
B:测试性能等于网络的泛化性能
C:相同的参数的机器学习算法在同一测试集下多次运行结果相同
D:测试性能随着测试集的变化而变化
答案: 【测试性能随着测试集的变化而变化】
5、单选题:
模型的评估方法不包括()。
选项:
A:自助法
B:计分法
C:交叉验证法
D:留出法
答案: 【计分法】
6、单选题:
模型评估方法中留出法的缺点是()。
选项:
A:在数据集比较大的时候,训练M个模型的计算开销可能是难以忍受的
B:改变了初始数据集的分布,引入估计偏差
C:样本利用率低
D:只能得到一个评估值。
答案: 【只能得到一个评估值。】
7、多选题:
选择模型的依据包括()。
选项:
A:存储开销
B:泛化性能
C:时间开销
D:可解释性
答案: 【存储开销;泛化性能;时间开销;可解释性】
8、多选题:
以下哪些方法可以用于单个学习器性能的比较()。
选项:
A:t-检验
B:McNemar检验
C:Friedman检验
D:二项检验
答案: 【t-检验;二项检验】
9、多选题:
模型的泛化性能由()决定。
选项:
A:学习算法的能力
B:学习任务本身的难度
C:数据集的划分
D:数据的充分性
答案: 【学习算法的能力;学习任务本身的难度;数据的充分性】
10、多选题:
解决过拟合的方案包括()。
选项:
A:为模型添加其他特征项
B:增加模型参数,调高模型复杂度
C:引入正则项
D:选择合适的迭代次数停止模型的学习
答案: 【引入正则项;选择合适的迭代次数停止模型的学习】
11、多选题:
以下哪些是可能导致模型过拟合的原因()
选项:
A:模型学习到了样本的一般性质
B:学习迭代次数过多
C:训练集数量级和模型复杂度不匹配,训练集的数量级小于模型的复杂度
D:训练集和测试集特征分布不一致
答案: 【学习迭代次数过多;训练集数量级和模型复杂度不匹配,训练集的数量级小于模型的复杂度;训练集和测试集特征分布不一致】
12、判断题:
过拟合不可以彻底避免。
选项:
A:对
B:错
答案: 【对】
13、判断题:
回归任务最常用的性能度量是“查准率和查全率”
选项:
A:错
B:对
答案: 【错】
14、判断题:
训练数据较少时更容易发生欠拟合
选项:
A:对
B:错
答案: 【对】
15、判断题:
方差度量了学习算法期望预测与真实结果的偏离程度
选项:
A:错
B:对
答案: 【错】
第三章 单元测试
1、单选题:
线性回归目的是学得一个()以尽可能准确地预测实值输出标记
选项:
A:指数模型
B:对数模型
C:线性模型
D:多项式模型
答案:
2、单选题:
线性回归模型中,联系函数g(∙)为对数几率函数ln(y/(1-y))时,该线性模型成为()
选项:
A:曲线线性回归
B:对数线性回归
C:对数几率回归
D:指数线性回归
答案:
3、单选题:
线性判别分析可通过该投影减小样本点的维数,且投影过程中使用了类别信息。因此,线性判别分析也常被视为一种经典的()
选项:
A:监督降维技术
B:监督分类技术
C:降维技术
D:分类技术
答案:
4、多选题:
解决类别不平衡的方法包括()
选项:
A:去除正例样本
B:过采样
C:阈值移动
D:欠采样
答案:
5、判断题:
在线性模型的基础上,引入层级结构或高维映射,构成非线性模型。因此,非线性模型可以转换为线性模型。
选项:
A:对
B:错
答案:
6、判断题:
线性判别分析(LDA)设法将样例投影到一条直线上,使得同类样例的投影点尽可能接近
选项:
A:错
B:对
答案:
7、判断题:
分类学习任务中,若不同类别的训练样本数目差别很大时,对学习过程没有明显影响
选项:
A:错
B:对
答案:
8、判断题:
线性模型学得的参数ω直观地表达了各属性在预测中的重要性,因此,该模型具有较好的可解释性。
选项:
A:错
B:对
答案:
9、判断题:
线性判别分析在对新样例进行分类时,将其投影到曲线上,再根据投影点的位置来确定新样本的类别。
选项:
A:错
B:对
答案:
10、判断题:
基于均方误差最小化来进行模型求解的方法,称为“最小二乘法”。
选项:
A:错
B:对
答案:
11、判断题:
线性判别分析模型中,同类样本的投影点尽可能近,即同类样本的协方差尽可能小
选项:
A:对
B:错
答案:
12、判断题:
在分类学习任务中,可以增加一些正例解决类别不平衡问题
选项:
A:错
B:对
答案:
13、判断题:
线性回归目的是学得多项式模型以尽可能准确地预测实值输出标记。
选项:
A:对
B:错
答案:
14、判断题:
单一属性的线性回归目标函数为f(x)=ωx+b 使得 min(f(x)–y)2
选项:
A:对
B:错
答案:
15、判断题:
常用的广义线性回归有单位跃阶函数、对数线性回归、对数几率回归
选项:
A:错
B:对
答案:
第四章 单元测试
1、单选题:
在属性划分中,信息增益越大,结点的纯度()
选项:
A:不变
B:降低越快
C:提升越大
D:变为零
答案:
2、单选题:
决策树算法的泛化性能提升,则验证集精度()
选项:
A:降为零
B:不变
C:降低
D:提高
答案:
3、单选题:
多变量决策树中的非叶子节点是对()属性的线性组合进行测试。
选项:
A:零个
B:所有
C:一个
D:若干个
答案:
4、多选题:
决策树的结点包含()
选项:
A:根结点
B:内部结点
C:结点
D:叶结点
答案:
5、判断题:
决策树学习算法中,预留一部分数据用作“验证集”,进行性能评估,决定是否剪枝。
选项:
A:错
B:对
答案:
6、判断题:
决策树模型中,随着划分过程不断进行,我们希望结点的“纯度”越来越小。
选项:
A:对
B:错
答案:
7、判断题:
决策树学习的目的是为了产生一棵泛化能力强,即处理未见示例能力强的决策树
选项:
A:对
B:错
答案:
8、判断题:
决策树学习算法中,属性a的信息增益越大,则使用该属性进行划分所获得的“纯度提升”越大。
选项:
A:对
B:错
答案:
9、判断题:
决策树学习算法中,随着划分过程不断进行,我们希望决策树的分支结点所包含的样本尽可能属于不同类别。
选项:
A:对
B:错
答案:
10、判断题:
基尼指数,反映了从D中随机抽取两个样本,其类别标记一致的概率
选项:
A:错
B:对
答案:
11、判断题:
预剪枝策略降低了过拟合风险。
选项:
A:错
B:对
答案:
12、判断题:
基尼值可以度量样本集合的纯度。
选项:
A:对
B:错
答案:
13、判断题:
现实学习任务中,常会遇到连续属性,其可取值数目不再有限,可以使用离散化技术将连续属性转化为离散属性
选项:
A:对
B:错
答案:
14、判断题:
剪枝策略是对付“过拟合”的主要手段,即可通过主动去掉一些分支来降低过拟合的风险。
选项:
A:对
B:错
答案:
第五章 单元测试
1、判断题:
若两类模式是线性可分的,即存在一个线性超平面能将它们分开,则感知机的学习过程一定会收敛。
选项:
A:对
B:错
答案:
2、判断题:
多隐层感知机比单隐层感知机的表达能力强
选项:
A:错
B:对
答案:
3、判断题:
误差逆传播算法是迄今最成功的神经网络学习算法。
选项:
A:对
B:错
答案:
4、判断题:
基于梯度的搜索是使用最广泛的参数寻优方法,若误差函数在当前点的梯度为零,则已达到全局最小。
选项:
A:对
B:错
答案:
5、单选题:
多层感知机表示异或逻辑时最少需要( )个隐含层(仅考虑二元输入)
选项:
A:4
B:2
C:3
D:1
答案:
6、单选题:
BP算法基于()策略对参数进行调整
选项:
A:梯度下降
B:梯度上升
C:最小化误差
D:误差逆传播
答案:
7、单选题:
BP神经网络由于其强大的表示能力,经常遭遇()问题,即训练误差持续下降,但测试误差却可能上升。
选项:
A:欠拟合
B:过拟合
C:梯度消失
D:不收敛
答案:
8、多选题:
在现实任务中,人们常采用以下策略来试图跳出局部极小,进而接近全局最小
选项:
A:遗传算法
B:梯度下降
C:随机梯度下降
D:模拟退火
答案:
9、判断题:
神经网络中的激活函数可以采用线性函数
选项:
A:错
B:对
答案:
10、判断题:
只拥有一层功能神经元(能进行激活函数处理)的感知机学习能力依然很强,能解决异或这样的非线性可分问题。
选项:
A:错
B:对
答案:
第六章 单元测试
1、单选题:
线性可分支持向量机是一种()模型
选项:
A:逻辑回归
B:多分类
C:二分类
D:线性回归
答案:
2、单选题:
支持向量机的学习策略是()
选项:
A:间隔最小
B:训练误差最小
C:间隔最大
D:测试误差最小
答案:
3、单选题:
支持向量机的求解通常采用()来求解
选项:
A:最小误差法
B:最大间隔法
C:线性规划算法
D:二次规划算法
答案:
4、多选题:
当训练样本线性不可分时可采用()来缓解和解决
选项:
A:训练误差最小
B:核函数
C:测试误差最小
D:软间隔
答案:
5、判断题:
为了更好地解决线性不可分问题,我们常常需要扩大可选函数的范围。
选项:
A:错
B:对
答案:
6、判断题:
支持向量机的经验风险描述了模型的某些性质
选项:
A:错
B:对
答案:
7、判断题:
在空间上线性可分的两类点,分别向SVM分类的超平面上做投影,这些点在超平面上的投影仍然是线性可分的
选项:
A:对
B:错
答案:
8、判断题:
引入软间隔是为了允许支持向量机在一些样本上出错。
选项:
A:对
B:错
答案:
9、判断题:
核函数的引入是将原始空间中不可分的训练样本映射到高维的特征空间后变得可分。
选项:
A:错
B:对
答案:
10、判断题:
训练样本集越大,SVM的分类结果越好
选项:
A:对
B:错
答案:
第七章 单元测试
1、判断题:
在样本X上的条件风险是指将一个真实标记为Cj的样本x分类为ci所产生的期望损失。
选项:
A:对
B:错
答案:
2、判断题:
极大似然估计是试图在θc所有可能的取值中,找到一个能使数据出现的“可能性”的最大的值。
选项:
A:对
B:错
答案:
3、判断题:
拉普拉斯修正没能避免因训练集样本不充分而导致概率估值为0的问题。
选项:
A:对
B:错
答案:
4、判断题:
贝叶斯网学习的首要任务就是通过对训练样本“计数”,估计出每个结点的条件概率表。
选项:
A:对
B:错
答案:
5、判断题:
通过已知变量观测值来推测待推测查询变量的过程称为“推断”
选项:
A:错
B:对
答案:
6、判断题:
贝叶斯网的近似推断常使用吉布斯采样(Gibbs sampling)来完成,吉布斯采样可以看做,每一步仅依赖于前一步的状态,这是一个“马尔可夫链”。
选项:
A:错
B:对
答案:
7、单选题:
对分类任务来说,在所有相关概率都已知的理想情况下,()考虑如何基于这些概率和误判损失来选择最优的类别标记。
选项:
A:支持向量机
B:聚类
C:决策树
D:贝叶斯决策论
答案:
8、单选题:
朴素贝叶斯分类器假设所有属性相互独立,其训练过程就成了基于训练集D来估计类先验概率P(c),并估计()。
选项:
A:概率P(x)
B:每个属性的条件概率P(xi|c)
C:条件概率P(x|c)
答案:
9、单选题:
为了适当考虑一部分属性间的相互依赖信息,从而不需要进行完全联合概率计算,又不至于彻底忽略了比较强的熟悉依赖关系,这种分类器是()。
选项:
A:朴素贝叶斯分类器
B:贝叶斯网
C:EM算法
D:半朴素贝叶斯分类器
答案:
10、单选题:
一个贝叶斯网由结构和参数两部分组成,结构是一个(),每个节点对应个属性,若两属性有直接依赖关系,则它们由一条边连接起来,参数定量描述这种依赖关系。
选项:
A:有向图
B:有向无环图
C:无向无环图
D:无向图
答案:
第八章 单元测试
1、判断题:
Boosting,个体学习器存在强依赖关系,逐个生成基学习器,每次调整训练数据的样本分布
选项:
A:错
B:对
答案:
2、判断题:
加权平均法的权重,一般是从训练数据中学习而得,规模比较大的集成,要学习的权重比较多,较容易导致欠拟合。
选项:
A:对
B:错
答案:
3、判断题:
分歧代表了个体学习器在样本x上的不一致性。
选项:
A:对
B:错
答案:
4、单选题:
假设集成通过()结合T个分类器,若有超过半数的基分类器正确则分类就正确。
选项:
A:简单平均法
B:学习法
C:简单投票法
D:加权投票法
答案:
5、单选题:
Boosting 算法关注降低偏差,可对泛化性能()的学习器,构造出很()的集成。
选项:
A:相对强,强
B:相对弱,强
C:相对弱,弱
D:相对强,弱
答案:
6、单选题:
Bagging是并行式集成学习的最著名的代表,给定训练数据集,采用( )方法采样数据。
选项:
A:留出法
B:交叉验证法
C:自主采样
答案:
7、单选题:
若同时有多个标记获最高票,则从中随机选取一个,该结合策略是()。
选项:
A:相对多数投票法
B:绝对多数投票法
C:简单平均法
D:加权投票法
答案:
8、单选题:
对基决策树的每个结点,首先,从该结点的属性集合中,随机选择一个包含k个属性的子集。然后,从这个子集中,选择一个最优属性,用于划分。该方法是()。
选项:
A:AdaBoost
B:Boosting方法
C:传统决策树
D:随机森林
答案:
9、单选题:
随机改变一些训练样本的标记;将多分类任务,拆解为一系列二分类任务,来训练基学习器,这属于()。
选项:
A:输入属性扰动
B:输出表示扰动
C:数据样本扰动
D:算法参数扰动
答案:
10、多选题:
要获得好的集成,个体学习器应满足()。
选项:
A:学习器不需要太好
B:学习器不能太差
C:学习器应该不同
D:学习器应该相同
答案:
第九章 单元测试
1、单选题:
无监督学习是指训练样本的标记信息是(),目标是通过对()标记训练样本的学习来揭示数据内在的性质及规律,为进一步的数据分析提供基础
选项:
A:未知,无
B:已知,有
C:部分未知,部分无
D:部分已知, 部分有
答案:
2、单选题:
常用的聚类距离计算采用()。
选项:
A:流形距离
B:余弦距离
C:马氏距离
D:闵可夫斯基
答案:
3、单选题:
懒惰学习是指在训练阶段(),训练时间开销为零,待收到测试样本后再进行处理。
选项:
A:对训练样本进行学习
B:改变训练样本
C:对训练样本不进行操作
D:对训练样本进行保存
答案:
4、多选题:
聚类的基本目标是()
选项:
A:簇间相似度高
B:簇内相似度高
C:簇间相似度低
D:簇内相似度低
答案:
5、判断题:
聚类性能度量大致有两类指标:外部指标和内部指标。
选项:
A:对
B:错
答案:
6、判断题:
常见的原型聚类方法:K 均值聚类、学习向量量化和密度聚类。
选项:
A:对
B:错
答案:
7、判断题:
在训练阶段就对样本进行学习处理的方法是急切学习。
选项:
A:错
B:对
答案:
8、判断题:
层次聚类试图在不同层次对数据及进行划分,从而形成树形的聚类结构。
选项:
A:对
B:错
答案:
9、判断题:
无监督学习任务中研究最多、应用最广的是“分类”。
选项:
A:错
B:对
答案:
10、判断题:
常用的聚类距离计算采用“余弦相似度距离”
选项:
A:对
B:错
答案:
第十章 单元测试
1、单选题:
局部线性嵌入在降维时试图保持邻域内样本之间的线性关系。
选项:
A:样本之间的距离
B:相邻样本之间的线性关系
C:相邻样本之间的距离
D:样本之间的线性关系
答案:
2、单选题:
缓解维数灾难的操作是()
选项:
A:降维
B:流型处理
C:升维
D:低维嵌入
答案:
3、单选题:
距离等度量映射是在降维时试图保持()
选项:
A:样本之间的线性关系
B:相邻样本之间的距离
C:相邻样本之间的线性关系
D:样本之间的距离
答案:
4、单选题:
流形学习中的流形是指在局部与欧式空间同胚的空间,即()
选项:
A:在局部有欧式和流形空间的形式
B:在局部有欧式空间的性质
C:在局部具有流行空间的性质
D:在局部有欧式或者流形空间其中之一的性质。
答案:
5、多选题:
PCA方法满足的重要性质是()
选项:
A:最大重构性
B:最近重构性
C:最近可分性
D:最大可分性
答案:
6、判断题:
K近邻学习是急切学习的著名代表。
选项:
A:对
B:错
答案:
7、判断题:
k近邻分类器没有被广泛使用的原因是其泛化错误率不超过贝叶斯最有分类器错误率的两倍。
选项:
A:错
B:对
答案:
8、判断题:
在高维情形下出现的数据样本稀疏、距离计算困难等问题是所有机器学期方法共同面临的严重障碍,被称为维数灾难,
选项:
A:错
B:对
答案:
9、判断题:
主成分分析是最常用的一种降维方法。
选项:
A:对
B:错
答案:
10、判断题:
PCA方法满足的重要性质是:最大重构性和最近可分性。
选项:
A:对
B:错
答案:
请先
!