20春学期(1709、1803、1809、1903、1909、2003)《数据科学导论》在线作业
关注 超前自学网 公众号 获取答案
单层感知机是由()层神经元组成。
A:一
B:二
C:三
D:四
多层感知机是由()层神经元组成。
A:二
B:三
C:大于等于二层
D:大于等于三层
在k近邻法中,选择较小的k值时,学习的“近似误差”会(),“估计误差”会()。
A:减小,减小
B:减小,增大
C:增大,减小
D:增大,增大
通过变量标准化计算得到的回归方程称为()。
A:标准化回归方程
B:标准化偏回归方程
C:标准化自回归方程
D:标准化多回归方程
设X={1,2,3}是频繁项集,则可由X产生()个关联规则。
A:4
B:5
C:6
D:7
维克托?迈尔-舍恩伯格在《大数据时代:生活、工作与思维的大变革》一书中,持续强调了一个观点:大数据时代的到来,使我们无法人为地去发现数据中的奥妙,与此同时,我们更应该注重数据中的相关关系,而不是因果关系。其中,数据之间的相关关系可以通过以下哪个算法直接挖掘( )
A:K-means
B:Bayes Network
C:C4.5
D:Apriori
置信度(confidence)是衡量兴趣度度量( )的指标。
A:简洁性
B:确定性
C:实用性
D:新颖性
以下哪一项不属于数据变换()
A:简单函数变换
B:规范化
C:属性合并
D:连续属性离散化
某超市研究销售纪录数据后发现,买啤酒的人很大概率也会购买尿布,这种属于数据挖掘的哪类问题?()
A:关联规则发现
B:聚类
C:分类
D:自然语言处理
实体识别属于以下哪个过程()
A:数据清洗
B:数据集成
C:数据规约
D:数据变换
Apriori算法的加速过程依赖于以下哪个策略( )
A:抽样
B:剪枝
C:缓冲
D:并行
手肘法的核心指标是()。
A:SES
B:SSE
C:RMSE
D:MSE
考虑下面的频繁3-项集的集合:{1,2,3},{1,2,4},{1,2,5},{1,3,4},{1,3,5},{2,3,4},{2,3,5},{3,4,5}假定数据集中只有5个项,采用 合并策略,由候选产生过程得到4-项集不包含()
A:1,2,3,4
B:1,2,3,5
C:1,2,4,5
D:1,3,4,5
层次聚类对给定的数据进行()的分解。
A:聚合
B:层次
C:分拆
D:复制
层次聚类适合规模较()的数据集
A:大
B:中
C:小
D:所有
通过构造新的指标-线损率,当超出线损率的正常范围, 则可以判断这条线路的用户可能存在窃漏电等异常行为属于数据变换中的()
A:简单函数变换
B:规范化
C:属性构造
D:连续属性离散化
BFR聚类是用于处理数据集()的k-means变体。
A:大
B:中
C:小
D:所有
为了解决任何复杂的分类问题,使用的感知机结构应至少包含()个隐含层。
A:1
B:2
C:3
D:4
对于k近邻法,下列说法错误的是()。
A:不具有显式的学习过程
B:适用于多分类任务
C:k值越大,分类效果越好
D:通常采用多数表决的分类决策规则
在回归分析中,自变量为(),因变量为()。
A:离散型变量,离散型变量
B:连续型变量,离散型变量
C:离散型变量,连续型变量
D:连续型变量,连续型变量
数据科学具有哪些性质()
A:有效性
B:可用性
C:未预料
D:可理解
下列选项是BFR的对象是()
A:废弃集
B:临时集
C:压缩集
D:留存集
多层感知机的学习过程包含()。
A:信号的正向传播
B:信号的反向传播
C:误差的正向传播
D:误差的反向传播
Apriori算法的计算复杂度受()影响。
A:支持度阈值
B:项数
C:事务数
D:事务平均宽度
距离度量中的距离可以是()
A:欧式距离
B:曼哈顿距离
C:Lp距离
D:Minkowski距离
什么情况下结点不用划分()
A:当前结点所包含的样本全属于同一类别
B:当前属性集为空,或是所有样本在所有属性上取值相同
C:当前结点包含的样本集为空
D:还有子集不能被基本正确分类
K-means聚类中K值选取的方法是()。
A:密度分类法
B:手肘法
C:大腿法
D:随机选取
对于多层感知机,()层拥有激活函数的功能神经元。
A:输入层
B:隐含层
C:输出层
相关性的分类,按照相关的方向可以分为()。
A:正相关
B:负相关
C:左相关
D:右相关
聚类的主要方法有()。
A:划分聚类
B:层次聚类
C:密度聚类
D:距离聚类
利用K近邻法进行分类时,k值过小容易发生过拟合现象。
A:对
B:错
Apriori算法是一种典型的关联规则挖掘算法。
A:对
B:错
贝叶斯定理是概率论中的一个结果,它与随机变量的条件概率以及联合概率分布 有关。
A:对
B:错
可信度是对关联规则的准确度的衡量。
A:对
B:错
利用K近邻法进行分类时,使用不同的距离度量所确定的最近邻点都是相同的。
A:对
B:错
k值增大意味着整体模型变得复杂。
A:对
B:错
获取数据为数据分析提供了素材和依据,这里的数据只包括直接获取的数据。
A:对
B:错
决策树还可以表示给定特征条件下类的条件概率分布,这一概率分布定义在特征空间的一个划分上,将特征空间分为互不相交的单元或区域,并在每个单元定义一个类的概率分布就构成了一个条件概率分布
A:对
B:错
探索性数据分析的特点是研究从原始数据入手,完全以实际数据为依据。
A:对
B:错
当特征为离散型时,可以使用信息增益作为评价统计量。
A:对
B:错
信息熵越大,数据信息的不确定性越小。
A:对
B:错
决策树内部结点表示一个类,叶结点表示一个特征或属性
A:对
B:错
给定一个数据集,如果存在某个超平面S能够将数据集的部分正实例点和负实例点正确的划分到超平面的两侧,则称该数据集是线性可分数据集。
A:对
B:错
不满足给定评价度量的关联规则是无趣的。
A:对
B:错
集中趋势能够表明在一定条件下数据的独特性质与差异
A:对
B:错
随着特征维数的增加,样本间区分度提高。
A:对
B:错
多元线性回归模型中,标准化偏回归系数没有单位。
A:对
B:错
交叉表被广泛用于调查研究,商业智能,工程和科学研究
A:对
B:错
具有双隐层的感知机足以用于解决任何复杂的分类问题。
A:对
B:错
标准BP算法是在读取全部数据集后,对参数进行统一更新的算法。
A:对
B:错