奥鹏易百

 找回密码
 立即注册

扫一扫,访问微社区

QQ登录

只需一步,快速开始

帮助中心知识拓展客服QQ 515224986
查看: 363|回复: 0

南开19秋学期(1709、1803、1809、1903、1909)《数据科学导论》在线作业(随机)

[复制链接]

1万

主题

4

回帖

2万

积分

论坛元老

积分
28638
发表于 2019-9-20 13:22:16 | 显示全部楼层 |阅读模式
扫码加微信
南开大学19秋学期(1709、1803、1809、1903、1909)《数据科学导论》在线作业(100分)
试卷名称19秋学期(1709、1803、1809、1903、1909)《数据科学导论》在线作业0002

南开作业答案
奥鹏南开大学作业
1.在回归分析中自变量为()因变量为()。
A.离散型变量,离散型变量
B.连续型变量,离散型变量
C.离散型变量,连续型变量
D.连续型变量,连续型变量
答案
2.Apriori算法的加速过程依赖于以下哪个策略()
A.抽样
B.剪枝
C.缓冲
D.并行
答案
3.通过构造新的指标线损率当超出线损率的正常范围则可以判断这条线路的用户可能存在窃漏电等异常行为属于数据变换中的()
A.简单函数变换
B.规范化
C.属性构造
D.连续属性离散化
答案
4.单层感知机模型属于()模型。
A.二分类的线性分类模型
B.二分类的非线性分类模型
C.多分类的线性分类模型
D.多分类的非线性分类模型    奥鹏在线作业答案
奥鹏南开大学作业
答案
5.聚类是一种()。
A.有监督学习
B.无监督学习
C.强化学习
D.半监督学习
答案
6.以下属于关联分析的是()
A.CPU性能预测
B.购物篮分析
C.自动判断鸢尾花类别
D.股票趋势建模
答案
7.在一元线性回归模型中残差项服从()分布。
A.泊松
B.正态
C.线性
D.非线性
答案
8.变量之间的关系一般可以分为确定性关系与()。
A.非确定性关系
B.线性关系
C.函数关系
D.相关关系
答案
9.具有偏差和至少()个S型隐含层加上一个()输出层的网络能够逼近任何有理数。
A.1线性
B.2线性
C.1非线性
D.2非线性
答案
10.我们需要对已生成的树()进行剪枝将树变得简单从而使它具有更好的泛化能力。
A.自上而下
B.自下而上
C.自左而右
D.自右而左
答案
11.比如一张表从业务上讲一个用户应该只会有一条记录那么如果某个用户出现了超过一条的记录这就产生了()
A.异常值
B.不一致的值
C.重复值
D.缺失值
答案
12.实体识别的常见形式()
A.同名异义
B.异名同义
C.单位不统一
D.属性不同
答案
13.单层感知机拥有()层功能神经元。
A.一
B.二
C.三
D.四
答案
14.多层感知机是由()层神经元组成。
A.二
B.三
C.大于等于二层
D.大于等于三层
答案
15.下列两个变量之间的关系中哪个是函数关系()。
A.人的性别和他的身高
B.人的工资与年龄
C.正方形的面积和边长
D.温度与湿度
答案
16.单层感知机是由()层神经元组成。
A.一
B.二
C.三
D.四
答案
17.维克托?迈尔舍恩伯格在《大数据时代生活、工作与思维的大变革》一书中持续强调了一个观点大数据时代的到来使我们无法人为地去发现数据中的奥妙与此同时我们更应该注重数据中的相关关系而不是因果关系。其中数据之间的相关关系可以通过以下哪个算法直接挖掘()
A.Kmeans
B.BayesNetwork
C.C4.5
D.Apriori
答案
18.哪一项不属于规范化的方法()
A.最小最大规范化
B.零均值规范化
C.小数定标规范化
D.中位数规范化
答案
19.Kmeans聚类适用的数据类型是()。
A.数值型数据
B.字符型数据
C.语音数据
D.所有数据
答案
20.为了解决任何复杂的分类问题使用的感知机结构应至少包含()个隐含层。
A.1
B.2
C.3
D.4
答案
1.距离度量中的距离可以是()
A.欧式距离
B.曼哈顿距离
C.Lp距离
D.Minkowski距离
答案
2.Apriori算法的计算复杂度受()影响。
A.支持度阈值
B.项数
C.事务数
D.事务平均宽度
答案
3.什么情况下结点不用划分()
A.当前结点所包含的样本全属于同一类别
B.当前属性集为空,或是所有样本在所有属性上取值相同
C.当前结点包含的样本集为空
D.还有子集不能被基本正确分类
答案
4.下面例子属于分类的是()
A.检测图像中是否有人脸出现
B.对客户按照贷款风险大小进行分类
C.识别手写的数字
D.估计商场客流量
答案
5.关联规则的评价度量主要有)。
A.支持度
B.置信度
C.准确率
D.错误率
答案
6.多层感知机的学习过程包含()。
A.信号的正向传播
B.信号的反向传播
C.误差的正向传播
D.误差的反向传播
答案
7.k近邻法的基本要素包括()。
A.距离度量
B.k值的选择
C.样本大小
D.分类决策规则
答案
8.Kmeans聚类中K值选取的方法是()。
A.密度分类法
B.手肘法
C.大腿法
D.随机选取
答案
9.层次聚类的方法是()
A.聚合方法
B.分拆方法
C.组合方法
D.比较方法
答案
10.相关性的分类按照相关的方向可以分为()。
A.正相关
B.负相关
C.左相关
D.右相关
答案
1.啤酒与尿布的故事是聚类分析的典型实例。
T.对
F.错
答案
2.利用K近邻法进行分类时使用不同的距离度量所确定的最近邻点都是相同的。
T.对
F.错
答案
3.数据分析师的任务用模型来回答具体问题了解数据其来源和结构
T.对
F.错
答案
4.平均减少的不纯度越大则特征重要度越高。
T.对
F.错
答案
5.多元线性回归模型中标准化偏回归系数没有单位。
T.对
F.错
答案
6.相关性分析主要是分析个别独立变量之间线性相关程度的强弱并用适当的统计指标表示出来的过程。
T.对
F.错
答案
7.随着特征维数的增加特征空间呈指数倍增长样本密度急剧减小样本稀疏。
T.对
F.错
答案
8.获取数据为数据分析提供了素材和依据这里的数据只包括直接获取的数据。
T.对
F.错
答案
9.利用K近邻法进行分类时k值过小容易发生过拟合现象。
T.对
F.错
答案
10.Apriori算法是一种典型的关联规则挖掘算法。
T.对
F.错
答案
11.两个对象越相似他们的相异度就越高。
T.对
F.错
答案
12.选择较小的k值相当于用较小的邻域中的训练实例进行预测学习的“近似误差”会减小“估计误差”会增大预测结果会对近邻的点实例点非常敏感。
T.对
F.错
答案
13.K均值(KMeans)算法是密度聚类。
T.对
F.错
答案
14.EDA可以最大化数据分析者对数据集和数据集底层结构的洞察力并且为分析者提供数据集中包含的各类信息。
T.对
F.错
答案
15.一般而言信息增益越大则意味着使用属性a来进行划分所获得的“纯度提升越大”因此我们可用信息增益来进行决策树的最优特征选择。
T.对
F.错
答案
16.使用SVD方法进行图像压缩不可以保留图像的重要特征。
T.对
F.错
答案
17.随着特征维数的增加样本间区分度提高。
T.对
F.错
答案
18.特征的信息增益越大则其越不重要。
T.对
F.错
答案
19.当训练集较大的时候标准BP算法通常会更快的获得更好的解。
T.对
F.错
答案
20.sigmoid函数属于阶跃函数是神经网络中常见的激活函数。
T.对
F.错
答案

奥鹏作业答案
奥鹏南开大学作业
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|Archiver|手机版|小黑屋|www.openhelp100.com ( 冀ICP备19026749号-1 )

GMT+8, 2024-5-20 14:29

Powered by openhelp100 X3.5

Copyright © 2001-2024 5u.studio.

快速回复 返回顶部 返回列表