注意:因为学习平台题目是随机,选择题选项也是随机,一定注意答案对应的选项,同学们在本页按“Ctrl+F”快捷搜索题目中“关键字”就可以快速定位题目,还是不懂的话可以看这个:快速答题技巧
一、2024年春江苏开放大学机器学习形考作业一单选题答案
1、如果我们说“线性回归”模型完美地拟合了训练样本(训练样本误差为零),则下面哪个说法是正确的?
A、测试样本误差不可能为零
B、以上答案都不对
C、测试样本误差始终为零
D、不确定
学生答案:B
2、下列模型中属于回归模型的是?
A、线性回归
B、DBSCAN
C、逻辑回归
D、ID3
学生答案:A
3、下列关于将连续型特征离散化后再建⽴逻辑回归模型的说法错误的是( )
A、计算结果存储不方便,不容易扩展。
B、起到简化逻辑回归模型的作⽤
C、易于模型的快速迭代
D、对异常数据有很强的鲁棒性,对异常数据不敏感
学生答案:A
4、关于三种常见的稳健性回归方法—Huber回归、RANSAC回归和泰尔森回归,下列说法正确的是()
A、Huber回归可以更好地应对X方向的中等大小的异常值,但是这个属性将在高维情况下消失;
B、一般情况下,泰尔森回归可以更好地处理y方向的大值异常点。
C、泰尔森回归比RANSAC回归在样本数量上的伸缩性(适应性)好;
D、从回归的速度上看,一般来说,Huber回归最快,其次是RANSAC回归,最慢的是泰尔森回归;
学生答案:D
5、下列关于特征选择⽬的和原则的说法正确的是( )
A、与⽬标特征相关性低的特征应该优先被选择
B、⽅差较高的特征应该被剔除
C、特征选择一般无法提升模型性能
D、特征选择能有效降低特征维度,简化模型
学生答案:A
6、关于特征选择,下列对 Ridge 回归和 Lasso 回归说法正确的是?
A、Lasso 回归适用于特征选择
B、Ridge 回归适用于特征选择
C、以上说法都不对
D、两个都适用于特征选择
学生答案:A
7、假设你有以下数据:输入和输出都只有一个变量。使用线性回归模型(y=wx+b)来拟合数据。那么使用留一法(Leave-One Out)交叉验证得到的均方误差是多少?
X(independentvariable) | Y(dependent variable) |
0 | 2 |
2 | 2 |
3 | 1 |
A、49/27
B、55/27
C、39/27
D、10/27
学生答案:A
8、关于线性回归模型的正则化,下列选项叙述不正确的是:
A、在求解LASSO时,常⽤的求解算法包括坐标下降法、LARS算法和ISTA算法等
B、正则化可以减⼩线性回归的过度拟合和多重共线性等问题
C、对⽐岭回归和LASSO,岭回归更容易得到稀疏解
D、正则化的常⽤⽅法为岭回归和LASSO,主要区别在于岭回归的⽬标函数中添加了L2惩罚函数,⽽LASSO的⽬标函数中添加的是L1惩罚函数
学生答案:C
9、箱线图是检测离群值的⽅法,下⾯关于箱线图的说法不正确的是?
A、箱外的两条线(胡须)分别延伸到最⼩和最⼤⾮异常点
B、箱中⾼于上边缘和低于下边缘的值为离群点
C、四分位距IQR = 1.5 ( Q3-Q1 ),其中Q3为上四分位数, Q1为下四分位数
D、箱线图中框的上边线表示上四分位数,框的下边线表示下四分位数
学生答案:C
10、下列关于Min-Max标准化的说法正确的是( )
A、经Min-Max标准化后的特征的样本方差不确定
B、经Min-Max标准化后的取值范围可以为任意实数
C、经Min-Max标准化后的特征的样本均值为0
D、Min-Max标准化⽅法适⽤于特征的最⼤值或最⼩值未知,样本分布⾮常离散的情况
学生答案:A
11、假如使用一个较复杂的回归模型来拟合样本数据,使用 Ridge 回归,调试正则化参数 λ,来降低模型复杂度。若 λ 较大时,关于偏差(bias)和方差(variance),下列说法正确的是?
A、若 λ 较大时,偏差减小,方差增大
B、若 λ 较大时,偏差增大,方差减小
C、若 λ 较大时,偏差增大,方差增大
D、若 λ 较大时,偏差减小,方差减小
学生答案:B
12、下列关于Z-Score标准化的说法不正确的是( )
A、经Z-Score标准化后的取值范围可以为任意实数
B、经Z-Score标准化后的特征的样本均值为0
C、Z-Score标准化⽅法适⽤于特征的最⼤值或最⼩值未知,样本分布⾮常离散的情况
D、经Z-Score标准化后的特征的样本方差不确定
学生答案:D
13、构建一个最简单的线性回归模型需要几个系数(只有一个特征)?
A、4
B、1
C、3
D、2
学生答案:D
14、关于三种常⻅的稳健性回归⽅法–Huber回归、RANSAC回归和泰尔森回归,下列选项说法
正确的是:
A、Huber回归可以更好地应对X⽅向的中等⼤⼩的异常值,但是这个属性将在⾼维情况下消失
B、⼀般情况下,泰尔森回归可以更好地处理y⽅向的⼤值异常点
C、从回归的速度上看,⼀般来说,Huber回归最快,其次是RANSAC回归,最慢的是泰尔森回归
D、泰尔森回归⽐RANSAC回归在样本数量上的伸缩性(适应性)好
学生答案:C
15、假如我们使用 Lasso 回归来拟合数据集,该数据集输入特征有 100 个(X1,X2,…,X100)。现在,我们把其中一个特征值扩大 10 倍(例如是特征 X1),然后用相同的正则化参数对 Lasso 回归进行修正。那么,下列说法正确的是?
A、特征 X1 很可能还包含在模型之中
B、无法确定特征 X1 是否被舍弃
C、以上说法都不对
D、特征 X1 很可能被排除在模型之外
学生答案:A
二、2024年春江苏开放大学机器学习形考作业一多选题答案
1、若要⽤Scikit-learn完成线性回归任务,则需要使⽤Scikit-learn中的哪些函数?(多选)
A、score
B、predict
C、fit
D、LinearRegression
学生答案:A;B;C;D
2、下列哪些假设是我们推导线性回归参数时遵循的(多选)?
A、模型误差在统计学上是独立的
B、X 是非随机且测量没有误差的
C、X 与 Y 有线性关系(多项式关系)
D、误差一般服从 0 均值和固定标准差的正态分布
学生答案:A;B;C;D
3、模型输⼊的特征通常需要是数值型的,所以需要将⾮数值型特征通过特征编码转换为数值特征。下列选项对DataFrame对象df1 中的Make 字段进⾏特征编码,其中正确的是?
A、df1[‘Make’] = df1[‘Make’].replace({‘Toyota’:1, ‘Ford’:2, ‘Volvo’:3, ‘Audi’:4, ‘BMW’:5,
‘Nissan’:6})
B、df1[‘Make’] = df1[‘Make’].map({‘Toyota’:1, ‘Ford’:2, ‘Volvo’:3, ‘Audi’:4, ‘BMW’:5, ‘Ni
ssan’:6})
C、df1[‘Make’] = df1[‘Make’].str.replace({‘Toyota’:1, ‘Ford’:2, ‘Volvo’:3, ‘Audi’:4, ‘BMW
‘:5, ‘Nissan’:6})
D、from sklearn.preprocessing import LabelEncoder
le = LabelEncoder()
df1[‘Make’]=le.fit_transform(df1[“Make”])
未经授权,禁止转载,发布者:形考达人,出处:https://www.xingkaowang.com/19123.html
本站不对内容的完整性、权威性及其观点立场正确性做任何保证或承诺!内容仅供研究参考,付费前请自行鉴别。
免费答案:形考作业所有题目均出自课程讲义中,可自行学习寻找题目答案,预祝大家上岸成功