1.通过代码”from sklearn import linear_model”引入线性模型模块,并通过代码“reg = linear_model.LinearRegression()”构造回归器对象,在训练后做预测时要调用的方法是( )。
2.利用linear_model.LinearRegression()训练模型时调用.fit()方法需要传递的第二个参数是( )。
3.在利用linear_model.LinearRegression()构造的reg对象训练模型后,可以通过以下哪行代码查看回归模型系数( )。
4.对于指数曲线y=a*e^(bx),令u=ln y,c=ln a,经过非线性化回归分析之后,可以转化成的形式为( )。
5.下面关于构建模型树的说法中,错误的是( )。
6.下列选项中错误的是( )。
7.决策树的叶子结点对应( )。
8.回归树的叶子结点对应( )。
9.模型树的叶子结点对应( )。
10.在比较模型的拟合效果时,甲、乙、丙、丁四个模型的决定系数R^2的值分别约为0.96、0.85、0.80和0.7,则拟合效果好的模型是( )。
11.多元回归建模后的检验包括( )。
12.常用的非线性函数除了多项式函数之外,还包括( )。
13.数值预测与分类都属于有监督学习,解决问题的过程相同,都是先通过训练数据集进行学习,以得到一个模型然后利用模型进行预测。
14.的值越接近1,说明回归直线对观测值的拟合程度越好。
15.在模型树的构建过程中,应选择使SDR值最小的属性。
16.一元线性回归的步骤:构建包含因变量和自变量的训练集;通过散点图确认因变量和自变量之前的近似线性关系;计算系数和构建模型;模型检验;利用模型进行预测。
17.多元回归是对一个自变量和多个因变量之间的回归分析。
18.回归系数的检验可以采用t检验。
19.在模型树的构建过程中,分裂属性的选择以分裂后的各个子数据集中目标属性取值的标准差为依据,将标准差作为一种误差度量,将分裂前后标准差的减少量作为误差的期望减少,称为SDR。
20.K近邻数值预测是利用一个样本的K个最相似的邻居的目标属性的取值来进行预测。
21.模型树构建之后,为了避免过度拟合,需要对模型树进行剪枝。
22.在模型树的构建过程中,分裂属性的选择以分裂后的各个子数据集中目标属性取值的标准差为依据,将标准差作为一种误差度量,将分裂前后标准差的减少量作为误差的期望减少,称为SDR(填写英文简称)。
相关文章: