首先

它比pycaret更快地比较和选择许多机器学习方法
你知道Lazypredict吗?
懒惰的・・・懒惰
顾名思义,它似乎是懒人预测的完美工具! !

先安装

pip install lazypredict

准备

前提:已执行数据异常值处理
?不要在这里偷懒!工程师们在这里大显身手!

本文将省略
从下面过去的文章中获取train.csv和test.csv

Lazypredict 需要对输入和输出因子进行可变划分,所以
设置为 X_train, Y_train, X_test, Y_test

# データインポート
data_train = pd.read_csv('train.csv')
data_test = pd.read_csv('test.csv')
X_train=data_train.iloc[:,1:9]
Y_train=data_train.iloc[:,9]
X_test=data_test.iloc[:,1:9]
Y_test=data_test.iloc[:,9]

执行方法选择

# lazypredict
import lazypredict
# 回帰予測の場合は下記のライブラリをインポート
from lazypredict.Supervised import LazyRegressor
# 分類問題の場合は下記をインポートしてください
# from lazypredict.Supervised import LazyClassifier

reg=LazyRegressor(verbose=1,ignore_warnings=True,predictions=True)
models, predictions=reg.fit(X_train,X_test,Y_train,Y_test)

这就是结局!快的! !你可以偷懒! !

由于结果的确认是一个dataframe,只需要执行下面的

models

たった2行で機械学習手法を選定!

运行以下预测结果

predictions

たった2行で機械学習手法を選定!

Pycaret vs Lazypredict

模型类型比较

18种pycaret,LazyPredict如何41种会比较! !
たった2行で機械学習手法を選定!

精度比较

在 pycaret 中找不到 HistGradientBoostingRegressor
LazyPredict 的不同在于它被选中,但准确率是一样的! ?

最好的方法 均方根误差 计算时间(秒)
懒惰预测 HistGradientBoostingRegressor 0.09 1.36
派卡瑞特 轻型GBM 0.0916 0.2283

对于 LazyPredict 结果,请参见下面的折叠。

我在折叠
模型 调整后的 R 平方 R平方 均方根误差 用的时间
HistGradientBoostingRegressor 0.83 0.83 0.09 1.36
LGBMRegressor 0.82 0.83 0.09 0.29
XGB回归器 0.82 0.82 0.09 0.45
梯度提升回归器 0.78 0.78 0.10 0.93
随机森林回归器 0.78 0.78 0.10 2.48
额外的树回归器 0.78 0.78 0.10 1.09
BaggingRegressor 0.76 0.76 0.11 0.22
NuSVR 0.75 0.75 0.11 1.51
SVR更多 0.74 0.74 0.11 0.40
MLP回归器 0.70 0.70 0.12 0.74
K 邻居回归器 0.65 0.65 0.13 0.07
贝叶斯岭 0.64 0.65 0.13 0.02
0.64 0.65 0.13 0.02
岭CV 0.64 0.65 0.13 0.03
转换目标回归器 0.64 0.65 0.13 0.03
线性回归 0.64 0.65 0.13 0.02
套索集成电路 0.64 0.65 0.13 0.02
拉斯 0.64 0.65 0.13 0.04
拉斯简历 0.64 0.65 0.13 0.05
LassoLarsCV 0.64 0.65 0.13 0.05
弹性网络简历 0.64 0.65 0.13 0.09
套索CV 0.64 0.65 0.13 0.16
SGD 回归器 0.64 0.65 0.13 0.02
ExtraTreeRegressor 0.64 0.64 0.13 0.03
Huber回归器 0.62 0.62 0.14 0.06
线性 SVR 0.61 0.62 0.14 0.13
RANSAC回归器 0.61 0.61 0.14 0.13
决策树回归器 0.60 0.61 0.14 0.03
正交匹配追踪CV 0.60 0.61 0.14 0.02
AdaBoost 回归器 0.60 0.60 0.14 0.47
被动进取型回归器 0.48 0.48 0.16 0.03
正交匹配追踪 0.44 0.44 0.16 0.02
广义线性回归器 0.44 0.44 0.16 0.02
Tweedie 回归器 0.44 0.44 0.16 0.02
高斯过程回归器 0.29 0.29 0.19 1.86
泊松回归器 0.27 0.27 0.19 0.02
套索 -0.01 -0.00 0.22 0.02
弹性网 -0.01 -0.00 0.22 0.01
虚拟回归器 -0.01 -0.00 0.22 0.02
套索 -0.01 -0.00 0.22 0.02
内核岭 -1.82 -1.80 0.37 0.85

Pycaret 结果见下方可折叠

我在折叠
模型 硕士 MSE 均方根误差 R2 RMSLE 马佩 TT(秒)
轻 gbm 光梯度提升机 0.0623 0.0084 0.0916 0.8183 0.0622 0.2283 0.3500
gbr 梯度提升回归器 0.0698 0.0098 0.0989 0.7886 0.0676 0.2600 0.2125
绘画 额外的树回归器 0.0708 0.0104 0.1017 0.7765 0.0692 0.2687 0.3900
射频 随机森林回归器 0.0710 0.0108 0.1041 0.7662 0.0709 0.2681 0.6450
LR 线性回归 0.0952 0.0159 0.1262 0.6559 0.0875 0.4072 1.5550
拉尔 最小角度回归 0.0952 0.0159 0.1262 0.6559 0.0875 0.4072 0.0125
br 贝叶斯岭 0.0951 0.0159 0.1262 0.6559 0.0875 0.4069 0.0125
岭回归 0.0949 0.0160 0.1264 0.6551 0.0876 0.4035 0.0125
胡贝尔 Huber回归器 0.0929 0.0165 0.1285 0.6434 0.0875 0.3721 0.0325
knn K 邻居回归器 0.0963 0.0184 0.1356 0.6028 0.0935 0.3897 0.0275
阿达 AdaBoost 回归器 0.1160 0.0194 0.1391 0.5818 0.1006 0.5839 0.1125
dt 决策树回归器 0.0964 0.0220 0.1482 0.5257 0.1002 0.3411 0.0175
标准杆 被动进取回归器 0.1223 0.0248 0.1562 0.4660 0.1056 0.5507 0.0125
欧普 正交匹配追踪 0.1167 0.0247 0.1573 0.4662 0.1088 0.4622 0.0100
拉尔 套索最小角度回归 0.1680 0.0464 0.2154 -0.0008 0.1525 0.8630 0.0100
套索 套索回归 0.1680 0.0464 0.2154 -0.0008 0.1525 0.8630 0.0125
圆圈 弹性网 0.1680 0.0464 0.2154 -0.0008 0.1525 0.8630 0.0100
虚拟回归器 0.1680 0.0464 0.2154 -0.0008 0.1525 0.8630 0.0100

概括

LazyPredict 的优势在于
只需两行代码即可完成
我认为型号类型丰富,有 41 种
*请注意,我们没有调查分类问题中的几种类型。

每日预报
数据分析/数据预处理
懒惰预测
方法决策
超参数调优
预测
我正在考虑尝试通过类似的流程来提高效率

直到最后感谢阅读


原创声明:本文系作者授权爱码网发表,未经许可,不得转载;

原文地址:https://www.likecs.com/show-308626138.html

相关文章:

  • 2022-03-10
  • 2021-09-26
  • 2021-07-05
  • 2021-09-10
  • 2022-12-23
  • 2022-12-23
  • 2021-06-18
  • 2021-09-11
猜你喜欢
  • 2021-06-09
  • 2021-07-29
  • 2022-03-02
  • 2021-12-04
  • 2021-05-18
  • 2021-11-22
  • 2021-10-01
相关资源
相似解决方案