首先
它比pycaret更快地比较和选择许多机器学习方法
你知道Lazypredict吗?
懒惰的・・・懒惰
顾名思义,它似乎是懒人预测的完美工具! !
先安装
pip install lazypredict
准备
前提:已执行数据异常值处理
?不要在这里偷懒!工程师们在这里大显身手!
本文将省略
从下面过去的文章中获取train.csv和test.csv
Lazypredict 需要对输入和输出因子进行可变划分,所以
设置为 X_train, Y_train, X_test, Y_test
# データインポート
data_train = pd.read_csv('train.csv')
data_test = pd.read_csv('test.csv')
X_train=data_train.iloc[:,1:9]
Y_train=data_train.iloc[:,9]
X_test=data_test.iloc[:,1:9]
Y_test=data_test.iloc[:,9]
执行方法选择
# lazypredict
import lazypredict
# 回帰予測の場合は下記のライブラリをインポート
from lazypredict.Supervised import LazyRegressor
# 分類問題の場合は下記をインポートしてください
# from lazypredict.Supervised import LazyClassifier
reg=LazyRegressor(verbose=1,ignore_warnings=True,predictions=True)
models, predictions=reg.fit(X_train,X_test,Y_train,Y_test)
这就是结局!快的! !你可以偷懒! !
由于结果的确认是一个dataframe,只需要执行下面的
models
运行以下预测结果
predictions
Pycaret vs Lazypredict
模型类型比较
18种pycaret,LazyPredict如何41种会比较! !
精度比较
在 pycaret 中找不到 HistGradientBoostingRegressor
LazyPredict 的不同在于它被选中,但准确率是一样的! ?
| 最好的方法 | 均方根误差 | 计算时间(秒) | |
|---|---|---|---|
| 懒惰预测 | HistGradientBoostingRegressor | 0.09 | 1.36 |
| 派卡瑞特 | 轻型GBM | 0.0916 | 0.2283 |
对于 LazyPredict 结果,请参见下面的折叠。
我在折叠
| 模型 | 调整后的 R 平方 | R平方 | 均方根误差 | 用的时间 |
|---|---|---|---|---|
| HistGradientBoostingRegressor | 0.83 | 0.83 | 0.09 | 1.36 |
| LGBMRegressor | 0.82 | 0.83 | 0.09 | 0.29 |
| XGB回归器 | 0.82 | 0.82 | 0.09 | 0.45 |
| 梯度提升回归器 | 0.78 | 0.78 | 0.10 | 0.93 |
| 随机森林回归器 | 0.78 | 0.78 | 0.10 | 2.48 |
| 额外的树回归器 | 0.78 | 0.78 | 0.10 | 1.09 |
| BaggingRegressor | 0.76 | 0.76 | 0.11 | 0.22 |
| NuSVR | 0.75 | 0.75 | 0.11 | 1.51 |
| SVR更多 | 0.74 | 0.74 | 0.11 | 0.40 |
| MLP回归器 | 0.70 | 0.70 | 0.12 | 0.74 |
| K 邻居回归器 | 0.65 | 0.65 | 0.13 | 0.07 |
| 贝叶斯岭 | 0.64 | 0.65 | 0.13 | 0.02 |
| 岭 | 0.64 | 0.65 | 0.13 | 0.02 |
| 岭CV | 0.64 | 0.65 | 0.13 | 0.03 |
| 转换目标回归器 | 0.64 | 0.65 | 0.13 | 0.03 |
| 线性回归 | 0.64 | 0.65 | 0.13 | 0.02 |
| 套索集成电路 | 0.64 | 0.65 | 0.13 | 0.02 |
| 拉斯 | 0.64 | 0.65 | 0.13 | 0.04 |
| 拉斯简历 | 0.64 | 0.65 | 0.13 | 0.05 |
| LassoLarsCV | 0.64 | 0.65 | 0.13 | 0.05 |
| 弹性网络简历 | 0.64 | 0.65 | 0.13 | 0.09 |
| 套索CV | 0.64 | 0.65 | 0.13 | 0.16 |
| SGD 回归器 | 0.64 | 0.65 | 0.13 | 0.02 |
| ExtraTreeRegressor | 0.64 | 0.64 | 0.13 | 0.03 |
| Huber回归器 | 0.62 | 0.62 | 0.14 | 0.06 |
| 线性 SVR | 0.61 | 0.62 | 0.14 | 0.13 |
| RANSAC回归器 | 0.61 | 0.61 | 0.14 | 0.13 |
| 决策树回归器 | 0.60 | 0.61 | 0.14 | 0.03 |
| 正交匹配追踪CV | 0.60 | 0.61 | 0.14 | 0.02 |
| AdaBoost 回归器 | 0.60 | 0.60 | 0.14 | 0.47 |
| 被动进取型回归器 | 0.48 | 0.48 | 0.16 | 0.03 |
| 正交匹配追踪 | 0.44 | 0.44 | 0.16 | 0.02 |
| 广义线性回归器 | 0.44 | 0.44 | 0.16 | 0.02 |
| Tweedie 回归器 | 0.44 | 0.44 | 0.16 | 0.02 |
| 高斯过程回归器 | 0.29 | 0.29 | 0.19 | 1.86 |
| 泊松回归器 | 0.27 | 0.27 | 0.19 | 0.02 |
| 套索 | -0.01 | -0.00 | 0.22 | 0.02 |
| 弹性网 | -0.01 | -0.00 | 0.22 | 0.01 |
| 虚拟回归器 | -0.01 | -0.00 | 0.22 | 0.02 |
| 套索 | -0.01 | -0.00 | 0.22 | 0.02 |
| 内核岭 | -1.82 | -1.80 | 0.37 | 0.85 |
Pycaret 结果见下方可折叠
我在折叠
| 模型 | 硕士 | MSE | 均方根误差 | R2 | RMSLE | 马佩 | TT(秒) | |
|---|---|---|---|---|---|---|---|---|
| 轻 gbm | 光梯度提升机 | 0.0623 | 0.0084 | 0.0916 | 0.8183 | 0.0622 | 0.2283 | 0.3500 |
| gbr | 梯度提升回归器 | 0.0698 | 0.0098 | 0.0989 | 0.7886 | 0.0676 | 0.2600 | 0.2125 |
| 绘画 | 额外的树回归器 | 0.0708 | 0.0104 | 0.1017 | 0.7765 | 0.0692 | 0.2687 | 0.3900 |
| 射频 | 随机森林回归器 | 0.0710 | 0.0108 | 0.1041 | 0.7662 | 0.0709 | 0.2681 | 0.6450 |
| LR | 线性回归 | 0.0952 | 0.0159 | 0.1262 | 0.6559 | 0.0875 | 0.4072 | 1.5550 |
| 拉尔 | 最小角度回归 | 0.0952 | 0.0159 | 0.1262 | 0.6559 | 0.0875 | 0.4072 | 0.0125 |
| br | 贝叶斯岭 | 0.0951 | 0.0159 | 0.1262 | 0.6559 | 0.0875 | 0.4069 | 0.0125 |
| 岭 | 岭回归 | 0.0949 | 0.0160 | 0.1264 | 0.6551 | 0.0876 | 0.4035 | 0.0125 |
| 胡贝尔 | Huber回归器 | 0.0929 | 0.0165 | 0.1285 | 0.6434 | 0.0875 | 0.3721 | 0.0325 |
| knn | K 邻居回归器 | 0.0963 | 0.0184 | 0.1356 | 0.6028 | 0.0935 | 0.3897 | 0.0275 |
| 阿达 | AdaBoost 回归器 | 0.1160 | 0.0194 | 0.1391 | 0.5818 | 0.1006 | 0.5839 | 0.1125 |
| dt | 决策树回归器 | 0.0964 | 0.0220 | 0.1482 | 0.5257 | 0.1002 | 0.3411 | 0.0175 |
| 标准杆 | 被动进取回归器 | 0.1223 | 0.0248 | 0.1562 | 0.4660 | 0.1056 | 0.5507 | 0.0125 |
| 欧普 | 正交匹配追踪 | 0.1167 | 0.0247 | 0.1573 | 0.4662 | 0.1088 | 0.4622 | 0.0100 |
| 拉尔 | 套索最小角度回归 | 0.1680 | 0.0464 | 0.2154 | -0.0008 | 0.1525 | 0.8630 | 0.0100 |
| 套索 | 套索回归 | 0.1680 | 0.0464 | 0.2154 | -0.0008 | 0.1525 | 0.8630 | 0.0125 |
| 圆圈 | 弹性网 | 0.1680 | 0.0464 | 0.2154 | -0.0008 | 0.1525 | 0.8630 | 0.0100 |
| 假 | 虚拟回归器 | 0.1680 | 0.0464 | 0.2154 | -0.0008 | 0.1525 | 0.8630 | 0.0100 |
概括
LazyPredict 的优势在于
只需两行代码即可完成
我认为型号类型丰富,有 41 种
*请注意,我们没有调查分类问题中的几种类型。
每日预报
数据分析/数据预处理
⇒懒惰预测
⇒方法决策
⇒超参数调优
⇒预测
我正在考虑尝试通过类似的流程来提高效率
直到最后感谢阅读
原创声明:本文系作者授权爱码网发表,未经许可,不得转载;
原文地址:https://www.likecs.com/show-308626138.html