前言:scarpy是一个爬虫框架, 而scrapyd是一个网页版管理scrapy的工具, scrapy爬虫写好后,可以用命令行运行,但是如果能在网页上操作就比较方便. scrapyd就是为了解决这个问题,能够在网页端查看正在执行的任务,也能新建爬虫任务,和终止爬虫任务,功能比较强大. 还有一个更加强大的国产工具 gerapy!

1.需要进入到你的虚拟环境中安装

scrapyd=1.2.0  scrapyd-client==1.2.0a1 mmh3=2.5.1

pip install scrapyd

pip install scrapyd-client==1.2.0a1

Scrapyd的安装及使用

下载后会多个这

Scrapyd的安装及使用

下载mmh3可能会遇到的问题

Scrapyd的安装及使用

解决方案参考文档http://www.mamicode.com/info-detail-2351094.html

解决方法

Scrapyd的安装及使用

Scrapyd的安装及使用

将上面这两个放到

Scrapyd的安装及使用

下面后

Scrapyd的安装及使用

Scrapyd的安装及使用

同理将上面2个文件放到你的虚拟环境中的site-packages里

Scrapyd的安装及使用

出现下图所示即为成功

Scrapyd的安装及使用

2.去该地址https://github.com/liyaopinner/BloomFilter_imooc下载py_bloomfilter.py

Scrapyd的安装及使用

Scrapyd的安装及使用

Scrapyd的安装及使用

 

Scrapyd的安装及使用

Scrapyd的安装及使用

Scrapyd的安装及使用

Scrapyd的安装及使用

3.启动scrapyd服务

Scrapyd的安装及使用

4.配置爬虫项目

Scrapyd的安装及使用

5.开始向scrapyd中部署项目

(1)通过scrapyd-deploy命令测试scrapyd-deploy是否可用。

如果出现下图所示的错误,你需要根据提示的路径找到对应的文件,并修改即可.

Scrapyd的安装及使用

Scrapyd的安装及使用

Scrapyd的安装及使用

如果是下图,则为成功

Scrapyd的安装及使用

(2)scrapyd-deploy -l查看当前可用于部署到scrapyd服务中的爬虫有哪些。

参数1: [deploy: jobbole]

参数2: scrapy.cfg文中中的url

Scrapyd的安装及使用

(3)命令scrapy list用来查看当前项目中,可用的爬虫。

如果出现下图所示的错误,只需根据提示更改即可

Scrapyd的安装及使用

Scrapyd的安装及使用

如果是下图,则为成功

Scrapyd的安装及使用

(4)列举scrapyd服务中已经部署的爬虫项目:

ScrapydAPI:  https://scrapyd.readthedocs.io/en/latest/api.html

Scrapyd的安装及使用

如果是下图所示,则为成功

Scrapyd的安装及使用

如果出现下图的错误

Scrapyd的安装及使用

你需要到Curl下载官网: https://curl.haxx.se/download.html

Scrapyd的安装及使用

curl配置说明参考文档:https://www.cnblogs.com/zhuzhenwei918/p/6781314.html

Scrapyd的安装及使用

Scrapyd的安装及使用

(5)添加版本:

Scrapyd的安装及使用

Scrapyd的安装及使用

(6)启动一个爬虫(调度爬虫项目)

Scrapyd的安装及使用

Scrapyd的安装及使用

Scrapyd的安装及使用

可以点击Log查看运行情况

(7)取消爬虫运行

Scrapyd的安装及使用

Scrapyd的安装及使用

 

 

 

相关文章:

  • 2022-12-23
  • 2021-11-09
  • 2021-08-04
  • 2022-12-23
  • 2022-12-23
  • 2022-01-28
  • 2022-01-20
  • 2022-01-18
猜你喜欢
  • 2022-01-22
  • 2022-12-23
  • 2022-12-23
  • 2022-12-23
  • 2022-12-23
  • 2021-05-24
  • 2018-07-06
相关资源
相似解决方案