一般来说,爬虫大致分为几个流程:
1. 准备工作
2. 获取数据
3. 解析内容
4. 保存数据

爬虫的本质,其实就是让脚本程序模拟认为操作,通过浏览器去访问网页(网站),对于网站服务器来说,人为的通过浏览器访问和通过脚本程序爬虫没有太大区别(反爬虫这些我还没学,所以这里可能说的有点笼统,这里只是说说我目前的理解)。不过不同的是,人为访问网页,获取的是一个网页(人眼看到的页面);而脚本获取的信息,是整个页面的源码(chrom浏览器按f12),可以对这些信息进行更加细致的分析。

这篇博客先来说说准备工作包含的大致工作:
1. URL分析。即发现所爬取网页链接的规律,比如下面这个例子:

爬虫 1 大致流程

2. 浏览器给服务器发送信息(浏览器f12->Network->Headers)格式分析
User-Agent(浏览器的身份):

简单的爬虫中,必须掌握User-Agent的语义和格式(这个信息体现了用户所用的浏览器版本信息),如下图所示:
爬虫 1 大致流程

cookie(登录的身份):
学会如何存储、读取cookie。
如果想爬取 登录之后才能看到的网页信息,就必须学会操作cookie。
爬虫 1 大致流程

在获取这些信息后,需要进行分析,不过多数情况下不需要人为编写细致的代码进行分析,python有很多与爬虫网页分析有关的库,可以直接用,非常方便(突然回想起学C的日子,什么都得自己写,hhh)。

小知识点:
python程序可以设置一个入口,也就是整个程序第一个执行的语句,也就是执行的起点,这样可以让我们的程序结构和执行顺序更加清晰。下面这句话就是程序的入口:
爬虫 1 大致流程

爬虫需要的主要的包如下图所示:

爬虫 1 大致流程

相关文章:

  • 2021-06-27
  • 2021-08-29
  • 2022-12-23
  • 2021-06-14
  • 2021-10-26
  • 2021-09-20
  • 2022-12-23
猜你喜欢
  • 2022-12-23
  • 2022-12-23
  • 2021-12-03
  • 2021-12-21
  • 2021-11-06
  • 2022-12-23
相关资源
相似解决方案