一. 爬取目标

https://maoyan.com/board/4

二.  爬取分析

1. 电影信息

在页面右键“检查”,查看网页代码

可以发现每一部电影信息都在一个<dd>标签里,那么获取到<dd>标签的内容就可以获取到电影的信息了。

详细看一下<dd>标签中的内容:

由此可以获取到电影的各个信息。

2. 自动翻页

一页显示10部电影,要想爬取到Top100榜所有电影,需要让爬虫程序进行自动翻页。

点击不同页码,观察每一个页码对应的url地址:

第一页:https://maoyan.com/board/4?offset=0

第二页:https://maoyan.com/board/4?offset=10

第三页:https://maoyan.com/board/4?offset=20

可以得到规律:offset从0开始,每一页加10,最后一页的offset应该是90。

通过改变offset的值,完成自动翻页。

 

三.代码

1. 基于正则匹配获取信息

#爬取猫眼电影
import json
import requests
from requests.exceptions import RequestException
import re
import time
def get_one_page(url):
    headers={\'user-agent\':\'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_4) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/72.0.3602.2 Safari/537.36\'}
    #伪装头部信息
    response=requests.get(url,headers=headers) 
    if response.status_code==200:
        return response.text #获取网页信息
    return None


def parse_one_page(html):
    pattern=re.compile(\'<dd.*?board-index.*?">(\d+)</i.*?data-src="(.*?)".*?<p class="name"><a.*?>(.*?)</a>.*?<p class="star">(.*?)</p.*?class="releasetime">(.*?)</p.*?</dd>\',re.S)   #利用正则表达式进行匹配,获取相应信息
    items=re.findall(pattern,html)
    result=[]
    for item in items:
        result.append({
        \'index\':item[0], 
        \'img\':item[1], 
        \'名称\':item[2], 
        \'主演\':item[3].strip()[3:], 
        \'上映时间\':item[4].strip()[5:]
        })
    return result

def write_to_file(content): #import io  io.open()不会报错
    with io.open(\'results.txt\',\'a\',encoding=\'utf-8\') as f: #只写方式打开文件夹。如果文件夹不存在则创建文件夹
        f.write(json.dumps(content,ensure_ascii=False)+\'\n\')
        
def main(offset):
    url=\'http://maoyan.com/board/6?offset=\'+str(offset) #修改offset值
    html=get_one_page(url)
    for item in parse_one_page(html):
        print(item)
        write_to_file(item)

for i in range(10):
     main(offset=i*10)
     time.sleep(1)

2. 基于selector选择器获取信息

 

相关文章: