qshhl

前言

今天, 带大家采集地方官方网站的商品数据,其实这些公开的商品数据就是展示给用户看的,只不过我们通过爬虫采集下来可以更加方便我们看数据, 以及方便后续对数据做分析。

一起来看看吧!

本篇文章代码内容:

  1. 分析网页性质, 找数据请求的地址
  2. json数据的数据解析
  3. 如何保存成csv

环境介绍:

  • python 3.6
  • pycharm
  • requests
  • csv

爬虫案例实现的步骤:

  1. 找数据对应的url地址
  2. 发送指定地址的请求
  3. 数据的提取
  4. 数据保存

受害者地址:http://hljcg.hlj.gov.cn/

1. 找数据对应的url <统一资源定位符(链接地址)> 地址

原始表单数据

 

url = \'http://hljcg.hlj.gov.cn/proxy/trade-service/mall/search/searchByParamFromEs\'
headers = {\'User-Agent\': \'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/90.0.4430.93 Safari/537.36\'}

json_data = {"queryPage":{"platformId":20,"pageSize":28,"pageNum":1},"orderType":"desc","homeType":"10","isAggregation":"true","publishType":"1","orderColumn":"saleCount","cid":1000033,"businessType":"1","cids":[]}

 

2. 发送指定地址的请求

import requests  # 数据请求模块, 第三方模块
import pprint  # 格式化输出

response = requests.post(url=url, json=json_data, headers=headers)
json_data = response.json()  # 变量
pprint.pprint(json_data)

 

3. 数据的提取,json提取

取下每一条商品数据

result_list = json_data[\'data\'][\'itemList\'][\'resultList\']
# print(result_list)

for result in result_list:
    print(result)

 

键值对取值

skuName = result[\'skuName\']  # 商品名字
maxPrice = result[\'maxPrice\']  # 商品价格
pictureUrl = result[\'pictureUrl\'].replace(\'\n\', \' | \')  # 商品图片链接
print(skuName, maxPrice, pictureUrl)

 

4. 数据保存

import csv   # 数据保存模块, 内置模块

with open(\'商品数据.csv\', mode=\'a\', encoding=\'utf-8\', newline=\'\') as f:
    csv_write = csv.writer(f)
    csv_write.writerow([skuName, maxPrice, pictureUrl])

 

最后运行代码得到结果

分类:

技术点:

相关文章: