之前我们说网站反爬虫的一个常用方法是检测ip,限制访问频率。所以我们要通过设置代理ip的办法绕过这个限制。有不少提供免费代理ip的网站,像https://www.xicidaili.com/nt/,我们可以从网站上拿到很多代理ip。但是这些ip并不是每个都能用的,或者说,没几个能用的。
我们可以用beautifulsoup分析网页,然后处理,提取代理ip列表,也可以用正则表达式进行匹配。用正则表达式会快一些。ip_url就是https://www.xicidaili.com/nt/,random_hearder就是一个随机获得请求头的函数。
def download_page(url): headers = random_header() data = requests.get(url, headers=headers) return data def get_proxies(page_num, ip_url): available_ip = [] for page in range(1,page_num): print("抓取第%d页代理IP" %page) url = ip_url + str(page) r = download_page(url) r.encoding = \'utf-8\' pattern = re.compile(\'<td class="country">.*?alt="Cn" />.*?</td>.*?<td>(.*?)</td>.*?<td>(.*?)</td>\', re.S) ip_list = re.findall(pattern, r.text) for ip in ip_list: if test_ip(ip): print(\'%s:%s通过测试,添加进可用代理列表\' %(ip[0],ip[1])) available_ip.append(ip) time.sleep(10)print(\'抓取结束\') return available_ip
拿到ip后我们还需要对ip进行检测,确定这个ip可以用。怎么检测呢?我们可以用代理ip访问一个能显示访问ip的网站,然后检查请求结果。
def test_ip(ip,test_url=\'http://ip.tool.chinaz.com/\'): proxies={\'http\': ip[0]+\':\'+ip[1]} try_ip=ip[0] try: r=requests.get(test_url, headers=random_header(), proxies=proxies) if r.status_code==200: r.encoding=\'gbk\' result=re.search(\'\d{1,3}\.\d{1,3}\.\d{1,3}\.\d{1,3}\',r.text) result=result.group() print(result) if result[:9]==try_ip[:9]:print(\'%S:%s测试通过\' % (ip[0],ip[1])) return True else: print(\'%s:%s 携带代理失败,使用了本地IP\' %(ip[0],ip[1])) return False else: print(\'%s:%s 请求码不是200\' %(ip[0],ip[1])) return False except Exception as e: print(e) print(\'%s:%s 错误\' %(ip[0],ip[1])) return False
有些教程只是拿到200的http状态码就认为成功了,这是不对的。因为代理ip访问不成功,就会默认使用你自己的ip。用我自己的ip访问当然能成功了。
最后拿到的ip在使用前我们还需要对其进行检测,因为你不知道什么时候它就不可用了。所以平时多储存一些代理ip,免得要用的时候没得用。
这篇文章的代码参考了https://blog.csdn.net/XRRRICK/article/details/78650764,我稍微做了一些修改。