ICode9

精准搜索请尝试: 精确搜索
首页 > 编程语言> 文章详细

python爬虫防止IP被封的一些措施

2020-02-28 19:45:18  阅读:668  来源: 互联网

标签:cookies 浏览器 python IP 爬虫 Agent headers Windows User


在编写爬虫爬取数据的时候,因为很多网站都有反爬虫措施,所以很容易被封IP,就不能继续爬了。在爬取大数据量的数据时更是瑟瑟发抖,时刻担心着下一秒IP可能就被封了。

本文就如何解决这个问题总结出一些应对措施,这些措施可以单独使用,也可以同时使用,效果更好。

伪造User-Agent

在请求头中把User-Agent设置成浏览器中的User-Agent,来伪造浏览器访问。比如:

headers = {‘User-Agent’:‘Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/52.0.2743.116 Safari/537.36’}
resp = requests.get(url,headers = headers)
1
2
还可以先收集多种浏览器的User-Agent,每次发起请求时随机从中选一个使用,可以进一步提高安全性:

‘’’
遇到问题没人解答?小编创建了一个Python学习交流QQ群:857662006 寻找有志同道合的小伙伴,
互帮互助,群里还有不错的视频学习教程和PDF电子书!
‘’’
In [7]: import requests,random

In [8]: user_agents = [‘Mozilla/5.0 (Windows NT 6.1; rv:2.0.1) Gecko/20100101 Firefox/4.0.1’,‘Mozilla/5.0 (Windows; U; Windows NT 6.1; en-us) AppleWebKit/534.50 (KHTML, like Gecko) Version/5.1 Safari/534.50’,‘Opera/9.80 (Windows NT 6.1; U; en) Presto/2.8.131 Version/11.11’]

In [9]: def get_html(url):
…: headers = {‘User-Agent’:random.choice(user_agents)}
…: resp = requests.get(url,headers = headers)
…: return resp.text
1
2
3
4
5
6
7
8
9
10
11
12
把上面随机选择一个User-Agent的代码封装成一个函数:

import random
def get_headers():
‘’’
随机获取一个headers
‘’’
user_agents = [‘Mozilla/5.0 (Windows NT 6.1; rv:2.0.1) Gecko/20100101 Firefox/4.0.1’,‘Mozilla/5.0 (Windows; U; Windows NT 6.1; en-us) AppleWebKit/534.50 (KHTML, like Gecko) Version/5.1 Safari/534.50’,‘Opera/9.80 (Windows NT 6.1; U; en) Presto/2.8.131 Version/11.11’]
headers = {‘User-Agent’:random.choice(user_agents)}
return headers
1
2
3
4
5
6
7
8
注:一些常见浏览器的User-Agent可参见:https://blog.csdn.net/qianxing111/article/details/79415857

在每次重复爬取之间设置一个随机时间间隔

比如:
time.sleep(random.randint(0,3)) # 暂停0~3秒的整数秒,时间区间:[0,3]
或:
time.sleep(random.random()) # 暂停0~1秒,时间区间:[0,1)

伪造cookies

若从浏览器中可以正常访问一个页面,则可以将浏览器中的cookies复制过来使用,比如:

‘’’
遇到问题没人解答?小编创建了一个Python学习交流QQ群:857662006 寻找有志同道合的小伙伴,
互帮互助,群里还有不错的视频学习教程和PDF电子书!
‘’’
cookies = dict(uuid=‘b18f0e70-8705-470d-bc4b-09a8da617e15’,UM_distinctid=‘15d188be71d50-013c49b12ec14a-3f73035d-100200-15d188be71ffd’)
resp = requests.get(url,cookies = cookies)

把浏览器的cookies字符串转成字典

def cookies2dict(cookies):
items = cookies.split(’;’)
d = {}
for item in items:
kv = item.split(’=’,1)
k = kv[0]
v = kv[1]
d[k] = v
return d
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
注:用浏览器cookies发起请求后,如果请求频率过于频繁仍会被封IP,这时可以在浏览器上进行相应的手工验证(比如点击验证图片等),然后就可以继续正常使用该cookies发起请求。

使用代理

可以换着用多个代理IP来进行访问,防止同一个IP发起过多请求而被封IP,比如:

proxies = {‘http’:‘http://10.10.10.10:8765’,‘https’:‘https://10.10.10.10:8765’}
resp = requests.get(url,proxies = proxies)

注:免费的代理IP可以在这个网站上获取:http://www.xicidaili.com/nn/

1
2
3
附:GitHub上的一个"反反爬虫"项目

道高一尺魔高一丈,你有反爬虫措施,那我也有各种"反反爬虫"的措施,GitHub上就有一位大神专门整理了一个这样的项目:Anti-Anti-Spider,链接地址为:https://github.com/luyishisi/Anti-Anti-Spider可以研究一下。

sdmrxwang2011 发布了1 篇原创文章 · 获赞 0 · 访问量 44 私信 关注

标签:cookies,浏览器,python,IP,爬虫,Agent,headers,Windows,User
来源: https://blog.csdn.net/sdmrxwang2011/article/details/104562215

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有