标签:http 错误 IP 爬虫 alive keep 爬取 报错
报错
** 在爬取大量图片时遇到的报错**
解决方法:
- IP被封
更换headers或者换代理IP
proxies = {"http": "http://101.132.111.208:8082"}
** 注:代理分为http和https两种,不能用混。**
- http的连接数超过最大限制。
headers的Connection参数默认为keep-alive,导致之前所有的链接都一直存在,占用了后续的链接请求。
requests.adapters.DEFAULT_RETRIES = 5 # 增加重连次数
s = requests.session()
s.keep_alive = False # 关闭多余连接
- 网站服务器太差,爬取请求的速度太快。
time.sleep(1)
就我个人而言:第一种方法更适用。
标签:http,错误,IP,爬虫,alive,keep,爬取,报错 来源: https://blog.csdn.net/Neflibata_mo/article/details/115406135
本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享; 2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关; 3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关; 4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除; 5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。