标签:第二课 加入 Python 爬虫 Agent headers url 请求 User
为什么要设置请求头?
第一课中提到request.get(url),但是对一些网站,例如url = https://sh.lianjia.com, 爬取时会发现返回<Response [403]>。403是网站的反爬机制造成的,如果仅仅是发送web服务器一个页面请求,web服务器连你一些基本信息都不知道,这时候会被视为非正常的访问,无法爬取成功。因此需要加入headers伪装成浏览器请求访问。
请求头加入附加信息:
User-Agent 是第一个可以尝试加入的头字段,即客户端软件的名称和版本号等相关信息。如果未返回200,需要考虑加入其它头字段。
import requests url = 'https://sh.lianjia.com' headers = {"User-Agent':'………………'} resp = requests.get(url, headers=headers) print(resp) #<Response [200]>
User-Agent在哪里找呢? F12==> Network==>点击Name中任意一个网址==》 Headers==》 request headers==》User-Agent
标签:第二课,加入,Python,爬虫,Agent,headers,url,请求,User 来源: https://www.cnblogs.com/break03/p/11567537.html
本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享; 2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关; 3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关; 4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除; 5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。