发布于2019-08-07 15:20 阅读(595) 评论(0) 点赞(5) 收藏(1)
好多网站对于爬虫中没有进行浏览器伪装的会进行反爬,
以糗事百科网站为例
下面提供了三种方法添加headers,使爬虫能够伪装成浏览器访问。
备注:
方法二和方法三中省略了
import urllib.request
url = 'http://www.qiushibaike.com/'
方法一:通过opener添加header
1 # 方法一:通过opener添加headers 2 import urllib.request 3 url = 'http://www.qiushibaike.com/' 4 5 # 头文件格式header=('User-Agent',具体用户代理值) 元组形式,元组内包含(key,value) 6 headers=('User-Agent','Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/49.0.2623.22 Safari/537.36 SE 2.X MetaSr 1.0') 7 # 创建opener对象 8 opener = urllib.request.build_opener() 9 opener.addheaders = [headers] 10 # (1)直接使用opener进行爬虫 11 data = opener.open(url).read() 12 # print(data) 13 print(len(data)) 14 # (2)将opener安装为全局,全局生效后,再使用urlopen 15 urllib.request.install_opener(opener) 16 data = urllib.request.urlopen(url).read() 17 print(len(data))
方法二:通过opener批量添加header
1 # 方法二:批量添加headers 有时候只添加user-agent这一个header不行,需要多添加几个header 2 headers={"User-Agent":"Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/49.0.2623.22 Safari/537.36 SE 2.X MetaSr 1.0","Content-Type":"application/javascript", 3 } 4 #创建opener对象 5 opener = urllib.request.build_opener() 6 opener.addheaders = headers.items() #header.items() 字典(Dictionary).items() 函数以列表返回可遍历的(键, 值) 元组数组。正好符合addheaders属性要求的值的类型。[(key1,value1),(key2,value2),(key3,value3)] 7 # (1)直接使用opener进行爬虫 8 data = opener.open(url).read() 9 # print(data) 10 print(len(data)) 11 # (2)将opener安装为全局,全局生效后,再使用urlopen 12 urllib.request.install_opener(opener) 13 data = urllib.request.urlopen(url).read() 14 print(len(data))
方法三:通过Request添加header
1 # 方法三:通过Request添加headers 2 req = urllib.request.Request(url) 3 req.add_header('User-Agent', 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/38.0.2125.122 Safari/537.36 SE 2.X MetaSr 1.0') 4 req_data = urllib.request.urlopen(req).read() 5 print(len(req_data))
方法四:通过第三方库requests添加headers
1 # 方法四:通过requests第三方库,添加headers 2 import requests 3 4 5 hd={'User-Agent':'Mozilla/5.0'} 6 def get_html_text(url): 7 try: 8 r = requests.get(url, timeout=10, headers = hd) 9 r.raise_for_status() 10 r.encoding = r.apparent_encoding 11 html = r.text 12 return html 13 except Exception as result: 14 print('错误类型:', result) 15 16 17 html = get_html_text(url) 18 print(len(html))
作者:无敌是多么寂寞
链接:https://www.pythonheidong.com/blog/article/11491/6f27bffa59eb3fb3bcf5/
来源:python黑洞网
任何形式的转载都请注明出处,如有侵权 一经发现 必将追究其法律责任
昵称:
评论内容:(最多支持255个字符)
---无人问津也好,技不如人也罢,你都要试着安静下来,去做自己该做的事,而不是让内心的烦躁、焦虑,坏掉你本来就不多的热情和定力
Copyright © 2018-2021 python黑洞网 All Rights Reserved 版权所有,并保留所有权利。 京ICP备18063182号-1
投诉与举报,广告合作请联系vgs_info@163.com或QQ3083709327
免责声明:网站文章均由用户上传,仅供读者学习交流使用,禁止用做商业用途。若文章涉及色情,反动,侵权等违法信息,请向我们举报,一经核实我们会立即删除!