发布于2019-08-07 09:48 阅读(734) 评论(0) 点赞(1) 收藏(5)
很多网站都有反爬措施,最常见的就是封ip,请求次数过多服务器会拒绝连接,如图;
在程序中设置一个代理ip,可有效的解决这种问题,代码如下;
# 需要的库 import requests import re from multiprocessing import Pool # 设置代理ip proxy = { 'https':'111.231.140.109:8888' } # 请求头 headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/65.0.3325.181 Safari/537.36' } # 主函数 def get_character(url): # 请求网页,里面加入代理ip response = requests.get(url,headers,proxies=proxy) # 正则提取内容(作者昵称,内容,好笑数量,评论数量) data = re.findall('<h2>(.*?)</h2>.*?<div class="content">.*?<span>(.*?)</span>.*?</div>.*?<span class="stats-vote">.*?' '<i class="number">(.*?)</i>(.*?)</span>.*?<i class="number">(.*?)</i>(.*?)</a>',response.text,re.S) # 遍历获取到的数据 for i in data: # 以追加方式写入当前文件加下的qiubai.txt with open('qiubai.txt','a+',encoding='utf8') as f: # 转换为字符串格式,去空格,替换掉多余内容每条内容加换行 f.write(str(i).strip().replace(r'\n','')+'\n') # 控制台打印查看爬取过程 print(str(i).strip().replace(r'\n','')+'\n') # 程序入口 if __name__ == '__main__': # 构造所有url urls = ['https://www.qiushibaike.com/text/page/{}/'.format(i) for i in range(1,14)] # 开启多进程 pool = Pool() # 启动程序 pool.map(get_character,urls) print('爬取完毕')
控制台输出;
打开文件夹查看是否下载成功;
done
作者:雪儿
链接:https://www.pythonheidong.com/blog/article/9518/ce2b2531bb23737af8fa/
来源:python黑洞网
任何形式的转载都请注明出处,如有侵权 一经发现 必将追究其法律责任
昵称:
评论内容:(最多支持255个字符)
---无人问津也好,技不如人也罢,你都要试着安静下来,去做自己该做的事,而不是让内心的烦躁、焦虑,坏掉你本来就不多的热情和定力
Copyright © 2018-2021 python黑洞网 All Rights Reserved 版权所有,并保留所有权利。 京ICP备18063182号-1
投诉与举报,广告合作请联系vgs_info@163.com或QQ3083709327
免责声明:网站文章均由用户上传,仅供读者学习交流使用,禁止用做商业用途。若文章涉及色情,反动,侵权等违法信息,请向我们举报,一经核实我们会立即删除!