程序员最近都爱上了这个网站  程序员们快来瞅瞅吧!  it98k网:it98k.com

本站消息

站长简介/公众号

  出租广告位,需要合作请联系站长

+关注
已关注

分类  

暂无分类

标签  

暂无标签

日期归档  

2023-05(1)

Python爬取百思不得姐段子

发布于2020-02-24 22:28     阅读(993)     评论(0)     点赞(16)     收藏(1)


Python爬取百思不得姐段子

利用urllib、random、re等模块

1 构建用户代理池(列表信息)
QQ浏览器:Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.26 Safari/537.36 Core/1.63.6788.400 QQBrowser/10.3.2843.400
谷歌浏览器:Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/79.0.3945.130 Safari/537.36
Microsoft Edge:Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.102 Safari/537.36 Edge/18.18362
本程序只利用这三种浏览器作为代理池的浏览器,在实际应用中可以加入更多的浏览器数据到列表中

import urllib
import urllib.request
import random
uapools = [
    "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.26 Safari/537.36 Core/1.63.6788.400 QQBrowser/10.3.2843.400"
    "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/79.0.3945.130 Safari/537.36"
    "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.102 Safari/537.36 Edge/18.18362"
]
def UA():
    opener = urllib.request.build_opener()
    thisua = random.choice(uapools)
    ua = ("User-Agent",thisua)
    opener.addheaders = [ua]
    urllib.request.install_opener(opener) #加入到全局之后才可以应用
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14

2 爬取段子内容
其中利用到了正则表达式,正则表达式之后会专门写一篇博文介绍,这里不多介绍了。

import re
for i in range(0,5):
    UA()
    url = "http://www.budejie.com/"+str(i+1)+""
    try:
        data = urllib.request.urlopen(url).read().decode("utf-8","ignore")
        pat = '<div class="j-r-list-c-desc">.*?<a href=".*?">(.*?)</a>.*?</div>'  #正则表达式
        res = re.compile(pat,re.S).findall(data) #通过正则表达式在网页源代码中获取段子内容
        print('第'+str(i+1)+'页')
        for j in range(0,len(res)):
            print(res[j])
            print('------')
    except Exception as err:
        pass
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14

3 源代码
这个是把段子内容保存到文件中的代码。。。

import urllib
import urllib.request
import random
import re
uapools = [
    "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.26 Safari/537.36 Core/1.63.6788.400 QQBrowser/10.3.2843.400"
    "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/79.0.3945.130 Safari/537.36"
    "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.102 Safari/537.36 Edge/18.18362"
]
def UA():
    opener = urllib.request.build_opener()
    thisua = random.choice(uapools)
    ua = ("User-Agent",thisua)
    opener.addheaders = [ua]
    urllib.request.install_opener(opener)
    #print("当前的使用的UA:"+str(thisua))
#只是爬取前5页
for i in range(0,5):
    UA()
    url = "http://www.budejie.com/"+str(i+1)+""
    try:
        data = urllib.request.urlopen(url).read().decode("utf-8","ignore")
        pat = '<div class="j-r-list-c-desc">.*?<a href=".*?">(.*?)</a>.*?</div>'
        res = re.compile(pat,re.S).findall(data)
        print('第'+str(i+1)+'页')
        for j in range(0,len(res)):
            with open("百思不姐姐.doc","a+",encoding="utf-8")as f:
                f.write(res[j]+'\r\n')
    except Exception as err:
        pass
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30

欢迎大家参考与交流

发布了5 篇原创文章 · 获赞 3 · 访问量 133


所属网站分类: 技术文章 > 博客

作者:进击的巨人

链接:https://www.pythonheidong.com/blog/article/232478/c26017010a240cfda3f7/

来源:python黑洞网

任何形式的转载都请注明出处,如有侵权 一经发现 必将追究其法律责任

16 0
收藏该文
已收藏

评论内容:(最多支持255个字符)