程序员最近都爱上了这个网站  程序员们快来瞅瞅吧!  it98k网:it98k.com

本站消息

站长简介/公众号

  出租广告位,需要合作请联系站长

+关注
已关注

分类  

暂无分类

标签  

暂无标签

日期归档  

如何利用python爬虫爬取爱奇艺VIP电影?

发布于2019-08-05 11:10     阅读(2127)     评论(0)     点赞(2)     收藏(5)


环境:windows    python3.7

思路:

1、先选取你要爬取的电影

2、用vip解析工具解析,获取地址

3、写好脚本,下载片断

4、将片断利用电脑合成

需要的python模块:

##第一个模块不要安装,第二个模块需要安装

1、from multiprocessing import Pool

2、import requests

##模块安装方法

用windows命令行终端

pip install requests

 

一、先选取你要爬的电影,本例随便找了个VIP电影,复制地址

 

二、用vip解析工具解析,获取地址

 (一)进行上网搜索,点击VIP解析

 

 

 

(二)、粘贴电影地址,点击播放

 

 

(三)、按下F12或者右击点检查,进入开发者工具界面,点击网络,复制地址

 

 

三、写好脚本,利用爬虫下载片断

##描述:该脚本目前适合下载爱奇艺,腾迅视频VIP视频
##作者:小刘
##电话:有事请写评论
##注意:只适全python爬虫的学习者,不适合专门去看电影的爱好者
##导入的两个模块,其中requests模块需要自行下载
from multiprocessing import Pool
import requests
##定义一个涵数
def demo(i):
    ##定义了一个url,后面%3d就是截取后面三位给他加0,以防止i的参数是1的时候参数对不上号,所以是1的时候就变成了001
    url="https://vip.okokbo.com/20180114/ArVcZXQd/1000kb/hls/phJ51837151%03d.ts"%i
    ##定义了请求头信息
    headers={"user-agent":"Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/49.0.2623.221 Safari/537.36"}
    ##构建自定义请求对象
    req=requests.get(url,headers=headers)
    ##将文件保存在当前目录的mp4文件中,名字以url后十位数起名
    with open('./mp4/ {}'.format(url[-10:]), 'wb') as f:
        f.write(req.content)

##程序代码的入口
if __name__=='__main__':
    ##定义一个进程池,可以同时执行二十个任务,不然一个一个下载太慢
    pool = Pool(20)
    ##执行任务的代码
    for i in range(100):
        pool.apply_async(demo, (i,))

    
    pool.close()
    pool.join()

 

 四、将片断利用电脑合成

(一)、复制电影存放的路径

 

 (二)、用进入windows命令行模式,粘贴地址

 

 

 

 (三)、复制该目录下所有以*.ts结尾的文件,复制成一个文件

 

 

 

 (四)、进行合并

 

 

 

(五)、进行验证

 

 

 

 

五、有疑问请留言

 



所属网站分类: 技术文章 > 博客

作者:加班是一种习惯

链接:https://www.pythonheidong.com/blog/article/4235/edb38b5e3ac317466dd5/

来源:python黑洞网

任何形式的转载都请注明出处,如有侵权 一经发现 必将追究其法律责任

2 0
收藏该文
已收藏

评论内容:(最多支持255个字符)