发布于2020-03-17 12:49 阅读(1196) 评论(0) 点赞(2) 收藏(1)
Scrapy 流程:
模块功能:
处理大型爬虫中来自不同的网站的数据:
class TestSpider(scrapy.Spider):
name = 'test'
allowed_domains = ['test.com']
start_urls = ['http://test.com/']
Ex :一个pipeline 判定并分开处理,或者多个pipeline处理不同的数据:
class MyspiderPipeline(object):
def process_item(self, item, spider):
if spider.name == ‘spider1’:
#todo
return item
class MyspiderPipeline(object):
def process_item(self, item, spider):
if spider.name == ‘spider1’:
#todo
return item
class MyspiderPipeline2(object):
def process_item(self, item, spider):
if spider.name == ‘spider2’:
#todo
return item
****需在setting中添加并设置pipeline等级,等级相当于距离值
Ex:可使用open_spider和close_spider 计算爬虫运行时间
公共变量,通用设置
Return 到另一个距离较远的pipeline
、使用Files Pipeline
一般会按照下面的步骤来使用文件管道:
1)在配置文件settings.py中启用FilesPipeline。
ITEM_PIPELINES = {
'tutorial.pipelines.files.FilesPipeline': 1,
}
2)在配置文件settings.py中使用FILES_STORE指定文件存储路径。
# 文件存储路径
FILES_STORE = '/Users/huangtao/Downloads/files'
3)实现ExampleItem(可选),在items.py定义file_urls和files两个字段。
class ExampleItem(Item):
file_urls = Field()
files = Field()
4)实现ExamplesSpider,设置起始爬取点。
parse方法将提取文件的下载URL并返回,一般情况下是把这些URL赋值给ExampleItem的file_urls。
# 获取360的图片信息
class SoSpider(scrapy.Spider):
name = "so"
allowed_domains = ["image.so.com"]
def __init__(self, *args, **kwargs):
super(SoSpider, self).__init__(*args, **kwargs)
self.start_urls = ['http://image.so.com/z?ch=go']
# 这里的parse方法将提取文件的下载URL并返回,一般情况下是把这些URL赋值给ExampleItem的file_urls。
def parse(self, response):
。。。
yield ExampleItem(file_urls = url]) **注: 下载非文本文件时 url应该是列表的形式!!! 否则会报错 ValueError: Missing scheme in request url: h
作者:老铁哪来的
链接:https://www.pythonheidong.com/blog/article/262953/c86eddda838d9ae4921d/
来源:python黑洞网
任何形式的转载都请注明出处,如有侵权 一经发现 必将追究其法律责任
昵称:
评论内容:(最多支持255个字符)
---无人问津也好,技不如人也罢,你都要试着安静下来,去做自己该做的事,而不是让内心的烦躁、焦虑,坏掉你本来就不多的热情和定力
Copyright © 2018-2021 python黑洞网 All Rights Reserved 版权所有,并保留所有权利。 京ICP备18063182号-1
投诉与举报,广告合作请联系vgs_info@163.com或QQ3083709327
免责声明:网站文章均由用户上传,仅供读者学习交流使用,禁止用做商业用途。若文章涉及色情,反动,侵权等违法信息,请向我们举报,一经核实我们会立即删除!
兄弟,是python小王子阿亮的人吗?对一下暗号:天王盖地虎