又黄又粗又爽免费观看,色吧电影网,军人武警gay男同gvus69,精品久久久久久久久中文字幕

position>home>Softball

1分鐘搞定Scrapy分布式爬蟲、隊(duì)列和布隆過濾器

[導(dǎo)讀]使用Scrapy開發(fā)一個(gè)分布式爬蟲?你知道最快的分鐘分布方法是什么嗎?一分鐘真的能 開發(fā)好或者修改出 一個(gè)分布式爬蟲嗎? 話不多說,先讓我們看看怎么實(shí)踐,搞定過濾再詳細(xì)聊聊細(xì)節(jié)。式爬

1分鐘搞定Scrapy分布式爬蟲、蟲隊(duì)隊(duì)列和布隆過濾器

1分鐘搞定Scrapy分布式爬蟲、隊(duì)列和布隆過濾器


使用Scrapy開發(fā)一個(gè)分布式爬蟲?你知道最快的列和方法是什么嗎?一分鐘真的能 開發(fā)好或者修改出 一個(gè)分布式爬蟲嗎?

話不多說,先讓我們看看怎么實(shí)踐,布隆再詳細(xì)聊聊細(xì)節(jié)。分鐘分布

快速上手

Step 0:

首先安裝 Scrapy-Distributed :

pip?install?scrapy-distributed

如果你沒有所需要的搞定過濾運(yùn)行條件,你可以啟動(dòng)兩個(gè) Docker 鏡像進(jìn)行測(cè)試 (RabbitMQ 和 RedisBloom):

#?pull?and?run?a?RabbitMQ?container.?
docker?run?-d?--name?rabbitmq?-p?0.0.0.0:15672:15672?-p?0.0.0.0:5672:5672?rabbitmq:3?
#?pull?and?run?a?RedisBloom?container.?
docker?run?-d?--name?redis-redisbloom?-p?0.0.0.0:6379:6379?redislabs/rebloom:latest

Step 1 (非必須):

如果你有一個(gè)現(xiàn)成的式爬爬蟲,可以跳過這個(gè) Step,蟲隊(duì)直接到 Step 2。列和

創(chuàng)建一個(gè)爬蟲工程,布隆我這里以一個(gè) sitemap 爬蟲為例:

scrapy?startproject?simple_example

然后修改 spiders 文件夾下的分鐘分布爬蟲程序文件:

from?scrapy_distributed.spiders.sitemap?import?SitemapSpider
from?scrapy_distributed.queues.amqp?import?QueueConfig
from?scrapy_distributed.dupefilters.redis_bloom?import?RedisBloomConfig


class?MySpider(SitemapSpider):
????name?=?"example"
????sitemap_urls?=?["http://www.people.com.cn/robots.txt"]
????queue_conf:?QueueConfig?=?QueueConfig(
????????name="example",?durable=True,?arguments={ "x-queue-mode":?"lazy",?"x-max-priority":?255}
????)
????redis_bloom_conf:?RedisBloomConfig?=?RedisBloomConfig(key="example:dupefilter")

????def?parse(self,?response):
????????self.logger.info(f"parse?response,?url:?{ response.url}")

Step 2:

只需要修改配置文件?settings.py?下的SCHEDULER,?DUPEFILTER_CLASS?并且添加?RabbitMQ和?Redis?的相關(guān)配置,你就可以馬上獲得一個(gè)分布式爬蟲,搞定過濾Scrapy-Distributed 會(huì)幫你初始化一個(gè)默認(rèn)配置的式爬 RabbitMQ 隊(duì)列和一個(gè)默認(rèn)配置的 RedisBloom 布隆過濾器。

#?同時(shí)集成?RabbitMQ?和?RedisBloom?的?Scheduler
#?如果僅使用?RabbitMQ?的?Scheduler,這里可以填?scrapy_distributed.schedulers.amqp.RabbitScheduler
SCHEDULER?=?"scrapy_distributed.schedulers.DistributedScheduler"
SCHEDULER_QUEUE_CLASS?=?"scrapy_distributed.queues.amqp.RabbitQueue"
RABBITMQ_CONNECTION_PARAMETERS?=?"amqp://guest:guest@localhost:5672/example/?heartbeat=0"
DUPEFILTER_CLASS?=?"scrapy_distributed.dupefilters.redis_bloom.RedisBloomDupeFilter"
BLOOM_DUPEFILTER_REDIS_URL?=?"redis://:@localhost:6379/0"
BLOOM_DUPEFILTER_REDIS_HOST?=?"localhost"
BLOOM_DUPEFILTER_REDIS_PORT?=?6379
#?Redis?Bloom?的客戶端配置,復(fù)制即可
REDIS_BLOOM_PARAMS?=?{
????"redis_cls":?"redisbloom.client.Client"
}
#?布隆過濾器誤判率配置,不寫配置的情況下默認(rèn)為?0.001
BLOOM_DUPEFILTER_ERROR_RATE?=?0.001
#?布隆過濾器容量配置,不寫配置的情況下默認(rèn)為?100_0000
BLOOM_DUPEFILTER_CAPACITY?=?100_0000

你也可以給你的 Spider 類,增加兩個(gè)類屬性,來初始化你的 RabbitMQ 隊(duì)列或 RedisBloom 布隆過濾器:

class?MySpider(SitemapSpider):
????......
????#?通過?arguments?參數(shù),可以配置更多參數(shù),這里示例配置了?lazy?模式和優(yōu)先級(jí)最大值
????queue_conf:?QueueConfig?=?QueueConfig(
????????name="example",?durable=True,?arguments={ "x-queue-mode":?"lazy",?"x-max-priority":?255}
????)
????#?通過?key,error_rate,capacity?分別配置布隆過濾器的redis?key,誤判率,和容量
????redis_bloom_conf:?RedisBloomConfig?=?RedisBloomConfig(key="example:dupefilter",?error_rate=0.001,?capacity=100_0000)
????......

Step 3:

scrapy?crawl?example

檢查一下你的 RabbitMQ 隊(duì)列 和 RedisBloom 過濾器,是不是已經(jīng)正常運(yùn)行了?

可以看到,Scrapy-Distributed 的加持下,我們只需要修改配置文件,就可以將普通爬蟲修改成支持 RabbitMQ 隊(duì)列 和 RedisBloom 布隆過濾器的分布式爬蟲。在擁有 RabbitMQ 和 RedisBloom 環(huán)境的情況下,修改配置的時(shí)間也就一分鐘。

關(guān)于Scrapy-Distributed

目前 Scrapy-Distributed 主要參考了Scrapy-Redis 和 scrapy-rabbitmq 這兩個(gè)庫。

如果你有過 Scrapy 的相關(guān)經(jīng)驗(yàn),可能會(huì)知道 Scrapy-Redis 這個(gè)庫,可以很快速的做分布式爬蟲,如果你嘗試過使用 RabbitMQ 作為爬蟲的任務(wù)隊(duì)列,你可能還見到過 scrapy-rabbitmq 這個(gè)項(xiàng)目。誠然 Scrapy-Redis 已經(jīng)很方便了,scrapy-rabbitmq 也能實(shí)現(xiàn) RabbitMQ 作為任務(wù)隊(duì)列,但是他們存在一些缺陷,我這里簡單提出幾個(gè)問題。

  • Scrapy-Redis 使用 Redis 的 set 去重,鏈接數(shù)量越大占用的內(nèi)存就越大,不適合任務(wù)數(shù)量大的分布式爬蟲。

  • Scrapy-Redis 使用 Redis 的 list 作為隊(duì)列,很多場景會(huì)有任務(wù)積壓,會(huì)導(dǎo)致內(nèi)存資源消耗過快,比如我們爬取網(wǎng)站 sitemap 時(shí),鏈接入隊(duì)的速度遠(yuǎn)遠(yuǎn)大于出隊(duì)。

  • scrapy-rabbitmq 等 RabbitMQ 的 Scrapy 組件,在創(chuàng)建隊(duì)列方面,沒有提供 RabbitMQ 支持的各種參數(shù),無法控制隊(duì)列的持久化等參數(shù)。

  • scrapy-rabbitmq 等 rabbitmq 框架的 Scheduler 暫未支持分布式的 dupefilter ,需要使用者自行開發(fā)或接入相關(guān)組件。

  • Scrapy-Redis 和 scrapy-rabbitmq 等框架都是侵入式的,如果需要用這些框架開發(fā)分布式的爬蟲,需要我們修改自己的爬蟲代碼,通過繼承框架的 Spider 類,才能實(shí)現(xiàn)分布式功能。

于是,Scrapy-Distributed 框架就在這個(gè)時(shí)候誕生了,在非侵入式設(shè)計(jì)下,你只需要通過修改 settings.py 下的配置,框架就可以根據(jù)默認(rèn)配置將你的爬蟲分布式化。

為了解決Scrapy-Redis 和 scrapy-rabbitmq 存在的一些痛點(diǎn),Scrapy-Distributed 做了下面幾件事:

  • 采用了 RedisBloom 的布隆過濾器,內(nèi)存占用更少。

  • 支持了 RabbitMQ 隊(duì)列聲明的所有參數(shù)配置,可以讓 RabbitMQ 隊(duì)列支持 lazy-mode 模式,將減少內(nèi)存占用。

  • RabbitMQ 的隊(duì)列聲明更加靈活,不同爬蟲可以使用相同隊(duì)列配置,也可以使用不同的隊(duì)列配置。

  • Scheduler 的設(shè)計(jì)上支持多個(gè)組件的搭配組合,可以單獨(dú)使用 RedisBloom 的DupeFilter,也可以單獨(dú)使用 RabbitMQ 的 Scheduler 模塊。

  • 實(shí)現(xiàn)了 Scrapy 分布式化的非侵入式設(shè)計(jì),只需要修改配置,就可以將普通爬蟲分布式化。


作者:許臾insutanto
來源:https://insutanto.net/posts/scrapy/

免責(zé)聲明:本文內(nèi)容由21ic獲得授權(quán)后發(fā)布,版權(quán)歸原作者所有,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。文章僅代表作者個(gè)人觀點(diǎn),不代表本平臺(tái)立場,如有問題,請(qǐng)聯(lián)系我們,謝謝!

Popular articles

主站蜘蛛池模板: 国内一级纶理片免费| 亚洲一区二区三区免费| 永久免费无内鬼放心开车| 欧美大片在线观看完整版| 香蕉视频在线观看免费国产婷婷| 快穿之青梅竹马女配| 亚洲欧美日韩精品久久| a毛片免费全部播放完整成| 国内精品视频一区二区三区八戒| 超级乱淫视频aⅴ播放视频| 日本三黄色大| 果冻传媒和精东影业在线观看| 欧美午夜成年片在线观看| 男人扒开女人的腿做爽爽视频| 房客(糙汉)何璐程曜坤| 羞涩影院| 特黄特色大片免费播放| 免费观看a级毛片| 国产嫩草在线观看| 中国一级黄色| 淫术の馆在动漫在线播放| 国外成人免费高清激情视频| 丰满肥臀风间由美357在线| 再深点灬舒服灬太大了添学长| 西西人体444rt高清大胆| jizzjizz国产精品久久| 岛国视频在线观看免费播放| 韩国三级香港三级日本三级| 西西人体www44rt大胆高清| 免费一级乱子伦片| 西西人体44rt大胆高清日韩| 永久黄网站色视频免费观看| 亚洲va久久久噜噜噜久久天堂| 国产三级精品三级在线观看| 8090韩国理伦片在线天堂| 久草福利资源在线观看| 真实国产乱子伦对白视频| 久久国产精品99精品国产| 午夜羞羞影院| 一本免费视频| 四虎影院国产|