scrapy配置redis簡單實例

安裝

  1. 安裝庫
pip install scrapy-redis
  1. 安裝redis

配置

在setting.py文件中配置

SCHEDULER = "scrapy_redis.scheduler.Scheduler"
SCHEDULER_PERSIST = True
SCHEDULER_QUEUE_CLASS = 'scrapy_redis.queue.SpiderQueue'
DUPEFILTER_CLASS = "scrapy_redis.dupefilter.RFPDupeFilter"
REDIS_HOST = 'localhost'
REDIS_PORT = 6379

編寫spider

class MySpider(RedisSpider):
    name = "myspider"
    start_urls = ["http://weather.sina.com.cn/", ]
    redis_key = "myspider:start_urls"
 
    # 注意一定要重寫start_requests,否則出不來數(shù)據(jù)
    def start_requests(self):
        for url in self.start_urls:
            yield Request(url=url, callback=self.parse)
 
    def parse(self, response):
        .....

上述中一定要注意重寫start_requests,不然一直沒數(shù)據(jù)出來,這是本人走過的坑,希望能幫到您,如果你覺得這篇文章對你有幫助,麻煩點個贊哦!

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容