scrapy部署多個爬蟲項目

首先上圖:(因為工作原因,項目名需要打碼)


由于各方面原因,需要將多個爬蟲部署在一起,scrapy可以很好的解決這個問題。

接下來,開始無腦CV大法做實驗:

1:創(chuàng)建一個scrapy程序:scraps startproject MySpides

2.瘋狂創(chuàng)建項目: scrapy genspider BaiduBaidu.com?

scrapy genspider taobaotaobao.com

scrapy genspider jianshujianshu.com

… …

3.配置問題:

面對每一個爬蟲,配置也不一樣,這時候,該怎么辦?沒錯! 看到custom_settings.py文件了嗎?就是這個,我將每個爬蟲單獨的配置放在里面了.對于settings.py我將公共配置(例如延遲,U-A等等)放在里面。


4.啟動配置:

在scrapy中提供了一個custom_settings 關鍵字,可以在爬蟲項目中使用其指向該項目的配置.

custom_settings =custom_settings_for_baidu

將這句話添加作為項目的類函數(shù)就好


5.怎么可能還有5呢?結束了!躁起來!



喜歡的話就點個贊吧!

?著作權歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務。

相關閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容