scrapyd


1.安裝

scrapyd? 支持以HTTP命令方式通過json API進行發(fā)布、刪除、啟動、停止爬蟲,而且可以同時管理多個爬蟲,每個爬蟲還可以有多個版本。

?兩種常用安裝方式:

??? pip install scrapyd;

? ? 從https://github.com/scrapy/scrapyd下載源碼,運行pip setup.py install命令安裝。

scrapyd-client?? 專門用來發(fā)布scrapy爬蟲的工具,安裝后會自動在python安裝目錄下scripts文件夾生成scrapyd-deploy工具,類似于python腳本,可以直接使用python scrapyd-deploy運行。

?? 安裝方式同上。

2.部署

?? 命令行輸入scrapy即可完成啟動, 默認情況下scrapyd運行后會監(jiān)聽6800端口。

?? 打開瀏覽器輸入:http://127.0.0.1:6800/,即可打開scrapd界面。

修改項目根目錄文件夾下scrapy.cfg配置文件

??? 1.取消項目url前的注釋

??? 2.修改deploy為deploy:100 ,表示把爬蟲發(fā)布到名為100的爬蟲服務(wù)器

修改如下:

[settings]

default = zhihu.settings

[deploy:100]

url =http://localhost:6800/

project =zhihu

3.命令

配置完成可以用scrapyd-deploy發(fā)布爬蟲,命令如下:

scrapyd-deploy <target> -p <project> --version <version>

如:python scrapyd-deploy 100 -p zhihu --version ver2019011

???? target : deploy后面的名稱(100)。

??? project: 自行定義,與爬蟲項目名無關(guān)。

??? version:自定義版本號,不寫則默認當前時間戳。

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容