scrapinghub 部署scrapy爬蟲

請首先注冊scrapinghub,參見以下兩篇文章:

未讀完以上兩篇文章請勿往下看!

如果安裝了第三方庫,請在scrapy根目錄下,引入requirements.txt

PyMySQL==0.7.11
lxml==3.7.3
pyOpenSSL==17.0.0

如果你用的是python3版本,請對scrapinghub.yml做如下修改

projects:
    default: your-project-id  # your-project-id為項目id
stacks:
    default: scrapy:1.1-py3 # 這個注意,如果是python2.7 則寫成scrapy:1.1
requirements_file: requirements.txt  #第三方庫時引用

2.每次修改都需要重新部署到scrapinghub:

shub deploy ProjectID
最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容