scrapy框架詳解二.

使用Scrapy框架爬蟲的幾條重要的命令

創(chuàng)建項(xiàng)目:scrapy startproject xxx

?進(jìn)入項(xiàng)目:cd xxx

?基本爬蟲:scrapy genspider xxx(爬蟲名) xxx.com (爬取域)

?還有一條是規(guī)則爬蟲的命令,只是這條有變化,前倆條不變

?規(guī)則爬蟲:scrapy genspider? -t? crawl? xxx(爬蟲名) xxx.com (爬取域)

?運(yùn)行命令:scrapy crawl xxx -


開發(fā)Scrapy爬蟲的步驟~

創(chuàng)建項(xiàng)目:scrapy startproject xxx(項(xiàng)目名字,不區(qū)分大小寫)

? 明確目標(biāo) (編寫items.py):明確你想要抓取的目標(biāo)

? 制作爬蟲 (spiders/xxspider.py):制作爬蟲開始爬取網(wǎng)頁

? 存儲(chǔ)內(nèi)容 (pipelines.py):設(shè)計(jì)管道存儲(chǔ)爬取內(nèi)容

? 啟動(dòng)程序的py文件(start.py):等同于此命令(scrapy crawl xxx -o xxx.json)

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請(qǐng)結(jié)合常識(shí)與多方信息審慎甄別。
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容