scrapy 小結(jié)

1.scrapy框架的用途:

Scrapy是用純Python實(shí)現(xiàn)一個為了爬取網(wǎng)站數(shù)據(jù)、提取結(jié)構(gòu)性數(shù)據(jù)而編寫的應(yīng)用框架,用途非常廣泛??蚣艿牧α?,用戶只需要定制開發(fā)幾個模塊就可以輕松的實(shí)現(xiàn)一個爬蟲,用來抓取網(wǎng)頁內(nèi)容以及各種圖片,非常之方便。Scrapy 使用了 Twisted['tw?st?d] 異步網(wǎng)絡(luò)框架來處理網(wǎng)絡(luò)通訊,可以加快我們的下載速度,不用自己去實(shí)現(xiàn)異步框架,并且包含了各種中間件接口,可以靈活的完成各種需求。

2.scrapy 框架的功能:

Scrapy Engine(引擎): 負(fù)責(zé)Spider、ItemPipeline、Downloader、Scheduler中間的通訊,信號、數(shù)據(jù)傳遞等。

Scheduler(調(diào)度器): 它負(fù)責(zé)接受引擎發(fā)送過來的Request請求,并按照一定的方式進(jìn)行整理排列,入隊(duì),當(dāng)引擎需要時,交還給引擎。

Downloader(下載器):負(fù)責(zé)下載Scrapy Engine(引擎)發(fā)送的所有Requests請求,并將其獲取到的Responses交還給Scrapy Engine(引擎),由引擎交給Spider來處理,

Spider(爬蟲):它負(fù)責(zé)處理所有Responses,從中分析提取數(shù)據(jù),獲取Item字段需要的數(shù)據(jù),并將需要跟進(jìn)的URL提交給引擎,再次進(jìn)入Scheduler(調(diào)度器),

Item Pipeline(管道):它負(fù)責(zé)處理Spider中獲取到的Item,并進(jìn)行進(jìn)行后期處理(詳細(xì)分析、過濾、存儲等)的地方.

Downloader Middlewares(下載中間件):你可以當(dāng)作是一個可以自定義擴(kuò)展下載功能的組件。

Spider Middlewares(Spider中間件):你可以理解為是一個可以自定擴(kuò)展和操作引擎和Spider中間通信的功能組件(比如進(jìn)入Spider的Responses;和從Spider出去的Requests)

3.scrapy的安裝方式:sudo pip3 install scrapy

4.scrapy框架的使用:

1.創(chuàng)建項(xiàng)目:scrapy startproject myspider

2.創(chuàng)建爬蟲文件:scrapy genspider 爬蟲文件名字? 爬取網(wǎng)站的域

5.爬蟲的分類:通用爬蟲? ? ? ? 聚焦爬蟲

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

  • #scrapy框架是什么: #####scrapy是用純Python實(shí)現(xiàn)的一個為了爬去網(wǎng)站數(shù)據(jù),提取結(jié)構(gòu)數(shù)據(jù)而編寫...
    han吶閱讀 380評論 0 0
  • 沒人愿意透過肥肉去欣賞你的靈魂,加油,這幾天沒跑步的后果,觸目驚心,加油吧!找回逝去的青春!
    VVSAMA閱讀 102評論 0 0
  • 氣氛很尷尬,團(tuán)子出現(xiàn)得很是時候,白淺干笑兩聲,將團(tuán)子拉至跟前兒,一邊取出帕子為他揩汗,一邊正經(jīng)道:“滾滾是你鳳九姐...
    與花_如箋閱讀 3,256評論 2 15
  • alfred設(shè)置中選擇Terminal/Shell,Application選擇custom 然后在下面的框中填入下...
    噴氣式蝸牛閱讀 2,656評論 0 4
  • “我坐過一種長途客車,當(dāng)時我對面的孩子,直接把尿,尿在了一個塑料袋里,家長把塑料袋掛在了桿子上,我提心吊膽了一路....
    社長從來不假裝閱讀 517評論 3 1

友情鏈接更多精彩內(nèi)容