咱們直接進(jìn)入今天的主題---你真的會(huì)寫爬蟲(chóng)嗎?為啥標(biāo)題是這樣,因?yàn)槲覀內(nèi)粘懶∨老x(chóng)都是一個(gè)py文件加上幾個(gè)請(qǐng)求,但是如果你去寫一個(gè)正式的項(xiàng)目時(shí),你必須考慮到很多種情況,所以我們需要把這些功能全部模塊化,這樣也使我們的爬蟲(chóng)更加的健全。
首先,給大家來(lái)講講基礎(chǔ)爬蟲(chóng)的架構(gòu)到底是啥樣子的?JAP君給大家畫了張粗糙的圖:
從圖上可以看到,整個(gè)基礎(chǔ)爬蟲(chóng)架構(gòu)分為5大類:爬蟲(chóng)調(diào)度器、URL管理器、HTML下載器、HTML解析器、數(shù)據(jù)存儲(chǔ)器。
下面給大家依次來(lái)介紹一下這5個(gè)大類的功能:
爬蟲(chóng)調(diào)度器,主要是配合調(diào)用其他四個(gè)模塊,所謂調(diào)度就是取調(diào)用其他的模板
URL管理器,就是負(fù)責(zé)管理URL鏈接的,URL鏈接分為已經(jīng)爬取的和未爬取的,這就需要URL管理器來(lái)管理它們,同時(shí)它也為獲取新URL鏈接提供接口。
HTML下載器,就是將要爬取的頁(yè)面的HTML下載下來(lái)
HTML解析器,就是將要爬取的數(shù)據(jù)從HTML源碼中獲取出來(lái),同時(shí)也將新的URL鏈接發(fā)送給URL管理器以及將處理后的數(shù)據(jù)發(fā)送給數(shù)據(jù)存儲(chǔ)器。
數(shù)據(jù)存儲(chǔ)器,就是將HTML下載器發(fā)送過(guò)來(lái)的數(shù)據(jù)存儲(chǔ)到本地??
3
實(shí)戰(zhàn)爬取菜鳥(niǎo)筆記信息? ? ? ?
差不多就介紹這么些東西,相信大家對(duì)整體的架構(gòu)有了初步的認(rèn)識(shí),下面我簡(jiǎn)單找了個(gè)網(wǎng)站給大家演示一遍用爬蟲(chóng)架構(gòu)來(lái)爬取信息:
(目標(biāo)站點(diǎn))
我們來(lái)獲取上面列表中的信息,這里我就省略了分析網(wǎng)站的一步,如果大家不會(huì)分析,可以去看我之前寫的爬蟲(chóng)項(xiàng)目。
首先,我們來(lái)寫一下URL管理器(URLManage.py

在這里主要就是兩個(gè)集合,一個(gè)是已爬取URL的集合,另一個(gè)是未爬取URL的集合。這里我使用的是set類型,因?yàn)閟et自帶去重的功能。
接下來(lái),HTML下載器(HTMLDownload.py)

可以看到這里我們只是簡(jiǎn)單的獲取了,url中的html源碼
接著看HTML解析器(HTMLParser.py)

在這里,我們將HTML下載器的源碼進(jìn)行了分析和解析,從而得到了我們想要拿到的數(shù)據(jù),如果BeautifulSoup不懂的可以去看一下我之前寫的文章。
繼續(xù)看,數(shù)據(jù)存儲(chǔ)器(DataOutput.py)

大家可能發(fā)現(xiàn)我這里是將數(shù)據(jù)存儲(chǔ)到一個(gè)html的文件當(dāng)中,在這里你當(dāng)然也可以存在Mysql或者csv等文件當(dāng)中,這個(gè)看自己的選擇,我這里只是為了演示所以就放在了html當(dāng)中。
最后一個(gè),爬蟲(chóng)調(diào)度器(SpiderMan.py)

相信這里大家都能看懂,我就是將前面我們寫的四個(gè)模板在這里把它們調(diào)用了一下,我們運(yùn)行后的結(jié)果:
總結(jié)? ? ? ? ? ?
我們這里簡(jiǎn)單的講解了一下,爬蟲(chóng)架構(gòu)的五個(gè)模板,無(wú)論是大型爬蟲(chóng)項(xiàng)目還是小型的爬蟲(chóng)項(xiàng)目都離不開(kāi)這五個(gè)模板,希望大家能夠照著這些代碼寫一遍,這樣有利于大家的理解,大家以后寫爬蟲(chóng)項(xiàng)目也要按照這種架構(gòu)去寫,這樣你的爬蟲(chóng)看起來(lái)就會(huì)更加的規(guī)范、健全。