Scrapy爬蟲框架使用

keywords:python scrapy crawl mysql git 建材 爬蟲

之前爬取過指定建材網(wǎng)站的指定內(nèi)容,調(diào)研分析采用scrapy框架來做:框架簡單,功能強大。 scrapy中文官網(wǎng) http://scrapy-chs.readthedocs.io/zh_CN/latest/

寫的scrapy代碼爬取大概1億條數(shù)據(jù),特別是對于淘寶或者大眾點評這類的數(shù)據(jù)量很大,前前后后大概花了一個月的業(yè)余時間(羽毛球沒敢丟下)。爬取建材網(wǎng)站代碼github地址https://github.com/junfeng-feng/Spider.git

首先要分析需求,要那些數(shù)據(jù),get/post分頁分類獲取,其次防止被ban,最后數(shù)據(jù)交付。

分析網(wǎng)站

分析網(wǎng)站,最常用的就是使用firefox或者chrome,F(xiàn)12查看網(wǎng)頁源代碼,然后F5刷新頁面,查看有哪些網(wǎng)絡(luò)(network)請求,請求的類型及內(nèi)容。

最多使用的就是翻頁數(shù)據(jù)的請求,一部分是通過get請求的url帶上類似PageNo的參數(shù),另外一個部分就是通過post json,json的數(shù)據(jù)含有PageNo類似的字段。

抓取網(wǎng)站

scrapy可深度優(yōu)先,或者廣度優(yōu)先,且自帶去重功能,自帶過濾域名等等強大的功能。

由于我們想要抓取的數(shù)據(jù)都是指定的,比如http://ask.jia.com/裝修問答網(wǎng)站中,問答的題目,問題描述,問題圖片;回答的圖片,最佳回答,回答的時間等等需求方指定的要素。所以我們爬取過程中,不能采用通用爬蟲。

實際的爬取做法,簡單粗暴:分析對應(yīng)問答的頁面,預(yù)估數(shù)據(jù)數(shù)量,指定所有的url。比如http://ask.jia.com/a-1006161.html其中,1006161是問答的id,我們的做法就是遍歷所有的id,具體id范圍1-200000000,來抓取問答詳情頁面。代碼樣例:

start_urls = [] #scrapy的起始url

for id in xrange(1, 2000000):#todo

? ? start_urls.append("http://ask.jia.com/a-%s.html" % id)

分析具體的頁面

http://ask.jia.com/a-1006161.html為例,獲取問題的標題。

使用item["question_title"]="".join(select.css(".timu_text").xpath(".//h1/text()").extract()).strip(),其中item是scrapy中簡單的容器,定義pipeline中的數(shù)據(jù)項。解析html使用Selector,解析html有很多種比如lxml或者BeautifulSoap等,但是scrapy使用自己的一條機制Selector簡單高效。詳細的語法可以參考scrapy文檔。

最方便的工具是scrapy shell,可以在終端打開scrapy shell,然后在命令行,一個個字段來調(diào)試分析。不用每次都啟動scrapy crawl來跑完程序驗證抓取的字段是否正確。在shell中一個個調(diào)試select.css去的是否正確。(分析具體頁面需要注意:1.頁面可能存在特殊性,所以需要找多個頁面先對比 2.需要處理沒有字段的異常情況,對于空字段置為空即可)

多級請求

抓取網(wǎng)站具體內(nèi)容,會遇到一個問題:一條完整的數(shù)據(jù),需要多個網(wǎng)絡(luò)請求get/post按照順序一個個來收集。

這時scrapy中的request=Request(brandUrl,callback=self.brandJsonCallBack,priority=1234567)再yieldrequest,在callback中收集數(shù)據(jù)持久化數(shù)據(jù),是再合適不過。樣例請參考github中的tmall代碼。

存儲圖片

scrapy存儲圖片比較簡單,在setting.py配置 pipeline添加'scrapy.pipelines.images.ImagesPipeline': 1,同時配置IMAGES_STORE=r'./img'存儲圖片位置,然后在spider解析頁面拿到要下載圖片的url添加到item["image_urls"],scrapy就下載圖片,同時保存圖片的id在item中,其它請參考scapy文檔。

持久化數(shù)據(jù)

使用twisted和MysqlDb,在pipeline.py中將item插入數(shù)據(jù)庫。其中數(shù)據(jù)庫鏈接相關(guān)信息配置在settings.py

防止被ban

最有效的方式是設(shè)置下載延遲DOWNLOAD_DELAY=0.1,同時禁用cookie。

其它比如設(shè)置user-agent,比如使用TOR,或者使用IP池,都不怎么好使。想要防止被禁的其它方法請自行g(shù)oogle。

數(shù)據(jù)清洗

抓取到數(shù)據(jù)后需要做一些處理,因為我們抓取的都是特定的內(nèi)容,基本沒有特別的處理。

Python基礎(chǔ)安裝使用

推薦使用Python 27,不推薦Python3

python 非root安裝:./configure [--prefix=newpath](自己指定安裝路徑) && make && make install

setuptools 安裝

pip install:pip是Python安裝第三方包最方便的工具,會自動下載依賴

pip 國內(nèi)鏡像:pip install -ihttps://pypi.douban.com/simple/

pip 使用代理: pip --proxy=http://127.0.0.1:2048

pip 安裝包到指定目錄: pip install --install-option="--prefix=$PREFIX_PATH" package_name

python 字符編碼處理 print file file.write請參考http://www.itdecent.cn/p/53bb448fe85b

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容