本專題以項目為驅(qū)動,從基本的網(wǎng)絡請求和頁面解析開始,逐步深入到 scrapy爬蟲框架,在講解完庫之后,會跟上對應的實踐項目,有興趣朋友的可以跟著實踐自己敲代碼或者完成我留下的 bug,把代碼發(fā)到評論區(qū),我會不定時查看。
本專題假設讀者有一定的python基礎,所以并不會講python的基本語法,遇到語法問題可以評論求助。
因為本專題涉及的庫比較多,而且作者不能把時間全部用在更新上,所以本專題完成的時間可能較長,在本專題中會涉及到以下主題:
1、requests 庫
(網(wǎng)絡請求)
2、lxml 庫 和 xpath 用法
(htnl頁面解析)
4、html 網(wǎng)頁的解析
5、數(shù)據(jù)的處理和存儲(json,csv)
6、threading 庫 (多線程)
7、asyncio 庫 (異步)
8、數(shù)據(jù)庫 以及 orm
9、scrapy 爬蟲框架
在寫這些的時候,我也在不斷地學習,如果我在學習的過程中發(fā)現(xiàn)了更好的庫,就會換一個庫講,但是上面所列的點是不會變的。
最后,如果在文章中出現(xiàn)了錯誤,歡迎在評論中指出,我會在后續(xù)的更新中修改。
謝謝