node.js爬蟲爬取拉勾網(wǎng)職位信息

簡介

用node.js寫了一個簡單的小爬蟲,用來爬取拉勾網(wǎng)上的招聘信息,共爬取了北京、上海、廣州、深圳、杭州、西安、成都7個城市的數(shù)據(jù),分別以前端、PHP、java、c++、python、Android、ios作為關鍵詞進行爬取,爬到的數(shù)據(jù)以json格式儲存到本地,為了方便觀察,我將數(shù)據(jù)整理了一下供大家參考

數(shù)據(jù)結果

數(shù)據(jù)匯總

一線城市各職位對比

北京各職位數(shù)量對比
上海各職位數(shù)量對比
廣州各職位數(shù)量對比
深圳各職位數(shù)量對比
杭州各職位數(shù)量對比

爬取過程展示

控制并發(fā)進行爬取

爬取到的數(shù)據(jù)文件

json數(shù)據(jù)文件

爬蟲程序

由于這個爬蟲程序比較簡單,所以并沒有貼代碼,只是將大體思路分享一下,想看代碼的朋友可以去我的github上查看

實現(xiàn)思路

請求拉鉤網(wǎng)的https://www.lagou.com/jobs/positionAjax.json?needAddtionalResult=false&city=城市&kd=關鍵詞&pn=頁數(shù)地址,拉鉤會返回一個包含所要請求職位信息的數(shù)據(jù),返回的數(shù)據(jù)為json格式,所以省去了使用cheerio去解析網(wǎng)頁,直接用superagent來請求上述地址,其中參數(shù)city是為城市,kd為所要搜索的關鍵詞,pn為要請求的頁數(shù),成功返回數(shù)據(jù)后,將數(shù)據(jù)儲存在本地即可。其中使用了async來控制并發(fā)數(shù)量,使得并發(fā)數(shù)不超過3,防止被封ip

代碼地址及使用

最后編輯于
?著作權歸作者所有,轉載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務。

相關閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容