1.將訪問過的url保存到數(shù)據(jù)庫中,每次訪問的時候通過數(shù)據(jù)庫查詢;效率低,使用少。
2.將訪問過的url保存到Set中,內(nèi)存使用很大。
3.url經(jīng)過md5等方法哈希厚保存到set中(scrapy使用該方法去重)
4.用bitmap方法,將訪問過的url通過hash函數(shù)映射到某一位,沖突非常高。
5.bloomfilter方法對bitmap進行改進,多重hash函數(shù)降低沖突。1億個url約占用內(nèi)容12M。
爬蟲去重策略
最后編輯于 :
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務。
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務。