循序漸進學爬蟲:多線程+隊列爬取豆瓣高分計算機類書籍

上一次的抓取豆瓣高分計算機書籍的案例,采用的是完全同步的方式。即單個線程依次執(zhí)行完所有的邏輯,這樣存在的問題就是我們的爬蟲程序會非常的慢。

所以本文作為上一次案例的升級版本,通過循序漸進、動手實踐的方式來達到更好的學習效果。

相對于上次的案例,本次主要采用多線程+隊列的方式來實現(xiàn)。
用到的包:
import requests
from bs4 import BeautifulSoup
import re
import numpy as np
import csv
import time
import threading
import queue

本次新增了兩個包,threading 和 queue。threading 是用來進行多線程編程的,queue 也就是用來創(chuàng)建隊列。至于更詳細的使用方法,可以上網自行學習。這里就不多做介紹了。

主要流程:
  1. 生成 URL
  2. 創(chuàng)建兩個隊列,一個用保存生成的URL(隊列1),一個保存HTML文檔(隊列2)
  3. 創(chuàng)建若干個線程來下載 HTML,并且保存到隊列2
  4. 創(chuàng)建若干個線程解析文檔
  5. 排序并保存

代碼:

生成分頁URL地址

def make_url(page)

根據(jù)評分排序

def _sort(result)

保存到csv

def save(data)

請求url,下載html

def req_page()

解析html,獲取評分

def get_content()

以上前三個方法都沒有改動,主要是第四個和第五個。

req_page(): 用來請求url。

def req_page():
    while True:
        try:
            url = url_task.get(block=False)
            resp = requests.get(url)
            html = resp.text
            task_html.put(html)
            time.sleep(1)
        except:
            break

以上代碼會被若干個線程執(zhí)行,每一個線程的流程都是不段的從 url_task 也就是我們創(chuàng)建的隊列1中取出一個URL,然后執(zhí)行請求,并把下載到的 HTML 放入隊列2。這里有兩點要注意的。第一個點就是通過 url_task.get() 方法從隊列里拿出任務的時候,由于我們的隊列1是提前設定好的,也就是說當下載線程取任務的時候并不會發(fā)生 queue.Empty 的異常。只有當隊列中的數(shù)據(jù)被處理完的時候才會執(zhí)行 except,那么線程就可以通過這個來退出。第二點是sleep這塊 ,因為請求太頻繁會被豆瓣封掉IP。

get_content():

def get_content():
    if task_html.qsize() > 10:
        while True:
            try:
                html = task_html.get(block=False)
                bs4 = BeautifulSoup(html, "lxml")
                book_info_list = bs4.find_all('li', class_='subject-item')
                if book_info_list is not None:
                    for book_info in book_info_list:
                        list_ = []
                        try:
                            star = book_info.find('span', class_='rating_nums').get_text()
                            if float(star) < 9.0:
                                continue
                            title = book_info.find('h2').get_text().replace(' ', '').replace('\n', '')
                            comment = book_info.find('span', class_='pl').get_text()
                            comment = re.sub("\D", "", comment)
                            list_.append(title)
                            list_.append(comment)
                            list_.append(star)
                            task_res.append(list_)
                        except:
                            continue
            except:
                break

這個函數(shù)首先判斷一下 HTML 文檔隊列(隊列2)的大小是不是大于10,目的是防止解析線程比下載線程執(zhí)行的快,如果解析線程快于下載線程,那么再還沒有下載完所有的URL時,就觸發(fā)隊列的 queue.Empty異常,從而過早退出線程。中間的代碼也是上次案例中的代碼,不同之處也就是以前是從列表中讀取,現(xiàn)在是從隊列中讀取。同時這個函數(shù)也是由多個解析線程執(zhí)行。

主函數(shù):

# 生成分頁url
url_list = make_url(50)
# url 隊列 (隊列1)
url_task = queue.Queue()
for url in url_list:
    url_task.put(url)
# 下載好的html隊列 (隊列2)
task_html = queue.Queue()
# 最終結果列表
task_res = []
threads = []
# 獲取html線程
for i in range(5):
    threads.append(threading.Thread(target=req_page))
# 解析html線程
threads.append(threading.Thread(target=get_content))
threads.append(threading.Thread(target=get_content))
for i in threads:
    i.start()
    i.join()
# 主線程排序保存
save(_sort(task_res))

主函數(shù)的流程也就是最開始寫的五個流程。因為我們創(chuàng)建的所有線程都調用了 join() 方法,那么在最后執(zhí)行排序和保存操作的時候,所有的子線程都已經執(zhí)行完畢了。

最后編輯于
?著作權歸作者所有,轉載或內容合作請聯(lián)系作者
【社區(qū)內容提示】社區(qū)部分內容疑似由AI輔助生成,瀏覽時請結合常識與多方信息審慎甄別。
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發(fā)布,文章內容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務。

相關閱讀更多精彩內容

  • 1.ios高性能編程 (1).內層 最小的內層平均值和峰值(2).耗電量 高效的算法和數(shù)據(jù)結構(3).初始化時...
    歐辰_OSR閱讀 30,194評論 8 265
  • Swift1> Swift和OC的區(qū)別1.1> Swift沒有地址/指針的概念1.2> 泛型1.3> 類型嚴謹 對...
    cosWriter閱讀 11,621評論 1 32
  • Spring Cloud為開發(fā)人員提供了快速構建分布式系統(tǒng)中一些常見模式的工具(例如配置管理,服務發(fā)現(xiàn),斷路器,智...
    卡卡羅2017閱讀 136,506評論 19 139
  • iOS多線程編程 基本知識 1. 進程(process) 進程是指在系統(tǒng)中正在運行的一個應用程序,就是一段程序的執(zhí)...
    陵無山閱讀 6,335評論 1 14
  • 再也不要去愛上誰,讓自己反復飽受噬心之痛。 我曾愛歡天喜地落在你身旁,而今,歇斯底里在心里,陪伴左右的愛意,只愿身...
    王三丁的三丁閱讀 397評論 0 0

友情鏈接更多精彩內容