僅需三行Python代碼,讓數(shù)據(jù)預處理速度提高2到6倍!

我們熟知Python語法簡單、功能強大、可擴展性強,但是運行速度慢是解釋型語言的通病,Python 也不例外。

image.png

在 Python 中,我們可以找到原生的并行化運算指令。今天給大家分享 3 行代碼,大大加快數(shù)據(jù)預處理的速度。


image.png

在默認情況下,Python 程序是單個進程,使用單 CPU 核心執(zhí)行。而大多數(shù)硬件都至少搭載了雙核處理器。這意味著如果沒有進行優(yōu)化,在數(shù)據(jù)預處理的時候會出現(xiàn)「一核有難九核圍觀」的情況——超過 50% 的算力都會被浪費。

幸運的是,Python 庫中內(nèi)建了一些隱藏的特性,可以讓我們充分利用所有 CPU 核心的能力。通過使用 Python 的 concurrent.futures 模塊,我們只需要 3 行代碼就可以讓一個普通的程序轉(zhuǎn)換成適用于多核處理器并行處理的程序。

一、標準方法

讓我們舉一個簡單的例子,在單個文件夾中有一個圖片數(shù)據(jù)集,其中有數(shù)萬張圖片。

在這里,我們決定使用 1000 張。我們希望在所有圖片被傳遞到深度神經(jīng)網(wǎng)絡之前將其調(diào)整為 600×600 像素分辨率的形式。以下是你經(jīng)常會在 GitHub 上看到的標準 Python 代碼:

import glob
import os
import cv2


### Loop through all jpg files in the current folder 
### Resize each one to size 600x600
for image_filename in glob.glob("*.jpg"):
 ### Read in the image data
 img = cv2.imread(image_filename)

 ### Resize the image
 img = cv2.resize(img, (600, 600)) 

上面的程序遵循你在處理數(shù)據(jù)腳本時經(jīng)常看到的簡單模式:

  1. 首先從需要處理內(nèi)容的文件(或其他數(shù)據(jù))列表開始。
  2. 使用 for 循環(huán)逐個處理每個數(shù)據(jù),然后在每個循環(huán)迭代上運行預處理。

讓我們在一個包含 1000 個 jpeg 文件的文件夾上測試這個程序,看看運行它需要多久:

time python standard_res_conversion.py

在我的酷睿 i7-8700k 6 核 CPU 上,運行時間為 7.9864 秒!在這樣的高端 CPU 上,這種速度看起來是難以讓人接受的,看看我們能做點什么。

二、更快的方法

為了便于理解并行化的提升,假設我們需要執(zhí)行相同的任務,比如將 1000 個釘子釘入木頭,假如釘入一個需要一秒,一個人就需要 1000 秒來完成任務。四個人組隊就只需要 250 秒。

在我們這個包含 1000 個圖像的例子中,可以讓 Python 做類似的工作:

  • 將 jpeg 文件列表分成 4 個小組;
  • 運行 Python 解釋器中的 4 個獨立實例;
  • 讓 Python 的每個實例處理 4 個數(shù)據(jù)小組中的一個;
  • 結(jié)合四個處理過程得到的結(jié)果得出最終結(jié)果列表。

這一方法的重點在于,Python 幫我們處理了所有棘手的工作。我們只需告訴它我們想要運行哪個函數(shù),要用多少 Python 實例,剩下的就交給它了!只需改變?nèi)写a。實例:

import glob
import os
import cv2
import concurrent.futures


def load_and_resize(image_filename):
 ### Read in the image data
 img = cv2.imread(image_filename)

 ### Resize the image
 img = cv2.resize(img, (600, 600)) 


### Create a pool of processes. By default, one is created for each CPU in your machine.
with concurrent.futures.ProcessPoolExecutor() as executor:
 ### Get a list of files to process
 image_files = glob.glob("*.jpg")

 ### Process the list of files, but split the work across the process pool to use all CPUs
 ### Loop through all jpg files in the current folder 
 ### Resize each one to size 600x600
 executor.map(load_and_resize, image_files)

從以上代碼中摘出一行:

with concurrent.futures.ProcessPoolExecutor() as executor:

你的 CPU 核越多,啟動的 Python 進程越多,我的 CPU 有 6 個核。實際處理代碼如下:

executor.map(load_and_resize, image_files)

「executor.map()」將你想要運行的函數(shù)和列表作為輸入,列表中的每個元素都是我們函數(shù)的單個輸入。由于我們有 6 個核,我們將同時處理該列表中的 6 個項目!

如果再次用以下代碼運行我們的程序:

time python fast_res_conversion.py

我們可以將運行時間降到 1.14265 秒,速度提升了近 6 倍!

最后

注意:在生成更多 Python 進程及在它們之間整理數(shù)據(jù)時會有一些開銷,所以速度提升并不總是這么明顯。但是總的來說,速度提升還是非常可觀的。

好了,以上是今天的內(nèi)容分享,如果對你有幫助的話,點個三連再走吧~

image.png
?著作權歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務。

相關閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容