Pytorch數據前后處理整理

1. PIL Image

??通常, pytorch處理數據集用的是PIL Image的庫, 通過PIL Image來讀取圖像文件, 然后再轉成tensor送給network, 那在送入network之前的這一段都是pytorch的數據前處理部分(data preprocess), 主要是以下幾個步驟

  • 打開圖像圖像, 產生PIL image格式數據
from PIL import Image

img = Image.open('image_path')

??產生的PIL_image格式數據的取值范圍是[0,255]
??形狀(shape)是[h, w, c]
??像素順序是RGB

  • 經過toTensor()之后
from torchvision.transforms import ToTensor

tensor = ToTensor()(PIL_img)

# 或者

np_data = np.asarray(PIL_img)
tensor = ToTensor()(np_data)

?? ToTensor()接收PIL格式的數據, 或者是直接從PIL轉來的np.ndarray格式數據, 只要保證進來的數據取值范圍是[0, 255], 形狀是[h, w, c], 像素順序是RGB, 它就會幫你做下面的事情
?? 取值范圍[0, 255] / 255.0 => [0, 1.0], 數據格式從int8變成了float32
?? 形狀(shape)轉為[c, h, w]
??像素順序依舊是RGB

  • DeblurGAN的數據預處理又多做了一步, 把[0, 1]數據范圍調整到[-1, 1]
from torchvision.transforms import Normalize

tensor = Normalize((0.5, 0.5, 0.5),(0.5, 0.5, 0.5))(tensor)

??(0.5,0.5,0.5)和(0.5,0.5,0.5)分別是三個通道的mean和std, ([0, 1] - mean) / std => [-1, 1]

  • 前處理完成, 進入network
    ?? 所以, 進入network的數據取值范圍是[-1, 1]
    ?? 形狀(shape)是[c, h, w]
    ?? 像素順序是RGB

??經過了Network的處理之后, 出來的還是一個三通道的圖像, 取值范圍依然是[-1, 1](在最后一步經過了clamp(-1,1)), 形狀(shape)是[c, h, w], 像素順序是RGB, 要得到可以看的圖像, 那就要把前面的步驟反著再來一遍

  • 從tensor獲取numpy格式數據ndarray, 調整shape與PIL Image相同
import numpy as np

image_numpy = image_tensor[0].cpu().float().numpy()
image_numpy = np.transpose(image_numpy, (1, 2, 0))

??transpose(image_numpy, (1, 2, 0))做的事情就是調整shape, 將形狀從[h, w, c]調整到[c, h, w]

  • 調整數據范圍從[-1, 1] => [0, 255.0]
image_numpy = (image_numpy+ 1) / 2.0 * 255.0

??這個時候的數據格式還是float32

  • 將數據格式float32 => int8
import numpy as np

image_numpy.astype(np.uint8)
  • 轉為PIL格式
from PIL import Image

img = Image.fromarray(image_numpy)

?? 這樣, 便得到了PIL格式的輸出圖像, 取值范圍[0,255], 數據格式uint8
?? 形狀(shape)是[h, w, c]
?? 像素順序是RGB

?? 其實, 從tensor->PIL, pytorch有更方便的做法, 就是ToPILImage

#PIL-> tensor -> PIL
from torchvision.transforms import ToPILImage

PIL_img = Image.open('test_pic.jpeg')
tensor_from_PIL = ToTensor()(PIL_img)
img = ToPILImage()(tensor_from_PIL)
#PIL -> np.ndarray -> tensor -> PIL
from torchvision.transforms import ToPILImage

PIL_img = Image.open('test_pic.jpeg')
np_img = np.asarray(PIL_img)
tensor_from_np = ToTensor()(np_img)
img = ToPILImage()(tensor_from_np)

?? ToPILImage()會自動幫你做下面的事情

  • 將每個元素*255
  • float32 -> uint8
  • tensor -> ndarray
  • 對ndarray對象做transpose(1, 2, 0)
  • 利用Image.fromarray(ndarray)轉為PIL格式

??但是DeblurGAN的輸出范圍是[-1, 1], 如果要直接用ToPILImage(), 那在用之前要先把數據范圍[-1, 1] => [0, 1]

2. Opencv

?? 上文中, 我們一直在強調像素順序是RGB, 其實在PIL->tensor->PIL的過程中, 像素順序是沒有變化的, 但是如果是用opencv來打開圖像, 像素順序就變成了BGR, 這點要注意

from PIL import Image
import cv2
import numpy as np

cv_img = cv2.imread('image_path')
cv2.imshow("opencv_img", cv_img)

PIL_img = Image.open('image_path')
np_img = np.asarray(PIL_img)
np_bgr_img = cv2.cvtColor(np_img, cv2.COLOR_RGB2BGR)

cv2.imshow("rgb_img", np_img)
cv2.imshow("bgr_img", np_bgr_img)

cv2.waitKey()

?? opencv讀取出來的格式是ndarray, 取值范圍[0,255], 數據格式uint8
?? 形狀(shape)是[h, w, c]
?? 像素順序是BGR

?? 在上一段代碼的實驗中, 我們分別看opencv_img rgb_img bgr_img是以下這樣的

opencv_img
rgb_img
bgr_img

??也就是說, opencv認的圖像格式是uint8, [0,255], 形狀是[h, w, c], 像素順序是BGR, 如果直接把RGB順序的ndarray給opencv讓它顯示, 就會產生中間那張怪圖

??如果在用pytorch的時候, 圖像是用opencv得到的, 那除了前面講的那些步驟之外, 在一開始需要把cv2.imread('image_path')得到的ndarray用cv2.cvtColor(np_img, cv2.COLOR_BGR2RGB)先轉成RGB順序的格式

?? 多說一句, 在用cv2.imread()的過程中, 出現報錯

The function is not implemented. Rebuild the library with Windows, GTK+2.x or Carbon support. If you are on Ubuntu or Debian, install libgtk2.0-dev and pkg-config, then re-run cmake or configure script.

?? 我們的opencv是用conda install opencv直接裝的, 要解決這個問題, 裝一下opencv-python就可以了

pip install opencv-python

Ubuntu下調用opencv的cv2.imshow()錯誤

參考文獻

python中PIL.Image和OpenCV圖像格式相互轉換
Pytorch之深入torchvision.transforms.ToTensor與ToPILImage
numpy、cv2等操作圖片基本操作
PyTorch載入圖片后ToTensor解讀(含PIL和OpenCV讀取圖片對比
【pytorch】圖像基本操作
OpenCV、Skimage、PIL圖像處理的細節(jié)差異

最后編輯于
?著作權歸作者所有,轉載或內容合作請聯系作者
【社區(qū)內容提示】社區(qū)部分內容疑似由AI輔助生成,瀏覽時請結合常識與多方信息審慎甄別。
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發(fā)布,文章內容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務。

相關閱讀更多精彩內容

友情鏈接更多精彩內容