1. SRGAN
論文題目:Photo-Realistic Single Image Super-Resolution Using a Generative Adversarial Network
存在的問題
盡管目前在超分辨率的準(zhǔn)確率和速度方面有了很大的進(jìn)步,但是還是有一個(gè)未解決的問題:當(dāng)我們用一大較大的放大倍數(shù)的時(shí)候,我們?nèi)绾位謴?fù)出出色的畫面質(zhì)地細(xì)節(jié)?目前的大部分研究都聚焦于最小化重建均方誤差。以此作為優(yōu)化的結(jié)果會(huì)帶來很高的PSNR(峰值信噪比),但是通常的結(jié)果是他們?nèi)狈Ω哳l細(xì)節(jié)以及在感知上不與原圖匹配。
解決的問題
這篇論文,提出了一種基于生成對(duì)抗網(wǎng)絡(luò)的超分辨率重建。此外,將損失函數(shù)(MSE)改為感知損失函數(shù)(perception loss function),其由對(duì)抗損失(adversarial loss)和內(nèi)容損失(content loss)構(gòu)成。
本文要點(diǎn)
1. 對(duì)抗網(wǎng)絡(luò)結(jié)構(gòu)

(1) 生成網(wǎng)絡(luò)(generator network):
在Johnson的論文的靈感下,我們應(yīng)用了block layout. 具體的說,我們?cè)赽atch-normalization層后面用了兩個(gè)3x3卷積核和64個(gè)feature maps的卷積層。另外用了ParametricReLU作為激活函數(shù),
此外,我們還運(yùn)用了深度殘差網(wǎng)絡(luò)(ResNet)和skip-connection。
(2) 判別網(wǎng)絡(luò)(discriminator network):
判別網(wǎng)絡(luò)用來判別真實(shí)圖形和從生成網(wǎng)絡(luò)生成的圖片。用了LeakyReLU激活函數(shù),避免了在網(wǎng)絡(luò)中使用max-pooling。它包含了八個(gè)卷積層。Strided卷積被用作減少圖片分辨率當(dāng)每次特征翻倍。
這個(gè)網(wǎng)絡(luò)就是為了訓(xùn)練一個(gè)生成模型G,其目標(biāo)是為了使判別網(wǎng)絡(luò)迷惑,以至于分不清超分辨率重建的圖片和真實(shí)的圖片。
2. 感知損失函數(shù)(Perceptual loss function)

(1) Content Loss
不采用像素級(jí)的均方誤差, 我們采用VGG損失. 我們定義VGG損失為目標(biāo)圖片與預(yù)測(cè)圖片的歐式距離。

(2) Adversarial Loss
生成損失被定義為判別網(wǎng)絡(luò)判斷的概率:

D(GI)部分指的判別網(wǎng)絡(luò)判定重建圖片是原始高分辨率圖的概率。為了更好的計(jì)算,我們最小化--logD(GI),而不是log[1-D(GI)]。