- Today
- Total
- OOP
- leetcode
- dp
- ๊ทธ๋ฆฌ๋
- ํ๋ก๊ทธ๋๋จธ์ค
- spring
- ์๋ฃ๊ตฌ์กฐ
- pytorch
- ๋ฐฑ์ค
- ๋ฌธ๋ฒ
- array
- ์๋ฐ์์ ์
- ๋ฒจ๋งํฌ๋
- ์์์ ๋ ฌ
- ์กธ์ ์ํ
- PS
- database
- ๊ตฌํ
- Graph
- ๋ฐ์ดํฐ๋ฒ ์ด์ค
- ์๋ฐ
- Algorithm
- MST
- BFS
- CS
- ๋ค์ต์คํธ๋ผ
- tree
- ๋ฐฑ์๋
- java
- ์ธํด
Partially Committed
[Review] Beyond a Gaussian Denoiser: Residual Learnung for Deep CNN for Image Denoising (IEEE 2017) ๋ณธ๋ฌธ
[Review] Beyond a Gaussian Denoiser: Residual Learnung for Deep CNN for Image Denoising (IEEE 2017)
WonderJay 2023. 3. 13. 15:17
1. Introduction
Image denoising ์ ๊ธฐ๋ณธ์ ์ธ ๋ชฉ์ ์ noisy observation y ๋ก๋ถํฐ ๊นจ๋ํ ์ด๋ฏธ์ง x ๋ฅผ ์ป์ด๋ด๋ ๊ฒ์ด๋ค. ( y = x +v ) ์ด๋ v ๋ AWGN(additive white Gaussian noise with standard deviation) ์ผ๋ก ๊ฐ์ ํ๋ค. ๋ณธ ๋ ผ๋ฌธ์์ ์ ์ํ๋ DnCNN ๋ชจ๋ธ์ image denoising ์ plain discriminative learning problem ์ผ๋ก ๊ฐ์ฃผํ๋ค. ์ด๋ noisy image ๋ก๋ถํฐ noise ๋ฅผ feed-forward convolutional neural network ๋ก ๋ถ๋ฆฌํ๊ณ ์ ํ๋ค๋ ๊ฒ์ด๋ค. CNN ์ ์ฌ์ฉํ๋ ์ด์ ๋ ์๋์ ๊ฐ๋ค.
1. deep ํ CNN ๊ตฌ์กฐ๋ ์ด๋ฏธ์ง์ ํน์ฑ์ ์ถฉ๋ถํ ๊ณ ๋ คํ ์ ์์๋งํผ capacity, flexibility ํน์ฑ์ด ์ข๋ค
2. CNN ์ ํ์ต์ํค๋ ๋ฐ์ ์ฌ์ฉํ๋ regularization , learning method ๊ฐ ์๋น ์์ค ๋ฐ์ ํ๊ธฐ ๋๋ฌธ์ด๋ค.
3. CNN ์ GPU ์์ ๋ณ๋ ฌ ์ปดํจํ ํ๊ฒฝ์ ์ ํฉํ๊ธฐ ๋๋ฌธ์ run time performance ๊ฐ ์ข๋ค.
์์ ๊ฐ์ ์ด์ ๋ก CNN ์ ํ์ฉํ ๋ชจ๋ธ์ธ DnCNN ๋ชจ๋ธ์ ์ ์ํ๋ค. denoised image ๋ฅผ ๋ฐ๋ก outputing ํ๋ ๊ฒ์ด ์๋๋ผ residual image ๋ฅผ outputing ํ๋ค. DnCNN ์์๋ hidden layer ์์ latent clean image ๋ฅผ remove ํ๋ ๋ฐฉํฅ์ผ๋ก ๋์ํ๋ค๋ ๊ฒ์ด๋ค. BN(batch normalization) ์ ์ด๋ฅผ ๋ณด๋ค stable ํ๊ณ training performance ๋ฅผ ์ฆ๊ฐ์์ผ์ฃผ๋ ์์ฉ์ ํ๋ค.
๋ณธ ๋ ผ๋ฌธ์ contribution ์ ์๋์ ๊ฐ์ด ์์ฝํ ์ ์๋ค.
1. Gaussian denoising ์ ์ํ end-to-end trainable deep CNN ๋ชจ๋ธ์ ์ ์ํ๋ค. direct ํ๊ฒ latent clean image ๋ฅผ estimate ํ๋ ๋ฐฉ๋ฒ์ด ์๋ noisy observation ์ผ๋ก๋ถํฐ latent clean image ๋ฅผ ์ ๊ฑฐํ๋ ๋ฐฉํฅ์ผ๋ก ์งํํ๋ค.
2. residual laerning ๊ณผ batch noramlization ์ ํตํด ํ์ต ์๋ ๋ฟ๋ง์ด ์๋๋ผ denoising performance ๊ฐ ๋์์ง๋ ๊ฒ์ ๋ฐ๊ฒฌํ์๋ค.
3. DnCNN ๋ชจ๋ธ์ ์ผ๋ฐ์ ์ผ๋ก ํ์ฅํ๊ธฐ ์ฝ๋ค.
2. Related Work
B. Residual Learning (use 'skip connection' !) and Batch Normalization
CNN ๊ทผ๋ณธ์ ์ผ๋ก ๊ฐ์ง๋ ๋ฌธ์ ๋ depth ๊ฐ ์ฆ๊ฐํ ์๋ก performance ๊ฐ ๊ฐ์ํ๋ค๋ ๊ฒ์ด๋ค. ์ด๋ ์ผ๋ฐ์ ์ผ๋ก gradient vanishing problem ์ ์ํด ๋ฐ์ํ๋๋ฐ, skip connection ์ ํ์ฉํ residual learning strategy ๋ก ์ด๋ฅผ ๋ฐฉ์งํ๊ณ CNN ๋ชจ๋ธ์ ๋ณด๋ค ๊น๊ฒ stacking ํ ์ ์๋ค.
Batch Normalization ์ ๋ํด์ ๊ฐ๋จํ ์์๋ณด์. Mini-batch stochastic gradient descent(SGD) ๊ฐ ๊ฐ๋จํ๋ฉด์๋ ํจ๊ณผ์ ์ด๊ธฐ ๋๋ฌธ์ CNN model ์ optimizer ๋ก ์ข ์ข ์ฌ์ฉํ์ง๋ง, training ๊ณผ์ ์์ input ์ distribution ์ด ๋ค๋ฅธ ๊ฒฝ์ฐ๊ฐ ์๋ค. ์ด๋ฅผ covariate shift ๋ผ๊ณ ํ๋๋ฐ, ์ด๋ฌํ ํ์์ ์ํ์ฌ training ์ด ์ด๋ ค์์ง๋ ๊ฒฐ๊ณผ๊ฐ ๋ฐ์ํ๋ค. Batch normalization ์ผ๋ก ํ์ฌ๊ธ ์ด๋ฅผ ํด๊ฒฐํ ์ ์๋ค. ๊ฐ๊ฐ์ layer ๋ฅผ normalizing ํจ์ผ๋ก์จ ์ ์ฌํ ๋ถํฌ๋ฅผ ๊ฐ์ง๋๋ก ํด์ stable ํ๋ฉด์๋ training speed ๋ฅผ ๋์ผ ์ ์๋ค. ์์ฝํ์๋ฉด SGD ์ ๊ฒฝ์ฐ CNN ์ ์ฌ์ฉ๋๋ ํํ ๋ฐฉ๋ฒ์ด์ง๋ง ํด๋น optimizer ๋ internal covariate shift ์ ์ํด training speed ๊ฐ ๊ธ๊ฒฉํ ๋จ์ด์ง๋ ๊ฒฐ๊ณผ๋ฅผ ์ผ๊ธฐํ๋ค. ์ด๋ฅผ ๋ฐฉ์งํ๊ธฐ ์ํ ๋ฐฉ๋ฒ์ผ๋ก Batch normalization ๊ธฐ๋ฒ์ด ์์ฃผ ํจ๊ณผ์ ์ด๋ผ๋ ๊ฒ์ด ์ค์ํ๋ค.
3. The Proposed Denoising CNN Model
DnCNN ๋ชจ๋ธ์ architecture ๋ VGG network ๋ฅผ image denoising ์ ์ ํฉํ๋๋ก modify ํ ๊ฒ์ด๋ค. model ํ์ต์ ์ํด residual learning ์ batch normalization ์ ์ฌ์ฉํ์๋ค.
A. Network Depth
DnCNN ๋ชจ๋ธ์ input ์ noisy observation ์ด๋ค. (y = x + v) ๊ธฐ์กด์ ๋ชจ๋ธ๋ค์ F(y) = x ์ ๋ํญํ๋ mapping function ์ธ F ๋ฅผ ์ป๋ ๋ฐ์ ์ด์ ์ ๋์ง๋ง, DnCNN ์ ๊ฒฝ์ฐ์๋ residual learning ์ ํ๊ธฐ ๋๋ฌธ์ R(y) ~= v ๋ฅผ ์ป์ด๋ด๊ณ x = y - R(y) ์ ๊ฐ์ ๋ฐฉ์์ผ๋ก Clean image ๋ฅผ ์ป๊ณ ์ ํ๋ค. desired residual image ์ estimated residual image ๊ฐ์ averaged MSE ๋ฅผ loss function ์ผ๋ก ์ฌ์ฉํ๋ค.
--- ์์ฑ์ค ---