관리 메뉴

Partially Committed

[Review] Zero-Reference Deep Curve Estimation for Low-Light Image Enhancement (CVPR2020) λ³Έλ¬Έ

πŸ‘¨‍πŸ‘§‍πŸ‘¦ ν™œλ™/Low-light Image enhancement(μ‘Έμ—…μž‘ν’ˆ)

[Review] Zero-Reference Deep Curve Estimation for Low-Light Image Enhancement (CVPR2020)

WonderJay 2023. 2. 4. 14:13
728x90
λ°˜μ‘ν˜•
SMALL

 

Zero-Reference Deep Curve Estimation for Low Light Image Enhancement (CVPR 2020)

* Low - light Enhancement


0. Abstract

μœ„ 논문은 Zero-Reference Deep Curve Estimation(Zero-DCE) 방법을 μ œμ‹œν•œλ‹€. ν•΄λ‹Ή 방법은 light - enhancement λ₯Ό deep network λ₯Ό μ΄μš©ν•œ image-specific curve estimation dask 둜 formulate ν•œλ‹€. dynamic range 둜 주어진 image λ₯Ό μ‘°μ •ν•˜κΈ° μœ„ν•΄ pixel-wise 및 high-order fcurve λ₯Ό μΆ”μ •ν•œλ‹€. curve estimation 은 pixel κ°’ λ²”μœ„, monotonicity, differentiability λ₯Ό κ³ λ €ν•˜μ—¬ μ„€κ³„λ˜μ—ˆλ‹€. Zero-DCE λŠ” reference image 에 λŒ€ν•΄ relaxed assumption 을 ν•  수 μžˆλ‹€λŠ” μ μ—μ„œ μ’‹λ‹€. train μ‹œ paired or unpaired data κ°€ ν•„μš”ν•˜μ§€ μ•Šλ‹€λŠ” μ˜λ―Έμ΄λ‹€. 이λ₯Ό κ°€λŠ₯ν•˜κ²Œ ν•˜λŠ” 것은 non-reference loss function 을 주의깊게 μ„€κ³„ν–ˆκΈ° λ•Œλ¬Έμ΄λ‹€. λ³Έ λ…Όλ¬Έμ—μ„œ μ œμ‹œν•˜λŠ” 방법은 직관적이고 κ°„λ‹¨ν•œ λΉ„μ„ ν˜• curve 둜 달성할 수 μžˆλ‹€. λ‹¨μˆœν•˜μ§€λ§Œ μΌλ°˜ν™”λœ μ„±λŠ₯을 보여주며, λ‹€μ–‘ν•œ μ‘°κ±΄μ—μ„œ 잘 μž‘λ™ν•œλ‹€.

1. Introduction

  ν™˜κ²½ 및 기술적 μ œμ•½μ— λ”°λΌμ„œ μ‘°λͺ… 쑰건이 μ΅œμ ν™”λ˜μ§€ μ•Šμ•„μ„œ 저쑰도 이미지가 μ–»μ–΄μ§€λŠ” κ²½μš°κ°€ 많고 μ΄λŠ” 물체/μ–Όκ΅΄ 인식 κ³Ό 같은 task μ—μ„œ 잘λͺ»λœ 메세지 μ „λ‹¬λ‘œ 이어진닀. λ³Έ μ—°κ΅¬μ—μ„œλŠ” deep learning 기반의 Zero-Reference Deep Curve Estimation(Zero DCE) 을 μ΄μš©ν•˜μ—¬ low-light image enhancement task λ₯Ό ν•΄κ²°ν•œλ‹€. κ· μΌν•˜μ§€ μ•Šκ³  저쑰도 쑰건에 λŒ€ν•˜μ—¬ λŒ€μ²˜κ°€ κ°€λŠ₯ν•˜λ‹€. 이λ₯Ό μœ„ν•΄ image to image mapping 이 μ•„λ‹Œ image-specific curve-estimation problem 으둜 μž¬κ΅¬μ„±ν•˜μ—¬, 저쑰도 μ˜μƒμ„ input 으둜 ν•˜μ—¬ high-order curve λ₯Ό output 으둜 μƒμ„±ν•œλ‹€. ν•΄λ‹Ή curve λŠ” enhanced image λ₯Ό μ–»κΈ° μœ„ν•œ input 의 dynamic range 에 λŒ€ν•œ pixel-wise adjustment 에 μ‚¬μš©λœλ‹€. curve estimation 은 인접 ν”½μ…€μ˜ contrast λ₯Ό μœ μ§€ν•  수 μžˆλ„λ‘ μ„€κ³„λ˜μ—ˆλ‹€.

  μ€‘μš”ν•œ 것은 ν•΄λ‹Ή 방법이 λ―ΈλΆ„ κ°€λŠ₯ν•˜κΈ° λ•Œλ¬Έμ— deep convolutional neural network λ₯Ό μ΄μš©ν•˜μ—¬ curve 의 parameter 을 μ‘°μ •ν•  수 μžˆλ‹€λŠ” 것이닀. λ³Έ λ…Όλ¬Έμ—μ„œ μ œμ•ˆν•˜λŠ” network λŠ” κ°€λ²Όμš°λ©° 보닀 robust ν•˜κ³  accurate ν•œ dynamic range adjustment λ₯Ό μœ„ν•΄ 반볡적으둜 μ μš©λœλ‹€.

  ν•΄λ‹Ή λ°©λ²•μ˜ μž₯점은 zero-reference λΌλŠ” 것이닀. CNN μ΄λ‚˜ GAN based method μ™€λŠ” 달리 paired or unpainred data κ°€ training λ‹¨κ³„μ—μ„œ ν•„μš”ν•˜μ§€ μ•Šλ‹€. 이λ₯Ό μœ„ν•΄ 4 가지 μ’…λ₯˜μ˜ non-reference loss function 을 μ‚¬μš©ν•œλ‹€. (spatial consistency loss, exposure control loss, color constancy loss, illumination smoothness loss) Zero-DCE μ—μ„œλŠ” CNN, GAN based method 와 겨룰 수 μžˆλŠ” μ„±λŠ₯을 λ³΄μœ ν•œλ‹€.(paired or unpaired data κ°€ μ—†λŠ”λ°λ„!) Zero-DCE λŠ” image 의 고유 색상과 λ””λ°νŒ…μ„ μœ μ§€ν•˜λ©° image λ₯Ό λ°κ²Œν•œλ‹€. CNN based 와 GAN based 방법은 under - enhancement, over-enhancement λ₯Ό μ•ΌκΈ°ν•œλ‹€.

λ³Έ μ—°κ΅¬μ˜ Contribution 을 μš”μ•½ν•˜λ©΄ μ•„λž˜μ™€ κ°™λ‹€.

1. 과적합을 ν”Όν•˜κΈ° μœ„ν•΄ paired 및 unpaired train data 와 독립적인 low-light wnhancement network λ₯Ό μ œμ•ˆν•œλ‹€. λ‹€μ–‘ν•œ μ‘°λͺ… 쑰건에 λŒ€ν•΄μ„œ μΌλ°˜ν™”λœ μ„±λŠ₯을 보인닀.

2. 반볡적으둜 μ μš©ν•˜μ—¬ pixel-wise 의 higher-order curve λ₯Ό μ„€κ³„ν•œλ‹€. μ΄λŸ¬ν•œ image 별 curve λŠ” 넓은 dynamic range λ‚΄μ—μ„œ mapping 을 효과적으둜 μˆ˜ν–‰ν•  수 μžˆλ‹€. (Dynamic range λž€ ν‘œν˜„ν•  수 μžˆλŠ” κ°€μž₯ μ–΄λ‘μš΄ 정도와 κ°€μž₯ 밝은 μ •λ„μ˜ 차이λ₯Ό μ˜λ―Έν•œλ‹€. Dynamic range κ°€ λ„“μœΌλ©΄ 밝은 λΆ€λΆ„κ³Ό μ–΄λ‘μš΄ 뢀뢄을 ν‘œν˜„ν•˜λŠ” λ²”μœ„κ°€ λ„“μ–΄μ„œ 더 λ§Žμ€ 정보λ₯Ό 전달할 수 있게 λ˜λŠ” 것이닀.)

3. image enhancement μ„±λŠ₯을 κ°„μ ‘μ μœΌλ‘œ ν‰κ°€ν•˜λŠ” task-specific non-reference loss function 을 톡해 reference image κ°€ 없을 λ•Œ network λ₯Ό training ν•  수 μžˆλŠ” κ°€λŠ₯성을 보여쀀닀.

  Zero-DCE λ°©λ²•μœΌλ‘œ 적은 μ—°μ‚°μœΌλ‘œλ„ μ–Όκ΅΄ 인식과 같은 높은 μˆ˜μ€€μ˜ μ‹œκ°μ μΈ μž‘μ—…μ„ κ°œμ„ ν•  수 μžˆλ‹€. GPU μ—μ„œ 640x480x3 image 의 경우 500 FPS ν›ˆλ ¨μ— 30 뢄이 μ†Œμš”λœλ‹€.

 

2. Related Work

[Conventional Methods] HE-based methods(Histogram Equalization) λŠ” μ΄λ―Έμ§€μ˜ dynamic range λ₯Ό ν™•μž₯ν•˜μ—¬ light enhancement λ₯Ό μˆ˜ν–‰ν•œλ‹€. 일반적으둜 image λ₯Ό reflectance 와 illumination 으둜 λΆ„ν•΄ν•˜λŠ” Retinex theory λ₯Ό μ‚¬μš©ν•œλ‹€. reflectance λŠ” 일반적으둜 λͺ¨λ“  μ‘°λͺ… μ‘°κ±΄μ—μ„œ consistenct ν•œ κ²ƒμœΌλ‘œ κ°€μ •ν•˜λ―€λ‘œ light enhancement λŠ” illumination estimation problem 으둜 바라볼 수 μžˆλ‹€. Illumination map 을 estimation ν•˜λŠ” 것은 optimization problem 을 ν•΄κ²°ν•˜λŠ” 것이닀. histogram distribution 의 λ³€ν™”λ₯Ό κ°€μ Έμ˜€κ±°λ‚˜ λΆ€μžμ—°μŠ€λŸ¬μš΄ 물리 λͺ¨λΈμ— μ˜μ‘΄ν•˜λŠ” 전톡적인 λ°©λ²•κ³ΌλŠ” 달리 Zero-DCE method λŠ” image-specific curve mapping 을 ν†΅ν•΄μ„œ enhanced result λ₯Ό μƒμ„±ν•œλ‹€. μ΄λŸ¬ν•œ μ „λž΅μ€ λΉ„ν˜„μ‹€μ μΈ artifcats λ₯Ό μƒμ„±ν•˜μ§€ μ•ŠλŠ”λ‹€.

  Yuan κ³Ό Sun 은 automatic exposure correction method λ₯Ό μ œμ•ˆν•˜μ˜€λ‹€. ν•΄λ‹Ή 방법은 주어진 이미지에 λŒ€ν•œ S-shape curveκ°€ global optimization algorithm 에 μ˜ν•΄ estimation 되고 각각의 segemnted region 은 curve mapping 에 μ˜ν•΄ optimal zone 으둜 push λœλ‹€. μ΄λŸ¬ν•œ Yuan and Sun λ°©λ²•κ³ΌλŠ” 달리 Zero-DCE λŠ” μˆœμˆ˜ν•œ 데이터 기반 λ°©λ²•μœΌλ‘œ non-reference loss function 을 μ„€κ³„ν•¨μœΌλ‘œμ¨ multiple light enhancement factors 듀을 κ³ λ €ν•˜κΈ° λ•Œλ¬Έμ— 보닀 robust ν•˜κ³  image 의 dynamic range κ°€ 더 λ„“μœΌλ©° μ—°μ‚°λŸ‰μ΄ 적닀.

 

[Data-Driven Methods] Data-Driven method λŠ” CNN-based 와 GAN-based method 으둜 λΆ„λ₯˜ν•  수 μžˆλ‹€. λŒ€λΆ€λΆ„μ˜ CNN-based solution 은 paired data 에 μ˜μ‘΄ν•˜λŠ” supervised trainning 을 μ§„ν–‰ν•˜λ―€λ‘œ resource-intensive ν•˜λ‹€λŠ” νŠΉμ§•μ΄ μžˆλ‹€. Paired data λŠ” automatic light degradation, changing the settings of cameras during data capturing, synthesizing data via image retouching 등을 톡해 μˆ˜μ§‘λœλ‹€. 예λ₯Ό λ“€μ–΄ LL-Net 은 Gamma correction 을 simulation ν•˜λ„λ‘ ν›ˆλ ¨λœ λ„€νŠΈμ›Œν¬μœΌλ‘œ LOL dataset 은 LL-Net μœΌλ‘œλΆ€ν„° 얻어진 paired low/normal light image data sets 이닀.

  μ΅œκ·Όμ— Wang et al 은 illumuination map 의 좔정에 μ˜ν•œ underexposed photo enhancement network  을 μ œμ•ˆν•˜μ˜€λ‹€. 이 network λŠ” paired data λ‘œλΆ€ν„° ν›ˆλ ¨λ˜μ—ˆλ‹€. μ΄λŸ¬ν•œ Paired data λ₯Ό 기반으둜 ν•˜λŠ” light enhancement solution 은 μΆ©λΆ„ν•œ paired data μˆ˜μ§‘μ— cost κ°€ 많이 λ“€λ©°, λ˜ν•œ paired data 생성 μ‹œ λ‹€μ†Œ λΉ„ν˜„μ‹€μ μ΄κ³  μΈμœ„μ μΈ 데이터가 포함될 수 밖에 μ—†λ‹€λŠ” μ μœΌλ‘œλΆ€ν„° λΉ„μ‹€μš©μ μΈ 방법이라고 μΆ”λ‘ ν•  수 μžˆλ‹€. μ΄λŸ¬ν•œ μ œμ•½μ‚¬ν•­μ€ generalization μ„±λŠ₯이 λ–¨μ–΄μ§€κ²Œλ” λ§Œλ“ λ‹€. μ‹€μ œ 이미지가 주어지면 λ‹€μ–‘ν•œ 결점이 λ°œμƒν•  수 밖에 μ—†λ‹€.

  Unsupervised GAN-based methods λŠ” paired data λ₯Ό trainning ν•΄μ•Ό ν•œλ‹€λŠ” μ œμ•½μ‚¬ν•­μ„ μ œκ±°ν•œλ‹€. EnlightenGAN 이 λŒ€ν‘œμ μΈ GAN-based pioneer method 으둜 low-light images λ₯Ό unpaired low/normal light data λ‘œλΆ€ν„° ν•™μŠ΅ν•œλ‹€. EnlightenGAN network λŠ” μ •κ΅ν•˜κ²Œ μ„€κ³„λœ discriminator 와 loss function 으둜 λΆ€ν„° ν›ˆλ ¨λŠ”λ°, unsupervised GAN-based solution νŠΉμ„± 상 unpaired training data λ₯Ό μ‹ μ€‘ν•˜κ²Œ 선택해야 쒋은 μ„±λŠ₯을 κ°€μ Έμ˜¬ 수 μžˆλ‹€.

 

  λ³Έ λ…Όλ¬Έμ—μ„œ μ œμ•ˆν•˜λŠ” Zero-DCE λŠ” Data-Driven Method 보닀 세가지 μΈ‘λ©΄μ—μ„œ μš°μˆ˜ν•˜λ‹€.

1. zero reference νŠΉμ„±μ— μ˜ν•΄ paired and unpaired data κ°€ ν•„μš”ν•˜μ§€ μ•Šλ‹€.

2. μ •κ΅ν•˜κ²Œ μ…œκ³„λœ non-reference loss function 을 ν†΅ν•΄μ„œ ν›ˆλ ¨μ΄ μ§„ν–‰λ˜λ―€λ‘œ output image 의 quality λ₯Ό λͺ…λ°±ν•˜κ²Œ 평가할 수 있고, 이 κ²°κ³ΌλŠ” network learning μ—μ„œ λ°˜λ³΅λœλ‹€.

3. Zero-DCE 방법은 cost-effective ν•˜λ‹€.

  μ΄λŸ¬ν•œ 세가지 츑면의 μž₯점으둜 λΆ€ν„° lightweight network structure 와 effective non-reference loss function 을 ꡬ성할 수 μžˆλ‹€.

3. Methodlogy

DCE-Net(Deep Curve Estimation Network) λŠ” 주어진 μž…λ ₯ μ΄λ―Έμ§€λ‘œλΆ€ν„° κ°€μž₯ μ ν•©ν•œ Light-Enhancement curve(LE-curve) set 을 estimation ν•˜κΈ° μœ„ν•΄ κ³ μ•ˆλœ 것이닀. enhanced result λ₯Ό μ–»κΈ° μœ„ν•΄ curve λ₯Ό 반볡적으둜 μ μš©ν•˜μ—¬ input rgb channel 의 λͺ¨λ“  pixel 듀을 mapping ν•œλ‹€.

3.1. Light-Enhancement Curve (LE-curve)

  Photo editing software 의 curve adjustment λ°©μ‹μ—μ„œ μ˜κ°μ„ μ–»μ–΄, low-light image λ₯Ό automatically ν•˜κ²Œ enhanced version 으둜 mapping ν•˜λŠ” curve λ₯Ό design ν•˜λ €κ³  ν•˜μ˜€λŠ”λ°, self-adaptive curve parameters 은 input image 에 μ˜ν•΄μ„œλ§Œ κ²°μ •λ˜λ„λ‘ ν•œλ‹€. curve λŠ” μ•„λž˜ 3 가지 사항을 λ§Œμ‘±ν•΄μ•Ό ν•œλ‹€.

 

1. enhanced image 의 각각의 pixel 값은 normalized range 인 [0, 1] μ‚¬μ΄μ—λ§Œ μ‘΄μž¬ν•΄μ•Ό ν•œλ‹€. κ·Έλž˜μ•Όλ§Œ overflow truncation 에 μ˜ν•œ 정보 μœ μ‹€μ„ 방지할 수 μžˆλ‹€.

2. curve λŠ” monotonous λ₯Ό μœ μ§€ν•΄μ•Όλ§Œ ν•œλ‹€. κ·Έλž˜μ•Όλ§Œ neighboring pixel κ°„μ˜ 차이인 contrast λ₯Ό 보쑴할 수 μžˆλ‹€.

3. curve 의 ν˜•νƒœλŠ” κ°€λŠ₯ν•œ λ‹¨μˆœν•΄μ•Ό ν•˜λ©° λ―ΈλΆ„κ°€λŠ₯ ν•΄μ•Ό ν•œλ‹€.(backpropagation)

 

μœ„ λͺ©ν‘œμ˜ 달성을 μœ„ν•΄ μ•„λž˜μ™€ 같이 quadratic curve λ₯Ό design ν•˜μ˜€λ‹€.

x : ν”½μ…€ μ’Œν‘œ ,  LE(I(x); a) λŠ” given image I(x) 에 λŒ€ν•œ enhanced image,  a λŠ” [-1, 1] μ‚¬μ΄μ˜ ν•™μŠ΅ κ°€λŠ₯ν•œ 맀개 λ³€μˆ˜μœΌλ‘œ LE-curve 의 parameter 으둜 λ…ΈμΆœ λ ˆλ²¨μ„ 쑰정함.

  각각의 pixel 은 [0, 1] 둜 normalization 되며, λͺ¨λ“  연산은 pixel-wise 둜 μˆ˜ν–‰λœλ‹€. LE-curve κ°€ illuminiation 채널에 μ μš©ν•˜λŠ” 것 λŒ€μ‹ μ— RGB channel 에 λŒ€ν•˜μ—¬ λΆ„λ¦¬ν•˜μ—¬ μ μš©ν•œλ‹€. μ΄λŠ” 색상을 보닀 잘 λ³΄μ‘΄ν•˜μ—¬ over-saturation 의 risk(채도가 과해짐) 을 쀄인닀. a 값에 μ˜ν•΄ λ³€ν•˜λŠ” LE-curve 의 ν˜•νƒœλŠ” μ•„λž˜ 그림의 (b) 와 κ°™λ‹€. LE-curve λŠ” input image 의 dynamic range λ₯Ό increase ν•˜κ±°λ‚˜ decrease ν•  수 μžˆλ‹€. μ΄λŠ” low-light enhancing 뿐만이 μ•„λ‹ˆλΌ over-exposure artifact λ₯Ό μ œκ±°ν•˜λŠ” 효과λ₯Ό κ°€μ Έμ˜€κΈ°λ„ ν•œλ‹€.

 

  LE-curve λ₯Ό 반볡적으둜 μ μš©ν•  수 μžˆλ‹€λ©΄ λ”μš± low-light ν•œ condition 에도 적용이 κ°€λŠ₯ν•˜λ‹€.

n : 반볡 횟수둜 컀브의 vature 을 μ‘°μ ˆν•œλ‹€. λ³Έ λ…Όλ¬Έμ—μ„œλŠ” κ°€μž₯ 만쑱슀러운 κ²°κ³Όλ₯Ό κ°€μ Έμ˜¨ n = 8 으둜 μ„€μ •ν•œλ‹€.

 μ΄μ™€ 같은 higher-order curve λ₯Ό ν™œμš©ν•˜λ©΄ 더 wide ν•œ dynamic range μ—μ„œ image adjustment κ°€ κ°€λŠ₯ν•˜λ‹€. μœ μ˜ν•  점은 a 값을 μ‘°μ •ν•˜λŠ” 것은 global adjustment 이닀. μ΄λŠ” local region μ—μ„œ over-/under- enhance λ₯Ό μ•ΌκΈ°ν•  수 μžˆλ‹€. 이λ₯Ό ν”Όν•˜κΈ° μœ„ν•΄ a 값을 pixel-wise parameter 둜 μ„€μ •ν•  ν•„μš”κ°€ μžˆλ‹€. 각각의 픽셀은 각각의 a 값을 가지고 이에 mapping λ˜λŠ” curve λ₯Ό κ°€μ§€κ²Œ λœλ‹€.

A λŠ” μž…λ ₯ 이미지와 같은 크기λ₯Ό κ°€μ§€λŠ” parameter map 이닀.

local region λ‚΄μ˜ pixel 듀은 같은 intensity 및 같은 adjustment curve λ₯Ό 가진닀고 κ°€μ •ν•˜μ—¬ enhanced image 도 monotonous λ₯Ό μœ μ§€ν•˜κ²Œ λœλ‹€.

μœ„ 그림을 보면 input image 의 r,g,b channel 각각에 λŒ€ν•˜μ—¬ 예츑된 curve parameter map 을 λ³΄μ—¬μ£ΌλŠ”λ°, μœ μ‚¬ν•œ tendency λ₯Ό κ°€μ§€μ§€λ§Œ value λŠ” 각각 λ‹€λ₯Έ 것을 확인할 수 μžˆλ‹€. 이와 같이 pixel-wise 둜 curve mapping 을 톡해 enhanced image λ₯Ό 얻을 수 있게 λœλ‹€.

3.2. DCE-Net (Deep Curve Estimation Network)

  input image  와 best-fitting curve parameter maps κ°„μ˜ mapping 을 ν•™μŠ΅ν•˜κΈ° μœ„ν•΄ Deep Curve Estimation Network(DCE-Net) 을 μ œμ•ˆν•œλ‹€. DCE-Net 의 Input 은 low-light image 이고 output 은 pixel λ³„λ‘œ curve parameter maps set 이닀. λŒ€μΉ­μ μœΌλ‘œ μ—°κ²°λœ (Symmetrical concatenation) 7 개의 Convolutional layer 둜 κ΅¬μ„±λœ CNN 을 μ‚¬μš©ν•œλ‹€. 각각의 Layer 은 3x3 크기의 kernel 을 stride = 1 둜 ν•˜μ—¬ 32 개λ₯Ό ν†΅κ³Όμ‹œν‚¨ λ‹€μŒ ReLU activation function 에 ν†΅κ³Όμ‹œν‚¨λ‹€. μ΄λ•Œ down-sampling κ³Ό batch normalization 을 μ‚¬μš©ν•˜μ§€ μ•ŠμŒμœΌλ‘œμ¨ neighboring pixel 의 relation 이 깨지지 μ•Šλ„λ‘ ν•œ 것에 μœ μ˜ν•œλ‹€. λ§ˆμ§€λ§‰ convolutional layer 은 Tanh activation function 을 μ‚¬μš©ν•œλ‹€. 8 번의 iteration 이 λλ‚˜λ©΄ 24 개의 parameters map 을 얻을 수 μžˆλ‹€. 각각의 λ°˜λ³΅μ—μ„œ 3 개의 μ±„λ„λ§ˆλ‹€ ν•˜λ‚˜μ˜ parameter map 이 μƒμ„±λ˜κΈ° λ•Œλ¬Έμ΄λ‹€. DCE-Net 의 trainable parameters 은 79,416 개으둜 5.21G Flops 으둜 연산이 κ°€λŠ₯ν•œ κ²½λŸ‰ λͺ¨λΈμ΄λ‹€. input size λŠ” 256x256x3 이며, mobile κ³Ό 같이 μ œν•œλœ resource device μ—μ„œλ„ μ‚¬μš©μ΄ κ°€λŠ₯ν•˜λ‹€.

3.3. Non-Reference Loss Functions

  Zero-reference 둜 DCE-Net 을 ν•™μŠ΅ν•˜κΈ° μœ„ν•΄μ„œλŠ” enhanced image λ₯Ό ν‰κ°€ν•˜λŠ” non-reference loss function 을 μ •μ˜ν•΄μ•Ό ν•˜λ©° 이λ₯Ό μœ„ν•΄ μ•„λž˜μ˜ 4 가지 loss function 을 μ œμ•ˆν•˜μ˜€λ‹€.

 

1. Spatial Consistency Loss (L_spa)

:  input image 와 enhanced image κ°„ difference of neighboring regions 을 λ³΄μ‘΄ν•˜μ—¬ enhanced image κ°€ spatial coherence κ°€ μœ μ§€λ˜λ„λ‘ ν•œλ‹€.

K λŠ” Local region 의 수 , omega(i) λŠ” i 번째 local region 의 4-neighbors, Y 와 I λŠ” enhanced image 와 input image 의 average intensity

  λ³Έ λ…Όλ¬Έμ—μ„œλŠ” local region 의 size λ₯Ό 4 x 4 둜 μ§€μ •ν•˜μ˜€μ§€λ§Œ, λ‹€λ₯Έ μ‚¬μ΄μ¦ˆλ₯Ό μ‚¬μš©ν•˜μ—¬λ„ L_spa λŠ” μ•ˆμ •μ μΈ κ²½ν–₯이 보인닀고 ν•œλ‹€.

 

2. Exposure Control Loss (L_exp)

:  under-/over-exposed region 을 μ œν•œν•˜κΈ° μœ„ν•΄ exposure lever 을 L_exp λ₯Ό μ΄μš©ν•˜μ—¬ control ν•œλ‹€. Exposure control loss λŠ” average intensity value of local region κ³Ό averawge intensity value of well-exposedness level E κ°„μ˜ distance λ₯Ό μΈ‘μ •ν•œλ‹€. RGB color space μ—μ„œ gray level 을 E 둜 μ„€μ •ν•˜μ˜€κ³ , λ³Έ λ…Όλ¬Έμ—μ„œ E λŠ” 0.6 으둜 μ •ν•˜μ˜€λ‹€.

M : # of nonoverlapping local regions of size 16x16, Y : average intensity of a local region in the enhanced image

 

3. Color Constancy Loss (L_col)

:  RGB channel 을 평균이 Gray κ°€ λœλ‹€λŠ” Gray - World color constancy hypothesis λ₯Ό 따라, enhanced image μ—μ„œ λ°œμƒν•  수 μžˆλŠ” color deviation 을 correction ν•˜λŠ” color constancy loss λ₯Ό design ν•œλ‹€. ν•΄λ‹Ή loss function 은 μƒˆλ‘œ adjust 된 3 가지 채널 κ°„ 관계λ₯Ό μ‘°μ •ν•΄μ€€λ‹€.

J^p : average intensity value of p channel in enhanced image,  (p,q) : pair of channels

 

4. Illumination Smoothness Loss (L_tvA)

:  neighboring pixel κ°„ monotonicity λ₯Ό λ°©μ§€ν•˜κΈ° μœ„ν•΄ illumination smoothness loss λ₯Ό 각각의 curve parameter map A 에 μΆ”κ°€ν•œλ‹€.

N : 반볡 횟수, deleta x : horizontal graident operations ,  deleta y : vertical gradient operations

4. Experiments

 Wide dynamic range 에 λŒ€ν•œ adjustment 이 λ°œμƒν•˜λ„λ‘ low-light image 뿐만이 μ•„λ‹ˆλΌ over-exposed image λ˜ν•œ train dataset 으둜 ν¬ν•¨ν•˜μ˜€λ‹€. EnlightenGAN 의 train 에도 ν™œμš© 된 SICE(Single Image Contrast enhancement) dataset 의 Part 1(360 multi-exposure sequences) λ₯Ό train set 에 ν¬ν•¨μ‹œν‚¨λ‹€. 그리고 3,022 개의 μ„œλ‘œ λ‹€λ₯Έ exposure level 을 가진 image λ₯Ό random split ν•˜μ—¬ 2,422 개λ₯Ό train set 에 μ‚¬μš©ν•˜κ³  λ‚˜λ¨Έμ§€λ₯Ό validation set 으둜 μ‚¬μš©ν•œλ‹€. μ΄λ•Œ train input image λŠ” 512x512 둜 fix ν•œλ‹€.

  NVIDIA 2080Ti μ—μ„œ Pytorch λ₯Ό μ΄μš©ν•˜μ—¬ κ΅¬ν˜„ν•˜μ˜€κ³ , batch size λŠ” 8 둜 μ„€μ •ν•œλ‹€. 각각의 layer λŠ” mean=0, std=0.02 의 gaussian function 으둜 initialization ν•˜μ˜€λ‹€. optimizer μœΌλ‘œλŠ” ADAM (뢀가적인 parameter μ„€μ • x)을 μ‚¬μš©ν•˜μ˜€κ³  learning rate λŠ” 1e-4 둜 κ³ μ •ν•œλ‹€. Total loss μ—μ„œ W_col κ³Ό W_tvA λŠ” 0.5, 20 으둜 μ„€μ •ν•œλ‹€.

4.1. Ablantion Study

Contribution of Each Loss

각각의 Loss function 이 train 에 λ―ΈμΉ˜λŠ” 영ν–₯을 νŒŒμ•…ν•˜κΈ° μœ„ν•΄ Total Loss μ—μ„œ ꡬ성을 λ³€κ²½ν•˜μ—¬ μ‹€ν—˜μ„ μ§„ν–‰ν•œλ‹€.

   Spatial consistency loss (L_spa) λ₯Ό μ œκ±°ν•œ λ’€ ν›ˆλ ¨μ„ μ§„ν–‰ν•˜λ©΄ lower contrast λ₯Ό κ°€μ§€κ²Œ λœλ‹€. μ΄λŠ” L_sap κ°€ 이웃 μ˜μ—­κ³Όμ˜ 차이λ₯Ό λ³΄μ‘΄ν•˜κΈ° μœ„ν•΄ μ€‘μš”ν•œ 역할을 μˆ˜ν–‰ν•œλ‹€λŠ” 것을 μ‹œμ‚¬ν•œλ‹€.

   Exposure control loss (L_exp) λ₯Ό μ œκ±°ν•œ 뒀에 ν›ˆλ ¨μ„ μ§„ν–‰ν•˜λ©΄ low-light region 의 recovery κ°€ λ°œμƒν•˜μ§€ μ•ŠλŠ”λ‹€.

   Color constancy loss (L_col) 을 μ œκ±°ν•˜λ©΄ 색상 λ³€ν™”κ°€ 예기치 λͺ»ν•˜κ²Œ λ°œμƒν•œλ‹€. μ΄λŠ” rgb channel κ°„ 관계성을 λ¬΄μ‹œν•˜κ³  curve mapping 이 μˆ˜ν–‰λ˜λŠ” 문제λ₯Ό μ•ΌκΈ°ν•  수 μžˆλ‹€.

   Illumination smoothness loss (L_tvA) λ₯Ό μ œκ±°ν•˜λ©΄ 이웃 μ˜μ—­κ°„μ˜ correlation 이 μ–΄μ§€λŸ½ν˜€μ Έμ„œ artifact κ°€ λͺ…λ°±ν•˜κ²Œ λ°œμƒν•œλ‹€.

 

  Effect of Parameter Setting

  DCE-Net 의 depth(conv layer 개수), width(layer λ‹Ή fiter 개수), number of iteration 에 따라 μ–΄λ– ν•œ νš¨κ³Όκ°€ λ°œμƒν•˜λŠ” 지 μ‹€ν—˜μ„ μ§„ν–‰ν•œλ‹€.

  (b) : 3 개의 conv layer 만 μ‚¬μš©ν•˜μ—¬λ„ satisfactory result λ₯Ό 얻을 수 μžˆμ—ˆλ‹€.

  (e) 와 (f) κ°€ κ°€μž₯ μ‹œκ°μ μœΌλ‘œ λ³΄μ•˜μ„ λ•Œ μžμ—°μŠ€λŸ¬μš΄λ° μ΄λ‘œλΆ€ν„° interation νšŸμˆ˜κ°€ μ–΄λŠμ •λ„ 클 수둝 natural exposure κ³Ό proper constrast λ₯Ό 얻을 수 μžˆμŒμ„ μ•Œ 수 μžˆλ‹€.

  (d) μ—μ„œλŠ” iteration 을 1번만 μ§„ν–‰ν•˜μ˜€λ‹€. μ΄λ ‡κ²Œ ν•˜λ©΄ curve μ μš©μ„ 1번만 ν•˜κ²Œ 되고 μ΄λŠ” light-enhancement 의 μ„±λŠ₯μ €ν•˜λ₯Ό μ•ΌκΈ°ν•œλ‹€λŠ” 것을 μ•Œ 수 μžˆλ‹€.

  * μ΄λŸ¬ν•œ μ‹€ν—˜ κ²°κ³Όλ‘œλΆ€ν„° 7-32-8 을 optimal ν•œ parameter 둜 μ„ νƒν•˜μ˜€λ‹€.

 

   Impact of Training Data

   Zero-DCE Network λ₯Ό μ„œλ‘œ λ‹€λ₯Έ 데이터셋을 μ΄μš©ν•˜μ—¬ ν›ˆλ ¨μ‹œμΌœ, training dataset 에 λ”°λ₯Έ impact λ₯Ό μ‚΄νŽ΄λ³Έλ‹€.

* Zero-DCE_Low : 900 개의 low-light image λ§Œμ„ μ‚¬μš©

* Zero-DCE_LargeL : DARK FACE dataset μ—μ„œ 9,000 μž₯의 unlabeld low light image λ₯Ό μ‚¬μš©

* Zero-DCE_LargeLH : SICE dataset μ—μ„œ Part1, Part2 μ—μ„œ data augmentation 을 μ μš©ν•œ multi-exposure image λ₯Ό μ‚¬μš©

 

μœ„ κ²°κ³Όλ₯Ό 보면 over-exposed image κ°€ ν¬ν•¨λ˜μ§€ μ•ŠλŠ” κ²½μš°μ—λŠ” (c) 와 (d) 처럼 input image μ—μ„œ μ›λž˜λΆ€ν„° λ°μ•˜λ˜ μ˜μ—­μ€ over-enhance(face μ˜μ—­) λœλ‹€. low-light image 의 개수λ₯Ό λŠ˜λ¦¬λŠ” 것은 이λ₯Ό ν•΄κ²°ν•  수 μžˆλŠ” μ†”λ£¨μ…˜μ΄ μ•„λ‹ˆμ˜€λ‹€. (e) 와 같이 multi - exposure(λ…ΈμΆœ μƒνƒœκ°€ λ‹€μ–‘) image λ₯Ό μ‚¬μš©ν•˜λ©΄ low-light enhancement μ„±λŠ₯이 κ°€μž₯ λ›°μ–΄λ‚˜λŠ” 것을 κ΄€μ°°ν•  수 μžˆλ‹€.

4.2 Benchmark Evaluations

  λ³Έ λ…Όλ¬Έμ—μ„œ μ œμ•ˆν•œ Zero-DCE λ₯Ό μ—¬λŸ¬ 가지 state-of-the-art method 와 비ꡐλ₯Ό μ§„ν–‰ν•œλ‹€. 3 가지 conventional methods 인 SRIE, LIME, Li et al κ³Ό 2 가지 CNN - based methods 인 RetinexNet, Wang et al 그리고 GAN-based method 인 EnlightenGAN λͺ¨λΈκ³Όμ˜ 비ꡐλ₯Ό μˆ˜ν–‰ν•œλ‹€.

 

  test image set 은 NPE(Naturalness Preserved Enhancement) 84 images, LIME(Low-light Image Enhancement via illumination Map Estimation) 10 images, MEF(Multi-Exposure Image Fusion) 17 images, DICM 64 images, VV 24 images λ₯Ό μ‚¬μš©ν•œλ‹€.

  Zero-DCE model 은 μ μ ˆν•œ exposure κ³Ό detail 을 λͺ…ν™•ν•˜κ²Œ μ‚΄λ¦° 반면 SRIE, LIME, Wang et al, EnlightenGAN 은 face λ₯Ό λͺ…λ°±ν•˜κ²Œ recovery ν•˜μ§€ λͺ»ν•˜μ˜€λ‹€. RetinexNet 은 over-exposed artifacts λ₯Ό μƒμ‚°ν•œλ‹€.

  Zero-DCE model 은 dark region 을 enhance 함과 λ™μ‹œμ— input image 의 color 을 λ³΄μ‘΄ν•˜μ˜€μ§€λ§Œ Li et al 은 noise λ₯Ό μ¦ν­ν•˜κ³  color deviation 을 μƒμ‚°ν•˜λ©° over - smoothe ν•œλ‹€.

 

  Peak Signal-to-Noise Ration(PSNR, dB) 와 Structural Similarity(SSIM), Mean Absolute Error (MAE) metric 을 μ‚¬μš©ν•˜μ—¬ μ •λŸ‰μ μœΌλ‘œ λΉ„κ΅ν•˜μ˜€λ‹€. Zero-DCE λŠ” λͺ¨λ“  case μ—μ„œ best value λ₯Ό λ‹¬μ„±ν•˜μ˜€λ‹€. (zero-reference μž„μ—λ„!) Zero-DCE λŠ” λ˜ν•œ computationally efficient ν•˜λ‹€.

4.2.3  Face Detection in the Dark

  DARK FACE dataset 을 μ΄μš©ν•˜μ—¬ 저쑰도 ν™˜κ²½μ—μ„œ Face Detection μ„±λŠ₯을 λΉ„κ΅ν•œλ‹€. Face detection μœΌλ‘œλŠ” Dual Shot Face Detector (DSFD) λ₯Ό μ‚¬μš©ν•œλ‹€.

  κ·Έ κ²°κ³Ό, RetinexNet κ³Ό Zero-DCE Net 이 κ°€μž₯ Best ν•œ 것을 확인할 수 μžˆλ‹€. High recall area μ—μ„œλŠ” Zero-DCE Net 이 보닀 μš°μˆ˜ν•˜λ‹€. 이와 같이 Zero-DCE λ₯Ό μ΄μš©ν•˜μ—¬ face λ₯Ό lightens up ν•˜λ©΄ extremely dark regions μ—μ„œλ„ μΆ©λΆ„νžˆ μ •ν™•ν•œ face detection μˆ˜ν–‰μ΄ κ°€λŠ₯함을 μ‹œμ‚¬ν•œλ‹€.

5.   Conclusion

   λ³Έ λ…Όλ¬Έμ—μ„œλŠ” low-light image enhancement λ₯Ό μœ„ν•œ deep network 인 Zero-DCE Net 을 μ œμ•ˆν•œλ‹€. μ΄λŠ” end-to-end with zero-reference images 둜 ν›ˆλ ¨μ΄ κ°€λŠ₯ν•˜λ‹€. low-light image enhancement task λ₯Ό image-specific curve estimation problem 으둜 바라보고 non-reference loss λ₯Ό μ„€κ³„ν–ˆκΈ° λ•Œλ¬Έμ— reference image κ°€ ν•„μš”ν•˜μ§€ μ•Šλ‹€. Experiments λ“€λ‘œλΆ€ν„° Zero-DCE 방법이 λ›°μ–΄λ‚œ μ„±λŠ₯을 λ³΄μ΄λŠ” 것이 증λͺ…λ˜μ—ˆμœΌλ©°, ν–₯ν›„ μ—°κ΅¬μ—μ„œ noise 의 영ν–₯을 κ³ λ €ν•œ hard case λ₯Ό ν•΄κ²°ν•˜κΈ° μœ„ν•œ μ˜λ―ΈμžˆλŠ” 정보λ₯Ό μ œμ•ˆν•  수 μžˆλ„λ‘ μ§€μ†μ μœΌλ‘œ 탐ꡬ할 것이닀.

 

6.   Implementation

   λ³Έ λ…Όλ¬Έμ—μ„œ μ œμ•ˆν•œ λͺ¨λΈμΈ Zero-DCE λ₯Ό κ΅¬ν˜„ν•˜κ³  ν•™μŠ΅μ„ μ§„ν–‰ν•΄λ³΄μ•˜λ‹€.


https://hayunjong83.tistory.com/54

 

논문리뷰) μ–΄λ‘μš΄ μ˜μƒμ˜ 밝기 μ‘°μ • : Zero-Reference Deep Curve Estimation for Low-Light Image Enhancement

μ‹œμ„  μ˜ˆμΈ‘μ„ μœ„ν•œ μ‚¬μš©μž μ˜μƒ 뿐만 μ•„λ‹ˆλΌ 컴퓨터 λΉ„μ „μ˜ λ‹€μ–‘ν•œ νƒœμŠ€ν¬μ— μ“°μ΄λŠ” μž…λ ₯ μ˜μƒλ“€μ€ μ‘°λͺ…μ΄λ‚˜ μΉ΄λ©”λΌμ˜ λ…ΈμΆœ 변화에 따라 μ‚¬λžŒμ˜ λˆˆμ— λ³΄μ΄λŠ” 양상이 크게 λ³€ν•  수 μžˆλ‹€. μ•ˆμ •μ μ΄

hayunjong83.tistory.com

 

728x90
λ°˜μ‘ν˜•
LIST
Comments