본문 바로가기

Paper Review/Style Transfer11

StyleGAN : A Style-Based Generator Architecture for Generative Adversarial Networks (2018) StyleGAN은 기존의 latent 벡터 z로부터 target군의 이미지를 직접 생성해내는 기존 GAN 방법과 다르게 Style에 초점을 맞춰 다양한 이미지를 생성할 수 있도록 디자인한 논문입니다. NVDIA 연구진이 발표한 논문으로 성능이 기존 GAN보다 훨씬 뛰어나면서도 안정적이어서 각광받고 있는 논문입니다. https://arxiv.org/abs/1812.04948 Entangle vs Disentangle 기존의 GAN을 사용한 Image Generator, Style Transfer는 일종의 블랙박스 형태로, style만 바꾸고 싶지만 제어할 수 있는 방법이 없었습니다. 그러므로 이미지의 전체적인 형상은 그대로 둔채 style 요소만 원하는 형태로 바꾸는 것에 많은 연구가 진행되었습니다. 논문.. 2021. 10. 9.
MUNIT : Multimodal Unsupervised Image-to-Image Translation (2018) Multimodal Unsupervised Image-to-Image Translation는 UNIT 논문을 발전한 형태로 unimodal이 아닌 multimodal로의 변환이 가능하도록 구현한 논문입니다. UNIT와 마찬가지로 unpaired한 데이터들간의 변환이고, 하나의 이미지는 content와 style을 가지고 있어 content는 유지한채 style만 변환해줌으로서 다양한 style로 자유로운 변환이 가능함을 보여준 논문입니다. NVIDIA에서 2018년에 발표한 논문으로, content와 style의 개념을 처음 소개함으로 이후에 나오는 Image-to-Image Translation 논문들의 baseline에 해당하는 논문입니다. MUNIT :https://arxiv.org/abs/1804.. 2021. 10. 3.
UNIT : Unsupervised Image-to-Image Translation Networks (2017) Unsupervised Image-to-Image Translation Networks(UNIT)는 unpaired한 데이터들간 서로 공유하고 있는 중요 특징(shared latent space)을 이용해 style을 변환시켜주는 연구이다. NVIDIA에서 2017년에 발표한 논문입니다. UNIT : https://arxiv.org/abs/1703.00848 Shared Latent Space 이 논문의 가장 핵심적인 개념으로 두 domain간에는 서로 공유하고 있는 latent space가 존재한다는 것입니다. X1의 domain에서 X2 domain간 공유하고 있는 latent space z가 있다고 가정을 하면 위의 그림처럼 x1이미지에서 Encoder E1을 통해 z가 되고 이 z를 가지고 Gen.. 2021. 9. 25.
CycleGAN : Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks (2017) CycleGAN은 unpaired dataset을 가지고 style을 변형시키는 Image to Image Translation 영역의 논문입니다. 2017년 ICCV에 제출된 논문으로 UC Berkeley AI lab 연구진들의 논문입니다. 처음 공개되었을 당시 획기적인 충격을 주었던 논문입니다. https://arxiv.org/abs/1703.10593 Unpaired Dataset => Unsuperviesd Learning 1. Paired Dataset => Supervised Learning Dataset과 Label이 1:1로 매칭되어 있는 데이터셋을 의미합니다. Task 목적에 따라 labeling이 다릅니다. Classification의 경우 label 데이터는 각 class를 나타낼 수.. 2021. 7. 31.
StarGAN : Unified Generative Adversarial Networksfor Multi-Domain Image-to-Image Translation (2017) StarGAN은 기존의 soucre domain에서 단일 target domain으로 style을 바꿔주었던 기존방법과는 다르게 다중 target domain으로 하나의 네트워크에서 가능하게 만든 논문입니다. https://arxiv.org/abs/1711.09020 Multi-domain 기존의 image-to-image 학습에서는 source domain에서 target-domain으로 변환을 시도하는 형태였습니다. 그러나보니 동일한 source domain을 가지고 다양한 다른 domain으로 바꾸려면 여러개의 model이 필요했습니다. 위의 그림처럼 기존의 model을 사용하여 k개의 domain간 서로 변환하기 위해서는 총 k(k-1)개의 model이 필요합니다. 이렇게 여러개의 model을 만.. 2021. 7. 31.
728x90