• Multimodal Unsupervised Image-to-Image Translation

    WHY? unsupervised하게 이미지를 source domain에서 target domain으로 보내는 것을 image to image translation이라고 한다. 기존의 방법들은 이렇게 다른 도메인으로 mapping하는 방법이 deterministic하다고 간주하여 왔기 때문에 다양한 이미지를 생성할 수 없었다. WHAT? MUNIT은 이미지 representation을 content code와 style code로 분리한다. content code는 동물의 자세와 같이 여러 도메인에서 공통적으로 나타나는 추상적인 특징을...


  • PixelGAN Autoencoders

    WHY? 기존의 implicit generative model(VAE)들은 hierarchical latent codes를 통하여 데이터의 statistics를 학습할 수 있지만 decoder를 통한 sampling만 가능하고 likelihood function은 tractable하지 않다. 반대로 likelihood function을 학습할 수 있는 autoregressive neural networks(NADE, MADE, PixelCNN)들은 likelihood function을 학습할 수 있는 대신 latent codes를 활용하지 못한다. WHAT? PixelGAN Autoencoder는 위 두 가지 방법을...


  • [Pytorch] GAN

    Generative Adversarial Network를 Pytorch로 구현 https://github.com/Lyusungwon/pytorch/tree/master/gan Reference https://github.com/znxlwm/pytorch-MNIST-CelebA-GAN-DCGAN Note Encoder모듈과 Decoder모듈은 반드시 분리해야한다 아무리 노력해도 Mode-collapse문제를 막을 수 없다 Result


  • [Pytorch] Convolutional VAE

    Pytorch implementation of Variational Autoencoder with convolutional encoder/decoder. https://github.com/Lyusungwon/generative_models_pytorch Note Divided encoder and decoder Results Config model: 180823222128_cvae_5000_200_1e-05_28_28_1_64_16_1 epochs 5000 batch-size 200 lr 1e-5 filter-num 64 (32, 128) latent-size 16 L 1 Train 32: KLD 27.08 Recon 74.22 Train loss 101.2 64: KLD 26.76 Recon 69.90 Test loss 96.66 128:...


  • [Pytorch] VAE

    Pytorch implementation of Variational Autoencoder. https://github.com/Lyusungwon/generative_models_pytorch Reference https://github.com/pytorch/examples/tree/master/vae Note Divided encoder and decoder Results Config model: 180824083213_vae_5000_200_1e-05_28_28_400_16_1 epochs 5000 batch-size 200 lr 1e-5 hidden-size 400 latent-size 16 L 1 Train KLD 24.13 Recon 76.11 Train loss 100.2 Test KLD 24.08 Recon 69.89 Test loss 93.87 Reconstruction Sampling