• PixelGAN Autoencoders

    WHY? 기존의 implicit generative model(VAE)들은 hierarchical latent codes를 통하여 데이터의 statistics를 학습할 수 있지만 decoder를 통한 sampling만 가능하고 likelihood function은 tractable하지 않다. 반대로 likelihood function을 학습할 수 있는 autoregressive neural networks(NADE, MADE, PixelCNN)들은 likelihood function을 학습할 수 있는 대신 latent codes를 활용하지 못한다. WHAT? PixelGAN Autoencoder는 위 두 가지 방법을...


  • [Pytorch] GAN

    Generative Adversarial Network를 Pytorch로 구현 https://github.com/Lyusungwon/pytorch/tree/master/gan Reference https://github.com/znxlwm/pytorch-MNIST-CelebA-GAN-DCGAN Note Encoder모듈과 Decoder모듈은 반드시 분리해야한다 아무리 노력해도 Mode-collapse문제를 막을 수 없다 Result


  • [Pytorch] Convolutional VAE

    Pytorch implementation of Variational Autoencoder with convolutional encoder/decoder. https://github.com/Lyusungwon/generative_models_pytorch Note Divided encoder and decoder Results Config model: 180823222128_cvae_5000_200_1e-05_28_28_1_64_16_1 epochs 5000 batch-size 200 lr 1e-5 filter-num 64 (32, 128) latent-size 16 L 1 Train 32: KLD 27.08 Recon 74.22 Train loss 101.2 64: KLD 26.76 Recon 69.90 Test loss 96.66 128:...


  • [Pytorch] VAE

    Pytorch implementation of Variational Autoencoder. https://github.com/Lyusungwon/generative_models_pytorch Reference https://github.com/pytorch/examples/tree/master/vae Note Divided encoder and decoder Results Config model: 180824083213_vae_5000_200_1e-05_28_28_400_16_1 epochs 5000 batch-size 200 lr 1e-5 hidden-size 400 latent-size 16 L 1 Train KLD 24.13 Recon 76.11 Train loss 100.2 Test KLD 24.08 Recon 69.89 Test loss 93.87 Reconstruction Sampling


  • Ready Player 1

    평점: 4.5 삶을 발전시키는 것은 진실이지만 오늘을 버티게 해주는 것은 환상이다.