• The Shape of Water

    평점: 4 가장 약한 사람들을 특공대보다 용감하게 만들어주는 힘


  • Unpaired Image-to-image Translation using Cycle-Consistent Adversarial Network

    WHY? 이미지들 간의 style을 뽑아내기 위해서는 같은 모습에 대하여 다른 스타일이 적용되어 있는 이미지들이 pairing되어야 한다. WHAT? 이를 위하여 두 이미지의 스타일을 서로 줄 수 있는 CycleGAN을 제안한다. CycleGAN은 X->Y, Y->X로 변환하는 두가지 encoder겸 decoder로 이루어져 있다. CycleGAN의 Loss는 두 부분으로 이루어진다. 첫번째는 Adversarial Loss인데 y로 변한 x의 adversarial loss와...


  • Improved Variational Inference with Inverse Autoregressive Flow

    WHY? Normializing flow는 posterior를 유연하게 가정하기 위하여 x를 변환시킨다. 이때 변환은 가역적이어야 하고 determinant를 구하기 쉬워야 한다. WHAT? MAF에서 본 것과 같이 Autoregressive 구조는 유용한 성질을 가지고 있다. 하지만 Autoregressive transformation은 density evaluation에 사용되지만 variational inference는 posterior의 sampling을 요하기 때문에 사용되기 힘들다. 하지만 이의 sampling을 reparameterization trick을 사용한 변환으로 가정할...


  • Masked Autoregressive Flow for Density Estimation

    WHY? MADE나 PixelCNN/RNN과 같은 autoregressive한 neural density estimator들은 좋은 성과를 보여왔다. Normalizing Flow를 사용하면 Planar/radial flow나 inverse Autoregressive Flow와 같은 특정한 변환에 한해서는 빠르게 Density evaluation을 할 수 있어 variational inference에 유용하게 사용되었다. 하지만 새로운 데이터들에 대해서는 효율적으로 계산하기가 어렵기 때문에 density estimation에는 적합하지 않았다. WHAT? 다음과 같은 Autoregressive한 모델을...


  • MADE: Masked Autoencoder for Distribution Estimation

    WHY? 단순 Autoencoder에서는 x내에 특정 구조를 가정하지 않는다. WHAT? MADE에서는 autoencoder에 autoregressive한 구조를 반영하여 generation model을 만들었다. Autoregressive한 구조는 데이터에 특정 순서가 있으며 특정 데이터는 그 이전 데이터로부터만 영향을 받는다고 가정한다. 그러기 위하여 autoencoder의 encoder와 decoder의 weights에 특정 형태의 mask를 씌워 weight의 흐름을 조정한다. 이때 마스크는 다음과 같은 규칙으로 생성한다....