• Akira (1982)

    많은 일본 만화를 보다보면 결말부에 간혹 이상한 장면이 나오거나 이상하게 결말나는 작품들이 있다. 갑자기 잘 나가다가 범우주적 시점으로 넓혀서 생명의 원리나 근원, 진화에 대하여 이상한 썰을 풀고 간혹 모든 유기체들이 합쳐지기도 하는 장면이다. 생각나는 작품만 해도 에반게리온, 간츠, 파이어 펀치, 아이엠히어로 등 대부분 미래나 포스트 아포칼립스적인 분위기를 가진 작품들이다. 사실...


  • Pattern Recognition & Machine Learning

    Summary of content during Deepest PRML study.\ Source: Nasrabadi, Nasser M. “Pattern recognition and machine learning.” Journal of electronic imaging 16.4 (2007): 049901.\ 1. Introduction training set / target vector training / learning test set / generalization preprocess / feature extraction supervised learning classification / regression unsupervised learning clustering /...


  • Generating Sentences from a Continuous Space

    WHY? 기존의 언어모델(RNNLM)은 문장을 만들 때 한 단어씩 만들어야 하며 문장의 정보를 가지고 있는 latent representation의 정보를 활용하지 못한다. WHAT? 이 논문에서는 문장의 정보를 함축한 latent representation을 나타내기 위하여 인코더, 디코더에 sequential model을 활용한 VAE를 사용한다. 하지만 종종 sequential model을 디코더로 사용할 경우 디코더가 문장의 정보를 함축한 latent representation을 활용하지...


  • SCAN: Learning Hierarchical Compositional Visual Concepts

    WHY? 실제 세상은 물리나 화학과 같은 몇 가지 일관적인 규칙으로 부터 무한히 다양한 형태가 나온다. 이러한 규칙들은 추상화를 통하여 개념으로 나타날 수 있으며 이러한 개념들의 계층과 조합을 통하여 지수적으로 많은 개념을 만들어낸다. WHAT? SCAN(Symbol-Concept Association Network)은 극히 적은 량의 학습으로 disentangled된 요소들에 대하여 개념을 부여하고 추상화한다. 논문에서는 개념을 추상(Abstraction)이라고 제안한다....


  • A simple neural network module for relational reasoning

    WHY? 관계적 추론(relation reasoning)은 중요한 지능 중 하나지만 neural net은 이를 학습하지 못하였다. 그리하여 관계를 묻는 문제에 답하는 일에 대해서는 좋은 성과를 거두지 못하고 있었다. WHAT? RN(Relation Network)의 가장 기본적인 구성은 다음과 같다. o를 우리가 상정한 object라고 하고 g의 output을 relation이라고 한다. 관계적 유추를 할 수 있는 RN은 한가지 모델로...