• Generating Sentences from a Continuous Space

    WHY? 기존의 언어모델(RNNLM)은 문장을 만들 때 한 단어씩 만들어야 하며 문장의 정보를 가지고 있는 latent representation의 정보를 활용하지 못한다. WHAT? 이 논문에서는 문장의 정보를 함축한 latent representation을 나타내기 위하여 인코더, 디코더에 sequential model을 활용한 VAE를 사용한다. 하지만 종종 sequential model을 디코더로 사용할 경우 디코더가 문장의 정보를 함축한 latent representation을 활용하지...


  • SCAN: Learning Hierarchical Compositional Visual Concepts

    WHY? 실제 세상은 물리나 화학과 같은 몇 가지 일관적인 규칙으로 부터 무한히 다양한 형태가 나온다. 이러한 규칙들은 추상화를 통하여 개념으로 나타날 수 있으며 이러한 개념들의 계층과 조합을 통하여 지수적으로 많은 개념을 만들어낸다. WHAT? SCAN(Symbol-Concept Association Network)은 극히 적은 량의 학습으로 disentangled된 요소들에 대하여 개념을 부여하고 추상화한다. 논문에서는 개념을 추상(Abstraction)이라고 제안한다....


  • A simple neural network module for relational reasoning

    WHY? 관계적 추론(relation reasoning)은 중요한 지능 중 하나지만 neural net은 이를 학습하지 못하였다. 그리하여 관계를 묻는 문제에 답하는 일에 대해서는 좋은 성과를 거두지 못하고 있었다. WHAT? RN(Relation Network)의 가장 기본적인 구성은 다음과 같다. o를 우리가 상정한 object라고 하고 g의 output을 relation이라고 한다. 관계적 유추를 할 수 있는 RN은 한가지 모델로...


  • Seven (1995)

    평점: 4 단테는 중세의 가치가 무너지고 인문주의인 르네상스가 시작할 무렵 신곡을 집필하여 최후의 중세인으로 불린다. 현대사회에 적응하지 못한 존 도는 700년 전의 가치관을 자신의 어긋난 도덕심의 근거로 삼고 연쇄살인을 저지른다. 현대의 죄는 옛날 책에 써있는 7대 죄악 따위가 아니라 남에게 피해를 끼치는 일이다. 현대 사회에 무관심이 팽배한 것은 다양한 가치를...


  • Avengers: Infinity War (2018)

    평점: 4.5 20명이 넘는 캐릭터를 살리면서 스토리를 말아먹지 않을 수 있는 영화가 얼마나 될까. 10년간 공들여 구축한 세계관에 찬사를 보낸다. 고마우면서도 부럽다.