NIPS 2016有什麼值得關注的呢?

時間 2021-05-09 11:14:21

1樓:者也

最近在讀NIPS文章,列出兩個自己關注的方向裡幾篇有代表性的文章,算是拋磚引玉吧。

方向1:deep generative probabilistic model

最近一段時間,generative model正在引起越來越多的關注,深度神經網路雖然在識別(分類)問題上體現出巨大優勢,但discriminative learning的框架也有明顯的侷限,例如對大量有標註資料的依賴和有限的泛化能力,而generative learning著眼於直接對資料本身分布的建模,在對識別以外的問題(例如影象重建、生成)上具有更大的優勢,更吸引人的是可以用無監督學習利用更海量的資料。而深度神經網路作為大容量模型,將其用於構建generative model無疑非常具有吸引力。例如2023年提出的Variational Auto-encoder,2023年的Generative Adversarial Network,都是將神經網路作為單元結構,嵌入probabilistic generative learning的理論框架中,今年就有不少基於VAE和GAN的工作。

加上早一點的Deep Boltzmann Machine, Deep Belief Network基本上構成了目前的幾大深度generative模型的架構。今年的NIPS又出現了一些新的具有探索意義的工作,同樣是深度generative模型,但是卻有新的架構。

An Architecture for Deep, Hierarchical Generative Model

A Probabilistic Framework for Deep Learning

方向2:learning by synthetic data

有的時候資料不夠多,模型容量再大也用不了,那就用生成一些資料吧,這樣做的好處是因為資料是生成的,所以可以自帶標註資訊,但挑戰就是得保證生成的資料足夠好。(當然夠好的話就發NIPS了,比如說目前最熱的乙個策略就是GAN)

Generating Videos with Scene Dynamics

MoCap-guided Data Augmentation for 3D Pose Estimation in the Wild

Visual Dynamics: Probabilistic Future Frame Synthesis via Cross Convolutional Networks

Dynamic Filter Networks

如何理解劉鐵巖老師團隊在NIPS 2016上提出的對偶學習(Dual Learning)?

下午聽了劉鐵巖老師關於Dual Learning的講座,受了一點啟發也來說一下。因為本科畢設做的Co Training相關的東西,如果說的有一些問題多請見諒。劉鐵巖老師在他的ppt裡展示的summary裡面提到了Unsupervised Learning Co training multi task...

CVPR 2016 有什麼值得關注的亮點?

陳喬治 我來賣一下自己的文章,CVPR 2016的Oral,不過跟其它文章比起來很非主流。arxiv.org abs 1605.03621 簡單來說是用光學來做CNN的第一層. 劉弘也 這一頁的各種chair就沒幾個男的,然後早上還有個workshop的題目與視覺基本沒太大關係叫做Women in ...

CDC 2016 有哪些值得關注的亮點?

我來說乙個,CDC有乙個 唯一乙個 關於robotics的workshop,所有報告結束後專家們開始聊天扯淡,然後他們就開始吐槽我們control community,嗯,畢竟他們是roboticist,或者一半是roboticist。然後就說control community研究的東西各種過時和不...