Implicit Maximum Likelihood Estimation

[NIPS 2018]Implicit Maximum Likelihood Estimation

典型的Implicit probabilistic models包括GAN和VAE。虽然比相对应的prescribed probabilistic models更灵活,但是Challenges是无法用maximum likelihood来训练,而现有的方法比如说GAN却有着mode collapse/dropping, vanishing gradients and training instability这三大缺点。Implicit Maximum Likelihood Estimation(IMLE)被提出来解决这三个问题,并且可以用极大似然来优化。

核心思想:1、对每个数据点选择最相邻的采样 (而不是对每个采样选择最相邻的数据点) 2、把所选择的采样拉向对应的数据点

原因: 最大似然 等价于 High density at each data pointóSamples likely to be near data points

另,gan不能做mode coverage而vae可以,但vae不能做likelihood-free而gan可以

需要注意的:和GAN的不同是在最临近的邻居的discriminator,每个采样都有最临近的数据点, 但是一些数据点没有临近的采样 (这也是why mode collapse happens)

所以优势在于:没有 Mode Collapse/Dropping。换言之,这样的意义是使得recall提升。

实验:Multimodal Predition

Conditional Implicit Probabilis6c Model

其中y是i.i.d.采样,模型优化的是这个函数

Multimodal超分辨率

Multimodal图像合成

•给定输入,建模输出的完整分布对于ill-posed问题很重要。
•许多图像合成问题具有这种风格,因为通常有许多合理的输出图像与输入图像是一致的。

References:

Ke Li and Jitendra Malik. Implicit Maximum Likelihood Es/ma/on. arXiv:1809.09087, 2018

Ke Li, Shichong Peng and Jitendra Malik. Super-Resolu/on via Condi/onal Implicit Maximum Likelihood Es/ma/on. arXiv:1810.01406, 2018

Ke Li, Tianhao Zhang and Jitendra Malik. Diverse Image Synthesis from Seman/c Layouts via Condi/onal IMLE. arXiv:1811.12373, 2018

判断真实分布与生成分布的矩是否相等.