哈佛大学的文章 A Tutorial on Deep Latent Variable Models of Natural Language 是为了补充EMNLP 2018年的教程而写的,目的是作为对深度潜变量模型的介绍以及对最近进展的回顾。该资源为配套的PPT讲义。
本教程的重点是学习文本的深度潜变量模型,特别是可以表示为有向图形模型的模型。回顾了一些典型的文本模型,包括它们的应用,并探索了通过最大化对数边缘似然或其下界来学习这些模型。将本教程的很大一部分内容用于摊销变分推理,这是学习深度潜变量模型的关键技术,在该模型中,单独的推理网络被训练来执行近似的后验推理。
本教程中没有涵盖无向图形模型、通过马尔科夫链蒙特卡罗进行的后验推断、潜在变量模型的谱学习以及基于非似然的方法。