基于流的生成模型
机器学习与数据挖掘 |
---|
基于流的生成模型(英语:flow-based generative model)是机器学习中的一类生成模型,利用归一化流(normalizing flow)显式建模概率分布。[1][2][3]这是一种使用概率密度变量变换法将简单分布转换为复杂分布的统计方法。
直接建模似然函数具有很多优点。例如,可以直接计算得到负对数似然并将其作为损失函数最小化。此外,通过从初始分布中采样并应用流变换可以生成新的样本。
相比之下,变分自编码器、生成对抗网络等其他生成模型无法显式地表示似然函数。
方法
[编辑]考虑随机变量和,其中。对于,定义一系列由变换得到的随机变量。其中函数满足可逆性,即存在反函数。最终输出变量用于对目标分布进行建模。
的对数似然为(参见下方推导过程):
为了高效计算对数似然,函数应既易于求逆,也易于计算其雅可比矩阵的行列式。在实践中,这些函数通常使用深度神经网络建模,并通过训练以最小化目标分布数据样本的负对数似然。这些架构一般设计为只需神经网络的正向传播即可完成逆运算与雅可比行列式的计算,例如NICE[4]、RealNVP[5]、Glow[6]等。
对数似然的推导
[编辑]考虑与,两者之间满足。通过概率密度变量变换公式,的分布为:
由反函数定理可以得到
使用行列式性质(其中是可逆矩阵),则有:
对上式取对数后得到对数似然:
对于任意和都能得到类似结论。最终由递归关系可以得到:
训练方法
[编辑]与训练其他一些深度学习模型类似,归一化流的目标是最小化模型的似然分布与目标分布之间的KL散度。将模型的似然分布记为,要学习的目标分布记为,则(正向)KL散度为:
上式右边第二项表示目标分布的熵,与模型参数无关,因此在优化时可以忽略,留下需要最小化的项是目标分布下的负对数似然的期望。由于此项难以直接计算,可以通过重要性采样的蒙特卡洛方法来近似。若已从目标分布中独立采样得到的数据集从的样本,则该项可近似估计为:
因此,可以将学习目标
替换为
换句话说,最小化KL相度相当于最大化模型在观测样本下的似然。[7]
训练归一化流的伪代码如下:[8]
- 输入:数据集,归一化流模型
- 求解:通过梯度下降法最化
- 输出:优化后的参数
变体
[编辑]平面流
[编辑]平面流(planar flow)是最早的归一化流方法。[9]给定某个激活函数,以及具有适当维度的参数,可以定义一般而言,逆映射没有解析解。
相应的雅可比行列式为 。
为保证其处处可逆,行列式必须在整个定义域内非零。例如当、时可以满足可逆性要求。
非线性独立成分估计(NICE)
[编辑]非线性独立成分估计(nonlinear independent components estimation,简称NICE)假设是偶数维变量,并将其从中间分成两部分。[10]此时归一化流的定义为
其中是任何带有权重的神经网络。
其逆映射为,雅可比行列式为1,即该归一化流动是体积保持(volume-preserving)的。
当时,这一映身可以视为沿方向的一种曲线剪切。
实值非体积保持(Real NVP)
[编辑]实值非体积保持(real non-volume preserving,简称Real NVP)是NICE模型的一种推广,定义为:[11]
其逆映射是,相应的雅可比行列式为。当时,退化为NICE模型。由于Real NVP映射将向量的两部分分开处理,通常需要在每一层后添加一个置换操作。
生成流(Glow)
[编辑]生成流(generative flow,简称Glow)模型[12]中每层由三个部分组成:
- 通道方向的仿射变换相应的雅可比行列式为 。
- 可逆1x1卷积相应的雅可比行列式为,其中是任意可逆矩阵。
- Real NVP部分,其雅可比行列式如前所述。
生成流通过引入可逆1x1卷积,改进了Real NVP中仅仅置换前后两部分的方式,而是对所有层的通道进行总体上的置换。
掩码自回归流(MAF)
[编辑]掩码自回归流(masked autoregresssive flow,简称MAF)基于自回归模型,其定义了一个分布在上的随机过程[13]:
其中和是定义自回归模型的固定函数。
使用重参数化技巧,该自回归模型可以被推广为归一化流:
令 可以重新得到自回归模型。
正向映射由于是顺序性的因而会很慢,但反向映射因为可以并列而会比较很快。
相应的雅可比矩阵是下对角矩阵,其行列式为 。
通过反转和这两个映射,可以得到逆自回归流 (inverse autoregressive flow,简称IAF)。与MAF相反,IAF的正向映射较快、反向映射较慢。[14]
连续归一化流(CNF)
[编辑]除了通过函数组合来构建流的方法,另一种方法是将流表示为连续时间动力学,得到连续归一化流(continuous normalizing flow,简称CNF)。[15][16]设为具有分布的潜变量,使用以下流函数将此潜变量映射到数据空间:
其中是任意函数,可以使用神经网络等进行建模。其反函数为:[17]
于是可以得到的对数似然:[18]
由于上式中的迹仅取决于雅可比矩阵的对角线,这意味着对雅可比矩阵的形式没有任何限制。[19]这与先前的离散归一化模型不同,后者将雅可比矩阵设计为上对角或下对角形式,以便更高效地计算其行列式。
其中的迹可以使用“哈钦森技巧”(Hutchinson's trick)来估计[20][21]:给定任意矩阵以及满足的任意随机向量,可以得到 。
通常,随机向量可以从正态分布 或拉德马赫分布中进行采样。
当由神经网络实现时,需要使用神经常微分方程[22]。实际上,CNF最早是与神经常微分方程在同一篇论文中提出的。
CNF主要存在两个缺陷:一是连续流必须是同胚的,从而保持方向性和环境同痕(例如,不可能通过空间连续变形将左手翻转为右手,也不可能将球面外翻或解开一个结),二是学习到的流可能会由于退化而表现不佳(有无数个可能的都能解决同一问题)。
通过增加额外的维度,CNF可以获得足够的自由度来反转方向并突破环境同痕(类似于可以在三维空间中翻转一个多边形,或在四维空间中解开一个结),从而得到“增强神经常微分方程”。[23]
通过结合流形的惠特尼嵌入定理和神经网络的通用近似定理,能够证明的任何同胚可以由上的神经常微分方程近似。[24]
还可以为流引入正则化损失,例如基于最优传输理论的正则化损失:[25]
其中是超参数。第一项惩罚模型随时间变化流场的振荡,第二项则惩罚模型随空间变化流场的振荡。这两项共同引导模型生成在空间和时间上平滑的流。
缺点
[编辑]尽管归一化流在估计高维概率密度函数方面取得了成功,但其设计仍然存在一些缺陷。首先,归一化流的潜空间并不是一个低维空间,因此基于流的模型默认情况下不支持数据压缩,需要很大的计算量。不过,仍有办法可以用它们进行图像压缩。[26]
此外,基于流的模型在估计分布外样本(即非训练集分布中抽取的样本)的似然值时通常表现不佳。[27]学者提出了一些假设来解释这一现象,其中包括典型集假设[28]、模型训练中的估计问题[29]或由于数据分布熵引起的基础性问题[30] 。
归一化流最有趣的特性之一是其学习到的双射映射的可逆性。这一特性通过模型设计中的约束得以保证,从而确保理论上的可逆性。逆映射对确保变量变换定理的适用性、雅可比行列式的计算以及模型采样都至关重要。然而在实践中,由于数值不精确性,这种可逆性可能被破坏,进而导致逆映射爆炸。[31]
应用
[编辑]基于流的生成模型已应用于多种场景,例如:
参考文献
[编辑]- ^ Tabak, Esteban G.; Vanden-Eijnden, Eric. Density estimation by dual ascent of the log-likelihood. Communications in Mathematical Sciences. 2010, 8 (1): 217–233. doi:10.4310/CMS.2010.v8.n1.a11.
- ^ Tabak, Esteban G.; Turner, Cristina V. A family of nonparametric density estimation algorithms. Communications on Pure and Applied Mathematics. 2012, 66 (2): 145–164. S2CID 17820269. doi:10.1002/cpa.21423. hdl:11336/8930 .
- ^ Papamakarios, George; Nalisnick, Eric; Jimenez Rezende, Danilo; Mohamed, Shakir; Bakshminarayanan, Balaji. Normalizing flows for probabilistic modeling and inference. Journal of Machine Learning Research. 2021, 22 (1): 2617–2680. arXiv:1912.02762 .
- ^ Dinh, Laurent; Krueger, David. NICE: Non-linear Independent Components Estimation. arXiv:1410.8516 [cs.LG].
- ^ Dinh, Laurent; Sohl-Dickstein, Jascha. Density estimation using Real NVP. arXiv:1605.08803 [cs.LG].
- ^ Kingma, Diederik P.; Dhariwal, Prafulla. Glow: Generative Flow with Invertible 1x1 Convolutions. arXiv:1807.03039 [stat.ML].
- ^ Papamakarios, George; Nalisnick, Eric; Rezende, Danilo Jimenez; Shakir, Mohamed; Balaji, Lakshminarayanan. Normalizing Flows for Probabilistic Modeling and Inference. Journal of Machine Learning Research. March 2021, 22 (57): 1–64. arXiv:1912.02762 .
- ^ Kobyzev, Ivan; Prince, Simon J.D.; Brubaker, Marcus A. Normalizing Flows: An Introduction and Review of Current Methods. IEEE Transactions on Pattern Analysis and Machine Intelligence. November 2021, 43 (11): 3964–3979. ISSN 1939-3539. PMID 32396070. S2CID 208910764. arXiv:1908.09257 . doi:10.1109/TPAMI.2020.2992934.
- ^ Danilo Jimenez Rezende; Mohamed, Shakir. Variational Inference with Normalizing Flows. arXiv:1505.05770 [stat.ML].
- ^ Dinh, Laurent; Krueger, David. NICE: Non-linear Independent Components Estimation. arXiv:1410.8516 [cs.LG].
- ^ Dinh, Laurent; Sohl-Dickstein, Jascha. Density estimation using Real NVP. arXiv:1605.08803 [cs.LG].
- ^ Kingma, Diederik P.; Dhariwal, Prafulla. Glow: Generative Flow with Invertible 1x1 Convolutions. arXiv:1807.03039 [stat.ML].
- ^ Papamakarios, George; Pavlakou, Theo; Murray, Iain. Masked Autoregressive Flow for Density Estimation. Advances in Neural Information Processing Systems (Curran Associates, Inc.). 2017, 30. arXiv:1705.07057 .
- ^ Kingma, Durk P; Salimans, Tim; Jozefowicz, Rafal; Chen, Xi; Sutskever, Ilya; Welling, Max. Improved Variational Inference with Inverse Autoregressive Flow. Advances in Neural Information Processing Systems (Curran Associates, Inc.). 2016, 29. arXiv:1606.04934 .
- ^ Grathwohl, Will; Chen, Ricky T. Q. FFJORD: Free-form Continuous Dynamics for Scalable Reversible Generative Models. arXiv:1810.01367 [cs.LG].
- ^ Lipman, Yaron; Chen, Ricky T. Q. Flow Matching for Generative Modeling. 2022-10-01. arXiv:2210.02747 [cs.LG].
- ^ Grathwohl, Will; Chen, Ricky T. Q. FFJORD: Free-form Continuous Dynamics for Scalable Reversible Generative Models. arXiv:1810.01367 [cs.LG].
- ^ Grathwohl, Will; Chen, Ricky T. Q. FFJORD: Free-form Continuous Dynamics for Scalable Reversible Generative Models. arXiv:1810.01367 [cs.LG].
- ^ Grathwohl, Will; Chen, Ricky T. Q. FFJORD: Free-form Continuous Dynamics for Scalable Reversible Generative Models. 2018-10-22. arXiv:1810.01367 [cs.LG].
- ^ Finlay, Chris; Jacobsen, Joern-Henrik; Nurbekyan, Levon; Oberman, Adam. How to Train Your Neural ODE: the World of Jacobian and Kinetic Regularization. International Conference on Machine Learning (PMLR). 2020-11-21: 3154–3164. arXiv:2002.02798 (英语).
- ^ Hutchinson, M.F. A Stochastic Estimator of the Trace of the Influence Matrix for Laplacian Smoothing Splines. Communications in Statistics - Simulation and Computation. January 1989, 18 (3): 1059–1076. ISSN 0361-0918. doi:10.1080/03610918908812806 (英语).
- ^ Chen, Ricky T. Q.; Rubanova, Yulia; Bettencourt, Jesse; Duvenaud, David K. Neural Ordinary Differential Equations (PDF). Bengio, S.; Wallach, H.; Larochelle, H.; Grauman, K.; Cesa-Bianchi, N.; Garnett, R. (编). Advances in Neural Information Processing Systems 31. Curran Associates, Inc. 2018. arXiv:1806.07366 .
- ^ Dupont, Emilien; Doucet, Arnaud; Teh, Yee Whye. Augmented Neural ODEs. Advances in Neural Information Processing Systems (Curran Associates, Inc.). 2019, 32.
- ^ Zhang, Han; Gao, Xi. Approximation Capabilities of Neural ODEs and Invertible Residual Networks. 2019-07-30. arXiv:1907.12998 [cs.LG] (英语).
- ^ Finlay, Chris; Jacobsen, Joern-Henrik; Nurbekyan, Levon; Oberman, Adam. How to Train Your Neural ODE: the World of Jacobian and Kinetic Regularization. International Conference on Machine Learning (PMLR). 2020-11-21: 3154–3164. arXiv:2002.02798 (英语).
- ^ Helminger, Leonhard; Djelouah, Abdelaziz. Lossy Image Compression with Normalizing Flows. arXiv:2008.10486 [cs.CV].
- ^ Nalisnick, Eric; Matsukawa, Teh. Do Deep Generative Models Know What They Don't Know?. arXiv:1810.09136v3 [stat.ML].
- ^ Nalisnick, Eric; Matsukawa, Teh. Detecting Out-of-Distribution Inputs to Deep Generative Models Using Typicality. arXiv:1906.02994 [stat.ML].
- ^ Zhang, Lily; Goldstein, Mark; Ranganath, Rajesh. Understanding Failures in Out-of-Distribution Detection with Deep Generative Models. Proceedings of Machine Learning Research. 2021, 139: 12427–12436. PMC 9295254 . PMID 35860036.
- ^ Caterini, Anthony L.; Loaiza-Ganem, Gabriel. Entropic Issues in Likelihood-Based OOD Detection. 2022. arXiv:2109.10794 [stat.ML].
- ^ Behrmann, Jens; Vicol, Paul. Understanding and Mitigating Exploding Inverses in Invertible Neural Networks. arXiv:2006.09347 [cs.LG].
- ^ Ping, Wei; Peng, Kainan. WaveFlow: A Compact Flow-based Model for Raw Audio. arXiv:1912.01219 [cs.SD].
- ^ Kingma, Diederik P.; Dhariwal, Prafulla. Glow: Generative Flow with Invertible 1x1 Convolutions. arXiv:1807.03039 [stat.ML].
- ^ Shi, Chence; Xu, Minkai. GraphAF: A Flow-based Autoregressive Model for Molecular Graph Generation. arXiv:2001.09382 [cs.LG].
- ^ Yang, Guandao; Huang, Xun. PointFlow: 3D Point Cloud Generation with Continuous Normalizing Flows. arXiv:1906.12320 [cs.CV].
- ^ Kumar, Manoj; Babaeizadeh, Mohammad. VideoFlow: A Conditional Flow-Based Model for Stochastic Video Generation. arXiv:1903.01434 [cs.CV].
- ^ Helminger, Leonhard; Djelouah, Abdelaziz. Lossy Image Compression with Normalizing Flows. arXiv:2008.10486 [cs.CV].
- ^ Rudolph, Marco; Wandt, Bastian. Same Same But DifferNet: Semi-Supervised Defect Detection with Normalizing Flows. arXiv:2008.12577 [cs.CV].