笔者的数理基础不是很好,还在研磨统计基础中,有解释不到位的欢迎指出
主要贡献
- 提出一个新的Distribution matching loss,蒸馏模型的图像质量几乎没有损失。
- 能快速加速图像生成。
问题描述
有一个老师diffusion模型
Loss1:DMD Loss
文章引入了两个loss作为最终loss。
首先是作为大头的DMD loss。可以类比GAN,因为我们同样也有一个生成器,我们对
生成的图片记为 - 原老师生成器生成的图片记为
DMD loss可以被翻译为分布匹配损失,可以简单地用KL Loss来估计,那么我们定义DMD loss如下。
我们对其进行简单的求导,得
这个loss梯度是比较难算的,作者提到了两个原因:
- 因为对于t很小的
的分布(蓝色),是无法给DMD loss有效的信号。因此对于 很高的x在p_{real}(x)就会很小或者几乎没有。 - Diffusion本身只能返回
就是加过噪声的分布(多元高斯分布)而非初始数据分布,所以不能直接对分布进行求导。
解决这两个问题的方法借鉴了Song et al. 的Score-SDE,详细推导可以看这篇。
- 首先,我们对原始图片加噪,
是提供的,所以可以直接用;但是 不行,我们要对他进行估计,同时要时刻对齐 输出的,因此我们要让 从 中来, 直觉上作者用了用一个简单的denoising loss( 让 时刻学习到 的变化。 - score可以被估计为:
如上图所示,未加噪的分布很有可能在
附:DMD loss的具体实现并不是简单的$\nabla_\theta D_{KL}
=
\mathbb{E}_{z \sim \mathcal{N}(0,I),\; x = G_\theta(z)}
\left[
- \big( s_{\text{real}}(x) - s_{\text{fake}}(x) \big)
\frac{dG}{d\theta}
\right]$项,而带了不少的正则项,为了稳定在不同噪声大小的gradient大小,作者引入了一些权重系数的公式,详细可以读一下下面这一串解释,这篇文章整体都写的还是比较清晰的。
Loss2: Regression Loss
- 单单使用DMD loss会有mode collapse的问题,也就是fake distribution会只学到某些real distribution。
- 而且对于t靠近0的情况,
趋近于0。
作者通过引入一个regression loss,即
下面列举了Loss不同构造方式时候,学习到的fake distribution的分布示意图。
实验中采样效果对比图。一个去掉了DMD loss,显然质量下架严重;另一个去掉了Reg loss,显然多样性不足。
算法实现
算法
- 准备材料:一个pretrained
,和一些噪声,预先用teacher跑的干净生成的图像对,记为 - 先用teacher model的权重load到单步生成器
和多步生成器 中。 - 采样batch噪声,然后喂给
生成。 - 算loss:
,算出 和 ,然后算DMD loss,再在用LPIPS Loss算下x_ref和y_ref的差距;用这两个loss更新 - 之后更新
,来动态的学习一个单步生成器的假分布。
杂谈
- 训练generator和
像一个boostrap的流程,我在读这算法的时候愣了一下,因为一开始因为初始化 和 的weight不是一样的吗,DMD loss不是0吗,之后才发现fake diffusion也是要逐步和generator对齐的,会逐渐学习到一个动态的fake的分布,和 也会逐渐不同,也就逐渐能给出有效的gradient了。
有一个点不太懂:
- 为什么reg loss能作为一个正则项的,就消融实验效果能看的出来但是统计直觉上不太理解希望佬们提点一下。