时间:2025-08-31来源:ai02门户网
编辑:LRS好困
【本站导读】MaskedDiffusionTransformerV2在ImageNetbenchmark上实现了1.58的FIDscore的新SoTA,并通过maskmodeling表征学习策略大幅提升了DiT的训练速度。
DiT作为效果惊艳的Sora的核心技术之一,利用DifffusionTransfomer将生成模型扩展到更大的模型规模,从而实现高质量的图像生成。
然而,更大的模型规模导致训练成本飙升。
为此,来自SeaAILab、南开大学、昆仑万维2050研究院的颜水成和程明明研究团队在ICCV2023提出的MaskedDiffusionTransformer利用maskmodeling表征学习策略通过学习语义表征信息来大幅加速DiffusionTransfomer的训练速度,并实现SoTA的图像生成效果。
论文地址:https://arxiv.org/abs/2303.14389
GitHub地址:https://github.com/sail-sg/MDT
近日,MaskedDiffusionTransformerV2再次刷新SoTA,相比DiT的训练速度提升10倍以上,并实现了ImageNetbenchmark上1.58的FIDscore。
最新版本的论文和代码均已开源。
尽管以DiT为代表的扩散模型在图像生成领域取得了显著的成功,但研究者发现扩散模型往往难以高效地学习图像中物体各部分之间的语义关系,这一局限性导致了训练过程的低收敛效率。
例如上图所示,DiT在第50k次训练步骤时已经学会生成狗的毛发纹理,然后在第200k次训练步骤时才学会生成狗的一只眼睛和嘴巴,但是却漏生成了另一只眼睛。
即使在第300k次训练步骤时,DiT生成的狗的两只耳朵的相对位置也不是非常准确。
这一训练学习过程揭示了扩散模型未能高效地学习到图像中物体各部分之间的语义关系,而只是独立地学习每个物体的语义信息。
研究者推测这一现象的原因是扩散模型通过最小化每个像素的预测损失来学习真实图像数据的分布,这个过程忽略了图像中物体各部分之间的语义相对关系,因此导致模型的收敛速度缓慢。
受到上述观察的启发,研究者提出了MaskedDiffusionTransformer(MDT)提高扩散模型的训练效率和生成质量。
MDT提出了一种针对DiffusionTransformer设计的maskmodeling表征学习策略,以显式地增强DiffusionTransformer对上下文语义信息的学习能力,并增强图像中物体之间语义信息的关联学习。
如上图所示,MDT在保持扩散训练过程的同时引入maskmodeling学习策略。通过mask部分加噪声的图像token,MDT利用一个非对称DiffusionTransformer(AsymmetricDiffusionTransformer)架构从未被mask的加噪声的图像token预测被mask部分的图像token,从而同时实现maskmodeling和扩散训练过程。
在推理过程中,MDT仍保持标准的扩散生成过程。MDT的设计有助于DiffusionTransformer同时具有maskmodeling表征学习带来的语义信息表达能力和扩散模型对图像细节的生成能力。
具体而言,MDT通过VAEencoder将图片映射到latent空间,并在latent空间中进行处理以节省计算成本。
在训练过程中,MDT首先mask掉部分加噪声后的图像token,并将剩余的token送入AsymmetricDiffusionTransformer来预测去噪声后的全部图像token。
如上图所示,AsymmetricDiffusionTransformer架构包含encoder、side-interpolater(辅助插值器)和decoder。
在训练过程中,Encoder只处理未被mask的token;而在推理过程中,由于没有mask步骤,它会处理所有token。
因此,为了保证在训练或推理阶段,decoder始终能处理所有的token,研究者们提出了一个方案:在训练过程中,通过一个由DiTblock组成的辅助插值器(如上图所示),从encoder的输出中插值预测出被mask的token,并在推理阶段将其移除因而不增加任何推理开销。
MDT的encoder和decoder在标准的DiTblock中插入全局和局部位置编码信息以帮助预测mask部分的token。
如上图所示,MDTv2通过引入了一个针对MaskedDiffusion过程设计的更为高效的宏观网络结构,进一步优化了diffusion和maskmodeling的学习过程。
这包括在encoder中融合了U-Net式的long-shortcut,在decoder中集成了denseinput-shortcut。
其中,denseinput-shortcut将添加噪后的被mask的token送入decoder,保留了被mask的token对应的噪声信息,从而有助于diffusion过程的训练。
此外,MDT还引入了包括采用更快的Adan优化器、time-step相关的损失权重,以及扩大掩码比率等更优的训练策略来进一步加速MaskedDiffusion模型的训练过程。
上表比较了不同模型尺寸下MDT与DiT在ImageNet256基准下的性能对比。
显而易见,MDT在所有模型规模上都以较少的训练成本实现了更高的FID分数。
MDT的参数和推理成本与DiT基本一致,因为正如前文所介绍的,MDT推理过程中仍保持与DiT一致的标准的diffusion过程。
对于最大的XL模型,经过400k步骤训练的MDTv2-XL/2,显著超过了经过7000k步骤训练的DiT-XL/2,FID分数提高了1.92。在这一setting下,结果表明了MDT相对DiT有约18倍的训练加速。
对于小型模型,MDTv2-S/2仍然以显著更少的训练步骤实现了相比DiT-S/2显著更好的性能。例如同样训练400k步骤,MDTv2以39.50的FID指标大幅领先DiT68.40的FID指标。
更重要的是,这一结果也超过更大模型DiT-B/2在400k训练步骤下的性能(39.50vs43.47)。
我们还在上表中比较了MDT与现有方法在classifier-freeguidance下的图像生成性能。
MDT以1.79的FID分数超越了以前的SOTADiT和其他方法。MDTv2进一步提升了性能,以更少的训练步骤将图像生成的SOTAFID得分推至新低,达到1.58。
与DiT类似,我们在训练过程中没有观察到模型的FID分数在继续训练时出现饱和现象。
MDT在PaperWithCode的leaderboard上刷新SoTA
上图比较了ImageNet256基准下,8×A100GPU上DiT-S/2基线、MDT-S/2和MDTv2-S/2在不同训练步骤/训练时间下的FID性能。
得益于更优秀的上下文学习能力,MDT在性能和生成速度上均超越了DiT。MDTv2的训练收敛速度相比DiT提升10倍以上。
MDT在训练步骤和训练时间方面大相比DiT约3倍的速度提升。MDTv2进一步将训练速度相比于MDT提高了大约5倍。
例如,MDTv2-S/2仅需13小时(15k步骤)就展示出比需要大约100小时(1500k步骤)训练的DiT-S/2更好的性能,这揭示了上下文表征学习对于扩散模型更快的生成学习至关重要。
MDT通过在扩散训练过程中引入类似于MAE的maskmodeling表征学习方案,能够利用图像物体的上下文信息重建不完整输入图像的完整信息,从而学习图像中语义部分之间的关联关系,进而提升图像生成的质量和学习速度。
研究者认为,通过视觉表征学习增强对物理世界的语义理解,能够提升生成模型对物理世界的模拟效果。这正与Sora期待的通过生成模型构建物理世界模拟器的理念不谋而合。希望该工作能够激发更多关于统一表征学习和生成学习的工作。
参考资料:
https://arxiv.org/abs/2303.14389网发此文仅为传递信息,不代表认同其观点或证实其描述。同时文中图片应用自网络,如有侵权请联系删除。