导读
基于next-token prediction的图像生成方法首次在ImageNet benchmark超越了LDM, DiT等扩散模型,证明了最原始的自回归模型架构同样可以实现极具竞争力的图像生成性能。
Llama也能做图像生成?文生图模型已开源 香港大学、字节跳动提出了基于自回归模型LLama的图像生成模型LlamaGen。这是基于next-token prediction的图像生成方法首次在ImageNet benchmark超越了LDM, DiT等扩散模型,证明了最原始的自回归模型架构同样可以实现极具竞争力的图像生成性能。
图1:LlamaGen生成图像示例。第一行是class-conditional图像生成,第二行是text-conditional图像生成(文生图)。
文章: Autoregressive Model Beats Diffusion: Llama for Scalable Image Generation
项目主页: https://peizesun.github.io/llamagen/
开源代码: https://github.com/FoundationVision/LlamaGen
开源模型: https://huggingface.co/FoundationVision/LlamaGen
体验网站: https://huggingface.co/spaces/FoundationVision/LlamaGen
1. 研究动机
多模态大模型的技术路线: 基于next-token prediction的自回归模型主导了大语言模型,那么多模态大模型的技术路线往LLM的技术路线靠是一种非常自然的选择。
我们从ViT中学到了什么? ViT在2020年提出后,CV领域有相当长一段时间内致力于给ViT加inductive bias,例如,多尺度策略,以期实现更优秀的性能。这个过程诞生了许多优秀的工作。但是站在2024年往回看,会发现最初的ViT架构也能够达到相似的性能。那么,同样的故事是否会发生在多模态领域?
自回归模型vs扩散模型: 开源社区对自回归模型做图像生成的印象大多停留在2020年的VQ-GAN的ImageNet benchmark FID15左右。然而,早在2021年的ViT-VQGAN已经达到了FID 3.0左右的性能,DALL-E v1,Parti等更是在文生图领域展现了巨大的潜力。不过这些工作都没有闭源,而同时期的扩散模型在Stable Diffusion社区的带领下一骑绝尘。
于是,研究团队致力于提出开源版的基于自回归模型的图像生成 !!!
2. Method
回顾现有的先进的图像生成模型,我们总结出其成功的三点关键设计:
(1)图像压缩/量化器(image compressors/tokenizers)
(2)可scale up的图像生成模型(scalable image generation models)
(3)高质量的训练数据(high-quality training data)
2.1 重训 image tokenizer
我们采用与VQ-GAN同样的CNN架构将连续的图像转化成离散的token。相比2020年的VQ-GAN,我们对image tokenizer有了更多的认知:一个优秀的tokenizer需要更大的codebook size,更低的codebook vector dimension,同时,更好的图像重建需要更多的token数量。
2.2 基于Llama架构的图像生成模型
我们的模型架构主要基于Llama语言模型,包括使用RMSNorm的pre-normalization、SwiGLU 和 RoPE。我们尽可能的保持与Llama语言模型一模一样的架构,尽管图像生成领域一些常用的技术可能进一步提高性能,如AdaLN。
在Class-conditional和Text-conditional(文生图)图像生成模型中,我们使用最简单的实现:class或text embedding直接作为start token,后续的image token应用next-token prediction范式产生。
2.3 多阶段的文生图模型训练流程
在第一阶段,模型在LAION-COCO的50M子集上进行训练,图像分辨率为 256×256。LAION-COCO原始数据集有 600M图文对。我们通过有效的图像 URL、美学分数、水印分数、CLIP图文相似度分数和图像大小来筛选这些图像。
在第二阶段,模型在10M的内部高美学质量图像上进行微调,图像分辨率为 512×512。这些美学图像的文本描述由LLaVa产生。
2.4 LLM部署框架
基于原生自回归模型架构的图像生成模型可以无缝采用现有的LLM部署框架,例如vLLM。这也是统一模型架构的一大优势。
3. 实验
3.1 Image tokenizers (图像量化器)
我们重新训练的image tokenizer在ImageNet和COCO上优于以前的tokenizers,包括VQGAN,ViT-VQGAN, MaskGIT。重要的是,基于离散表征的tokenizer与基于连续表征的VAE性能持平,例如在扩散模型中被广泛使用的SD VAE。这表明图像量化的离散表征不再是图像重建的一大瓶颈。
3.2 Class-conditional image generation
在ImageNet benchmark中,LlamaGen在 FID、IS、Precision和Recall等指标上都表现出了极强的竞争力,其中,LlamaGen-3B 模型优于广为流行的扩散模型 LDM和DiT。这表明最朴素的自回归模型架构有能力作为先进图像生成系统的基础模型。同时,与之前的自回归模型相比,我们的模型在各个参数量级上均优于以前的模型。这得益于更好的image tokenizer和Llama架构更好的扩展性。
3.3 Text-conditional image generation (文生图)
经过第一阶段的训练,模型基本拥有了图文对齐的能力,但其生成图像的视觉质量有待提高。第二阶段的训练显著提高了生成图像的视觉质量。我们认为这种提高来自两个方面:(1)第二阶段的训练使用了高质量的美学图像(2)第一阶段的图像分辨率是256x256,第二阶段是512x512,更大的图像分辨率会带来更好的视觉效果。
当输入更长的文本时,LlamaGen也可以生成兼具图文对齐与视觉质量的图像。
3.4 部署
基于vLLM部署框架,LlamaGen实现了326% - 414%的加速。
4. 结语
如果以扩散模型的发展路线做类似,目前的LlamaGen只是Stable Diffusion v1阶段,改进方向包括SDXL(更大的分辨率,更多的aspect ratio),ControlNet(更高的可控性),Sora(视频生成)。
从多模态大模型的视角看,自回归模型分别实现理解任务和生成任务都被证明了可行性,下一步就是在同一个模型中联合训练。这需要更多的图文数据和更大的计算资源才能走得通,也可能由于文本数据和图像数据的内在distribution不同这条路走到后面不太行得通。
大模型时代,一切皆有可能!
如何学习大模型
现在社会上大模型越来越普及了,已经有很多人都想往这里面扎,但是却找不到适合的方法去学习。
作为一名资深码农,初入大模型时也吃了很多亏,踩了无数坑。现在我想把我的经验和知识分享给你们,帮助你们学习AI大模型,能够解决你们学习中的困难。
我已将重要的AI大模型资料包括市面上AI大模型各大白皮书、AGI大模型系统学习路线、AI大模型视频教程、实战学习,等录播视频免费分享出来,需要的小伙伴可以扫取。
一、AGI大模型系统学习路线
很多人学习大模型的时候没有方向,东学一点西学一点,像只无头苍蝇乱撞,我下面分享的这个学习路线希望能够帮助到你们学习AI大模型。
二、AI大模型视频教程
三、AI大模型各大学习书籍
四、AI大模型各大场景实战案例
五、结束语
学习AI大模型是当前科技发展的趋势,它不仅能够为我们提供更多的机会和挑战,还能够让我们更好地理解和应用人工智能技术。通过学习AI大模型,我们可以深入了解深度学习、神经网络等核心概念,并将其应用于自然语言处理、计算机视觉、语音识别等领域。同时,掌握AI大模型还能够为我们的职业发展增添竞争力,成为未来技术领域的领导者。
再者,学习AI大模型也能为我们自己创造更多的价值,提供更多的岗位以及副业创收,让自己的生活更上一层楼。
因此,学习AI大模型是一项有前景且值得投入的时间和精力的重要选择。
总结
**标题:LlamaGen:基于自回归模型的图像生成新里程碑****摘要**:
香港大学和字节跳动携手推出了基于next-token prediction的自回归模型LlamaGen,该模型在ImageNet benchmark中超越了LDM、DiT等扩散模型,彰显了自回归模型在图像生成领域的巨大潜力。LlamaGen不仅在传统的图像分类条件生成上表现出了强大的竞争力,还在文本条件生成("文生图")方面展现出了卓越的性能。本文旨在深度探讨LlamaGen的技术特色、研究动机、方法论、实验结果,及对未来AI大模型学习资源的分享。
**一、研究动机与方法**
随着多模态大模型技术的不断进步,团队受到ViT启发,提出了基于原始自回归模型架构的图像生成模型LlamaGen。该模型采用与VQ-GAN相似的CNN架构对图像进行压缩/量化,并基于Llama语言模型构建了可扩展的图像生成模型。通过两个阶段的训练流程和LLM部署框架,LlamaGen不仅在技术层面实现了突破,还为未来的图像生成技术发展提供了新的方向。
**二、技术创新与突破**
- **架构创新**:基于Llama架构,实现了高质量的自回归模型图像生成。
- **性能提升**:在生成质量和处理速度上均超越当前的扩散模型,验证了自回归模型的强大潜力。
- **应用广泛**:支持类条件生成和文本条件生成("文生图"),满足多样化用户需求。
**三、实验结果与对比**
- 在ImageNet benchmark上,LlamaGen在FID、IS、Precision和Recall等指标上均表现出卓越性能,尤其在与LDM、DiT等模型对比中更为突出。
- 文本条件生成的图像质量显著提高,具备高度的图文对齐能力,进一步拓宽了图像生成应用的边界。
**四、学习资源分享**
随着大模型时代的来临,学习AI大模型已成为职场发展的核心竞争力之一。文中不仅分享了LlamaGen的研究成果,还提供了包括系统学习路线、视频教程、学习书籍及实例案例等丰富的免费资源链接,旨在助力读者更好地学习AI大模型,为未来科技领域注入新的活力。
**五、结语**
LlamaGen的成功突破,证明了自回归模型架构在图像生成领域的巨大潜力和广阔前景。作为AI大模型学习的一部分,它的实践经验和学习资源将为相关领域的研究者和从业者提供宝贵的经验和灵感。在AI技术日新月异的今天,让我们共同把握这一新时代的科技脉搏,为未来的科技发展贡献自己的力量。