当前位置:AIGC资讯 > AIGC > 正文

【震撼来袭】Flux横空出世,吊打Midjourney,重塑AI艺术创作新格局!(附保姆级部署教程)

目录

一、Flux介绍

二、ComfyUI本地电脑部署

2.1、Flux模型下载

2.2、Clip模型下载

2.3、VAE模型

2.4、更新ComfyUI

2.5、导入工作流并进行测试

2.6、云服务部署并体验

一、Flux介绍

近日,Midjourney 6.1的问世尚在业界掀起波澜,文生图开源领域的新贵——Flux 1.0便以迅雷不及掩耳之势,以其卓越的性能震撼登场。根据最新测试数据,Flux 1.0不仅在性能上大幅超越了DALL·E-3和Midjourney V6的闭源模型,更是将开源SD3系列的Ultra、Medium、Turbo和SDXL全线击溃,成为业界瞩目的焦点。

Flux 1.0的问世,不仅仅是一个技术的飞跃,更是对现有文生图技术的一次革命性挑战。它以无与伦比的创造力和想象力,重新定义了艺术与科技的结合。而Flux 1.0的团队更是雄心勃勃,他们表示,文生图只是他们创新旅程的起点。未来,Flux将推出文生视频模型,意图与Sora、Gen-3、Luma等一线产品展开激烈的竞争,一决高下!

官方网站:https://blackforestlabs.ai/

Github开源:https://github.com/black-forest-labs/flux

▲FLUX.1 ELO分数与主流模型对比

那么,FLUX.1究竟有何过人之处,使其在众多AI图像生成工具中脱颖而出? FLUX.1的卓越表现,在于其在文字生成、复杂指令执行与人手细节描绘上的显著优势。例如以下是FLUX.1[dev]模型生成图像的示例,它展示了即便是在生成大量文字和多个人物场景时,依然能够保持字符和人物细节的准确性,避免了常见的错误。

▲FLUX.1[dev]生成图像示例1

说了这么多,那么该怎么体验呢?

首先得理清楚,FLUX.1共有专业版、开发版、快速版三种版本。

其中,**FLUX.1[pro]**是最先进的一个版本,具有顶级的即时跟踪、视觉质量、图像细节和输出多样性,面向专业用户提供定制的企业解决方案。 该版本适合商业应用,仅可通过API提供访问权限。

**FLUX.1[dev]**面向非商业应用,它从FLUX.1[pro]提炼而来,具有相似的质量和能力,同时比相同尺寸的标准模型更高效。 该版本是开源的,可在HuggingFace等平台上获得。

**FLUX.1[schnell]**是三款模型中最快的,专为本地开发和个人使用而定制,并根据Apache 2.0标准许可公开提供。 当然,上面提供的在线体验地址可以进行线上的体验生成图片,本次教程教大家进行本地ComfyUI部署。

二、ComfyUI本地电脑部署

如果你有一张16G以上显存的显卡,那么可以进行ComfyUI的本地部署,来部署Dev或者是Schnell模型。以下为使用ComfyUI本地部署的详细教程。文章中涉及到的模型和工作流,我已经全部上传到百度网盘,下载链接在“公举呺”后台留言“Flux”,大家可以下载配合本文一起使用。

2.1、Flux模型下载

如果要在本地进行部署,你需要首先下载dev或者schnell的模型权重。 HuggingFace模型下载链接为:https://huggingface.co/black-forest-labs/FLUX.1-dev

2.2、Clip模型下载

Flux系列模型使用的Clip模型是和SD3系列一模一样的 t5xxlfp16.safetensors 和 clip_l.safetensors,如果你之前已经下载了这两个模型可以直接放到以下Comfyui路径的文件夹下:ComfyUI/models/clip/。如果你没有这两个模型权重,可在HuggingFace下载。 HuggingFace下载链接为:https://huggingface.co/comfyanonymous/flux_text_encoders/tree/main

2.3、VAE模型

注意,FLUX系列模型使用的重新训练的VAE,即是上面Flux模型下载文件里面的ae.sft,下载之后将VAE模型放入ComfyUI/models/vae/路径下即可。

2.4、更新ComfyUI

打开Comfyui启动器,如果你是原版ComfyUI可以直接启动更新脚本,将内核版本升到最新版本。

2.5、导入工作流并进行测试

将基础工作流JSON文件拖入ComfyUI页面中。本次测试使用Dev版本的模型。

UNET选择加载flux1-dev.sft,weightdtype中选择fp8即可。

在Clip加载器中需要加载两个Clip模型:t5xxl和clip_l。 其中t5xxl可以选择t5xxlfp16.safetensors 和 t5xxlfp8.safetensors两种不同的精度选择其中一个即可。

在VAE中加载我们刚刚下载好的ae.sft。然后输入提示词即可。

我这里给出我测试用的提示词,大家可以自己去修改。

▲FLUX.1[dev]生成图像示例2

Prompt:Full body, pink and white gradient hair color of a semi robot girl, ultra detailed facial texture, large eyes, flowing long hair, dynamic posture, cyberpunk city, detailed luminous earphones, technological earrings, luminous hair accessories, long hair highlights, luminous earrings, luminous necklaces, mechanical lines, the most beautiful woman of humanity, cyberpunk style, lighting effects, front view, holographic projection, city high altitude, luorescence, front view, high detail, mecha and weapon style, martial arts and kung fu, surrounded by runes, lighting effects, holographic projection, dynamic background, dynamic pose, glow, best quality, extremely detailed, 3D rendering, 8k

▲FLUX.1[dev]生成图像示例3

Prompt:Asian girl, pretty beautiful girl, smile, medium hair, extremely beautiful face, wearing a low cut low v wire mesh tulle dress, in the style of Claus Rose, portrait, professional lighting, snap shot at park, windy, sharp focus, 8k, masterpiece, RAW photo, best quality

▲FLUX.1[dev]生成图像示例4

Prompt:3 magical wizards stand on a yellow table On the left, a wizard in black robes holds a sign that says 'Flux'In the middle, a witch in red robes holds a sign thatsays 'is'and on the right, a wizard in blue robes holds a sign that says 'Amazing'Behind them a purple dragon

▲FLUX.1[dev]生成图像示例5

使用Dev模型生成出来的图片都非常不错,出图质量和速度堪比Midjourney,个人开发者赶紧部署起来玩玩吧!

2.6、云服务部署并体验

如果呢,你的电脑没有显卡或者显存不足,可以考虑云服务器,这里我推荐仙宫云。 仙宫云官网:仙宫云 | GPU 算力租赁 | Xiangongyun.com 

注册登录之后,在搜索框中搜索“Flux文生图”即可,点击部署镜像。

接着打开“仙宫云OS”

进行“启动ComfyUI”,随即点击“ComfyUI”图标,打开ComfyUI界面

然后将工作流移动进去就行啦!这里我帮大家部署好啦,就跟往常一样修改提示词,直接启动生成图片就行啦!

最后呢,非常感谢你阅读到这里。如果你觉得这篇文章不错,**请随手点个赞、在看、并分享给更多的朋友。如果你希望第一时间收到我的推送,「也可以为我点个关注⭐~」**再次感谢你的阅读,我们下次再见!拜拜~

总结

### 文章总结
本文详细介绍了Flux 1.0这一新兴的文生图开源模型及其卓越性能,并提供了在本地电脑和云服务器上通过ComfyUI部署Flux模型的详细步骤。
#### 一、Flux介绍
- **背景与性能**:Flux 1.0以其卓越的性能在文生图领域脱颖而出,超越了DALL·E-3、Midjourney V6等闭源模型及开源SD3系列模型。
- **未来展望**:Flux团队计划推出文生视频模型,与Sora、Gen-3、Luma等一线产品竞争。
- **版本介绍**:Flux 1.0提供专业版(FLUX.1[pro])、开发版(FLUX.1[dev])和快速版(FLUX.1[schnell])三种版本,满足不同需求。
#### 二、ComfyUI本地电脑部署
- **前提条件**:需要一张16G以上显存的显卡。
- **步骤概览**:
1. **下载Flux模型**:从HuggingFace下载dev或schnell版本的模型权重。
2. **下载Clip模型**:与SD3系列相同的Clip模型,可从HuggingFace获取。
3. **下载VAE模型**:Flux系列重新训练的VAE模型,需放入指定路径。
4. **更新ComfyUI**:确保ComfyUI为最新版本。
5. **导入工作流并测试**:将基础工作流JSON文件拖入ComfyUI,配置模型参数,输入提示词生成图像。
6. **云服务部署**:对于无显卡或显存不足的电脑,推荐使用云服务器(如仙宫云)进行部署。
#### 示例与体验
- **生成图像示例**:文章展示了多个使用Flux.1[dev]模型生成的图像示例,展示了其出色的细节描绘和创意能力。
- **提示词示例**:提供了多个测试用的提示词,供读者参考和修改。
#### 结语
- **鼓励与分享**:鼓励读者点赞、分享文章,并关注作者以获取更多推送。
通过本文,读者可以全面了解Flux 1.0的性能优势及如何在本地和云服务器上部署使用,进而体验其强大的文生图能力。

更新时间 2024-08-14