1080TI也能驯服最强文生图模型,FLUX本地部署让你玩转文生图

网上有众多的AI绘图,AI生图工具,但是他们往往都会生成水印,同时也不能满足个人定制的需求,所以很多人都会选择本地部署文生图模型,来进行自己的绘图需求。FLUX.1-dev是Black Forest Labs开发的开源文生图模型,目前BFL总共推出了三个模型,FLUX.1-Pro,FLUX.1-Dev,FLUX.1-Schnel.

特性

FLUX.1 Pro

FLUX.1-dev

FLUX.1 Schnell

开源情况

闭源

开源(非商业)

开源(Apache 2.0)

生成质量

最高

接近 Pro

中等

生成速度

17.5秒/图

12.2秒/图

1.5秒/图

显存需求

24GB+

12-24GB

8GB

适用场景

企业级商用

开发者/研究

个人快速创作

FLUX.1-dev作为免费的开源模型,相较竞品能够输出更加高清且自然的文生图效果。下边显示了flux.1-dev和竞品的对比

指标

FLUX.1-dev

SDXL Turbo

DALL·E 3

8K生成速度 (秒)

7.8

3

23.1

提示词遵从度 (CLIP)

0.81

0.73

0.79

显存效率 (GB/8K)

24

38

49

多对象一致性 (%)

94.2

87.5

91.3


可惜的是我一直未能去体验flux.1-dev令人惊艳的生成能力,最近终于决定去本地部署一下flux.1-dev-fp,这个专门为小显存用户优化的模型。本文就是基于我个人的部署经历,介绍如何在windows下通过comfyUI本地部署Flux.1-dev-fp8模型(相较于原版flux.1-dev,降低了显存占用),适合11GB显卡使用。下面及时给予本地部署的模型生成的结果

有手就行级别的部署指南

  1. 神器安装:ComfyUI官网秒下安装包(新手福音!)

官网直达Download ComfyUI for Windows/Mac
comfyUI目前最简单的方法就是使用官方提供的安装包进行安装,就和安装普通的软件一下下一步下一步即可,安装包会进行自动配置。相较于以前通过github下载源码,自己去部署环境进行安装,新的安装方式大大减少了用户的操作,对于新手的友好度有了显著提高

  1. 模型下载(重点!)

通常这一类模型都是从huggingface上获取的,不过huggingface访问需要翻墙,如果你没有vpn,那么可以选在从镜像站hf-mirror.com下载模型,本地部署主要下载下面4个模型:
✔️flux1-dev-fp8.safetensors(放进models\unet)
✔️clip_l.safetensors + t5xxl_fp8
_e4m3fn.safetensors(拖入models\clip)
✔️ae.safetensors(扔进models\vae)

  1. 工作流加载的秘籍

当完成comfyui安装和模型文件部署后,我们打开comfyUI,然后直接把下面这张图拖入到comfyUI界面,flux的完整工作流就会被加载进来

工作流图片

如果加载失败,那么你也可以去Flux Examples | ComfyUI_examples,下载上图所示的图片。最终我们就看到了如下的工作流


工作流

  1. 实测血泪经验

只执行生成任务前,我们要将工作流中的模型替换成我们上一步下载的模型,当各处的模型配置完毕后,就可以点击执行就开始了我们的生图之旅。然后就是等啊等,第一张图等了整整10分钟,终于生成完毕了,索性后续生成性能提升了不少,只需要5分钟。这样我们就有了我们自己的私人文生图工具了。

整体流程

彩蛋

我们提供的提示词和文本越准确,获取的最终结果就越符合我们的需求,deepseek能够很好的帮助我们去生成提示词,关注我,后续提供如何使用deepseek生成提示词来帮助大家获取生成图像,并在效果不满意时,通过deepseeek修改提示词获得你想要的效果,也欢迎大家将自己的生成结果共享在评论区。

举报