1080TI也能驯服最强文生图模型,FLUX本地部署让你玩转文生图
网上有众多的AI绘图,AI生图工具,但是他们往往都会生成水印,同时也不能满足个人定制的需求,所以很多人都会选择本地部署文生图模型,来进行自己的绘图需求。FLUX.1-dev是Black Forest Labs开发的开源文生图模型,目前BFL总共推出了三个模型,FLUX.1-Pro,FLUX.1-Dev,FLUX.1-Schnel.
特性 | FLUX.1 Pro | FLUX.1-dev | FLUX.1 Schnell |
开源情况 | 闭源 | 开源(非商业) | 开源(Apache 2.0) |
生成质量 | 最高 | 接近 Pro | 中等 |
生成速度 | 17.5秒/图 | 12.2秒/图 | 1.5秒/图 |
显存需求 | 24GB+ | 12-24GB | 8GB |
适用场景 | 企业级商用 | 开发者/研究 | 个人快速创作 |
FLUX.1-dev作为免费的开源模型,相较竞品能够输出更加高清且自然的文生图效果。下边显示了flux.1-dev和竞品的对比
指标 | FLUX.1-dev | SDXL Turbo | DALL·E 3 |
8K生成速度 (秒) | 7.8 | 3 | 23.1 |
提示词遵从度 (CLIP) | 0.81 | 0.73 | 0.79 |
显存效率 (GB/8K) | 24 | 38 | 49 |
多对象一致性 (%) | 94.2 | 87.5 | 91.3 |
可惜的是我一直未能去体验flux.1-dev令人惊艳的生成能力,最近终于决定去本地部署一下flux.1-dev-fp,这个专门为小显存用户优化的模型。本文就是基于我个人的部署经历,介绍如何在windows下通过comfyUI本地部署Flux.1-dev-fp8模型(相较于原版flux.1-dev,降低了显存占用),适合11GB显卡使用。下面及时给予本地部署的模型生成的结果



有手就行级别的部署指南
- 神器安装:ComfyUI官网秒下安装包(新手福音!)
官网直达Download ComfyUI for Windows/Mac
comfyUI目前最简单的方法就是使用官方提供的安装包进行安装,就和安装普通的软件一下下一步下一步即可,安装包会进行自动配置。相较于以前通过github下载源码,自己去部署环境进行安装,新的安装方式大大减少了用户的操作,对于新手的友好度有了显著提高
- 模型下载(重点!)
通常这一类模型都是从huggingface上获取的,不过huggingface访问需要翻墙,如果你没有vpn,那么可以选在从镜像站hf-mirror.com下载模型,本地部署主要下载下面4个模型:
✔️flux1-dev-fp8.safetensors(放进models\unet)
✔️clip_l.safetensors + t5xxl_fp8_e4m3fn.safetensors(拖入models\clip)
✔️ae.safetensors(扔进models\vae)
- 工作流加载的秘籍
当完成comfyui安装和模型文件部署后,我们打开comfyUI,然后直接把下面这张图拖入到comfyUI界面,flux的完整工作流就会被加载进来

工作流图片
如果加载失败,那么你也可以去Flux Examples | ComfyUI_examples,下载上图所示的图片。最终我们就看到了如下的工作流

工作流
- 实测血泪经验
只执行生成任务前,我们要将工作流中的模型替换成我们上一步下载的模型,当各处的模型配置完毕后,就可以点击执行就开始了我们的生图之旅。然后就是等啊等,第一张图等了整整10分钟,终于生成完毕了,索性后续生成性能提升了不少,只需要5分钟。这样我们就有了我们自己的私人文生图工具了。

整体流程
彩蛋
我们提供的提示词和文本越准确,获取的最终结果就越符合我们的需求,deepseek能够很好的帮助我们去生成提示词,关注我,后续提供如何使用deepseek生成提示词来帮助大家获取生成图像,并在效果不满意时,通过deepseeek修改提示词获得你想要的效果,也欢迎大家将自己的生成结果共享在评论区。