自己安装SD模型生成视频,ComfyUI工具的安装和使用

很多事情,其实难在迈出第一步。自己的电脑显卡可以的,想要自己安装Stable Diffusion作图和SVD作视频的。可以按照下面的步骤,快速的搭建自己的作图环境。

内容比较多,需要一些耐心,主要是下载,安装难度不是很大。
如果希望能够得心应手的使用这些工具,各种参数可以慢慢体会

23年末到现在AI视频一直很火,特别GTP的SORA,但目前为止还是期货。

我们就自己动手搭一个开源的,效果也是杠杠的。下面生成视频的效果

视频加载中...

Stable Diffuision是一个自己可控的选择,其他的pika、pixvert等也是类似的效果。

需要下载的内容:

内容比较多比较大,但想象一下自己可以做其他公司能做的东西

视频生成的逻辑:

看不懂也没关系,我也没仔细看

具体生成的视频效果,可以到这个地方先了解一下:
https://animatelcm.github.io/

一小部分的截图

铺垫的差不多了,喜欢动手的下面我们可以一步一步来:

系统要求

  • 操作系统:Windows 10/11, MacOS 10.15+, 或 Linux(Ubuntu 18.04+, CentOS 7+)
  • 内存:至少8GB RAM(推荐16GB或以上)
  • 硬盘:至少10GB的空闲存储空间
  • Python版本:3.7或更高

步骤1:安装Python

访问Python官网下载合适的Python版本。

安装Python时,确保选中“Add Python to PATH”选项,以便在命令行中直接调用Python。

步骤2:安装Git(可选)

  • Windows: 访问Git官网下载安装程序并安装。
  • MacOS: 在终端中运行 brew install git(若未安装Homebrew请先安装Homebrew)。
  • Linux: 在终端中运行 sudo apt-get install git(Ubuntu为例)。

开始安装需要的工具和软件

1、安装 ComfyUI

git clone https://github.com/comfyanonymous/ComfyUI.git

pip install -r requirements.txt

2、安装ComfyUI- Manager (管理自定义的node,例如SVD视频生成的节点等)

cd ComfyUI/custom_nodes

git clone https://github.com/ltdrdata/ComfyUI-Manager.git

cd .. ; python main.py (回到上一级目录,启动 ComfyUI)

浏览器访问,可以看到Manager已经安装好了


3、通过ComfyUI-Manager 安装第三方的nodes

Manager的菜单

4、安装AnimateDiff视频生成模型和工具

这些安装可以通过Manager去安装也可以手动安装,反正时间主要花在下载上了


ComfyUI-AnimateDiff-Evolved改进了 ComfyUI 的 AnimateDiff 集成,以及可在 AnimateDiff 之外使用的被称为“进化采样”的高级采样选项。

cd custom_nodes

git clone https://github.com/Kosinkadink/ComfyUI-AnimateDiff-Evolved.git

5、安装快速的编码器TAESD,用于生产内容的预览等

默认安装包括低分辨率的快速潜在预览方法。

要使用 TAESD (
https://github.com/madebyollin/taesd)实现更高质量的预览,

请下载 taesd_decoder.pth【
https://github.com/madebyollin/taesd/raw/main/taesd_decoder.pth】(适用于 SD1.x 和 SD2.x)

taesdxl_decoder.pth【
https://github.com/madebyollin/taesd/raw/main/taesdxl_decoder.pth】(适用于 SDXL)模型,

并将其放置在 models/vae_approx 文件夹中。


安装后,重新启动 ComfyUI 以启用高质量预览。

模型的下载(提示语:A solo redhead woman, with blue eyes and long hair styled on one side up, is captured in a photo flirting to the camera while holding an electric guitar, wearing a black skirt and pleated skirt, while wearing headphones and showcasing her mesmerizing red lips.)

推荐的模型,看着挺好看

将模型文件下载放到 models/checkpoints目录下

wget https://civitai.com/models/84728?modelVersionId=90072

ComfyUI的workflow文件可以在这边下载,是一个json文件,可以用Load选择倒入ComfyUI

https://civitai.com/models/323639?modelVersionId=362834


导入json文件的一部分(太大了)

针对模型中使用到的各种checkpoints(模型,替换下载下来的模型)

我用的是ByteDance的模型(
https://huggingface.co/ByteDance/SDXL-Lightning/tree/main)可以根据自己喜欢,我是选择了2step的模型,生成效果和速度都还行。

图片生成模型


缺失的模型下载,点执行,如果模型缺失,会出现红色框框。

记住模型名字,然后到 Manager的安装模型的地方去下载并安装

启动模型安装

搜索模型,然后install

模型查询和安装

缺失的Clip模型我安装的是这个

clip模型

需要的模型文件都比较大,可以替换的有很多,可以根据需要自己下载:

实在找不到的,可以到这些地方来下载。

1. AnimateLCM Lora & Motion module(https://civitai.com/models/290375?modelVersionId=326487)

2. Dreamshaper SDXL Lightning (or any SDXL checkpoint combined with Lightning Lora) (https://civitai.com/models/112902?modelVersionId=354657)

3. Photon (or any SD1.5 checkpoint)(https://civitai.com/models/84728?modelVersionId=90072)

4. SparseCtrl rgb (available in comfy manager)(https://huggingface.co/guoyww/animatediff/blob/main/v3_sd15_sparsectrl_rgb.ckpt)

5. IP-Adaper (available in comfy manager)

6. Clip vision for IP-Adapter (available in comfy manager)(https://huggingface.co/h94/IP-Adapter/blob/main/models/image_encoder/pytorch_model.bin)

看到日志里面有个错误,ipadapter_file 找不到对应的目录,选择不到下载模型文件

后来在 folder_paths.py 文件中按照目录结构,添加了一个居然就ok了

folder_names_and_paths["ipadapter_file"] = ([os.path.join(models_dir, "ipadapter")], [])

各种模型缺失,通过Manger,搜索添加后。总算可以生成视频了。


运行途中可以看到preview的效果。


生成途中


总结一下:

1、软件安装(python、ComfyUI等),workflow的json文件下载(
https://civitai.com/models/323639?modelVersionId=362834)。也就是主界面上Load的Json文件

2、节点安装,首先安装Manager,然后通过Manager安装各种模型以及节点
3、遇到找不到的模型,通过Manager去找比较好一些,自己找的容易目录找不到
4、模型文件通常比较大,下载比较费时间,要有耐心
5、生成过程时间比较长,要有点耐心

欢迎关注和留言,有问题一起探讨。

举报