comfyui胸部任意放大工作流,你想要的它都可以!
comfyui中inpant和遮罩是不得不研习的一个工作流,因为太多工作流都需要这两个知识点和对应的节点,今天在学习过程中发现了一个一键F胸工作流正好能用的上以下节点,就尝试搭建学习了这个工作流!

这个工作流实际上是用segment anything modern的模型分割出你要重绘的部分,然后再用easy fooocus inpant节点去对主模型进行干预进对选定的部分进行局部重绘!

这里用的节点是yoloworld esam节点,因为总是选不到胸部所以用了两个yoloworl esam,逻辑是先对全身进行遮罩处理,再对局部进行遮罩(除胸部以外的地方进行遮罩,然后再用bitwise(按位计算的方式)可以简单理解为遮罩相减!
这里值得注意的是,我们必须了解yoloworld esam节点的一些参数,懂得了这些能让我们更好更自由的分割万物!

1.第一个confidence threshold(置信度阈值)。这个参数决定模型认为一个检测结果是有效的最低置信度。值越高,检测结果越严格,误检率越低,但漏检率可能增加。
我这里的经验是宁可低一点也不要设置太高,太高的话有些部分会检测不出来,当然你要自己测试,预览mask即可直观看到!mask preview!
这里测试0.18左右比较好,配合模型用yolo/L,具体大家去实测!个人感觉好像没有segement anything那个节点好用,欢迎测试!

2.第二个lou threshold(交并集阈值),这个挺不好理解的,我根据我的理解的举个例子,例如手在胸前放着,当你检测时你在输入框里同时输入了手和胸,但是这个时候,手因为站的位置太少就把手忽略了,检测不出来了!
那我们要检测更多元素的时候,这个值应该怎么设置呢?我问了下gpt,答案是越低越好,最好在0.2或者0.2有些!


当我问这个IOU设置为o的时候会怎么样,gpt这么说具体这个大家可自己检测!

其余的值基本上不用管了,主要是说检测框的粗细和检测阈值显示的字体大小等,对我们的检测结果没什么影响,可以忽略不管!
接下来我们要用到一个vae encode for inpainting将编码的遮罩输入到latent,但是经过测试l这个comfyui自带的latent你要是用这个结果就是遮罩部分生成的图像总感觉和未遮罩部分有很大的割裂感怎么也融合不到一起或者直接出现一片灰!

这里我们用easy fooocus inpaint这个节点,相当于当前使用主模型的补丁,什么意思呢?个人理解大概就是它在局部重绘的时候可以更好的借助原模型对局部重绘,就像photoshop里的给填充式生成!

这个节点需要连接vae encode for inpainting ,连接之后官方给的方案是用vae incode里的latent节点去连接采样器的latent但是我试了不行,后来用输入的参考图连接vae encode在直接导入采样器的latent这样能达到预期效果,具体大家可以测试!


等连接好之后就可以胸部自由变大了,你要做的就是输入1 girl ,huge breatst这样的提示词,调整重回幅度调整大小,调整yoloworld的信任值来遮罩图片!

好了今天就到这里了,感谢您的收看!