第一次渲染,开始步数默认为0,步数为30,结束降噪步数比30大没有任何意义。如果小于步数就会主动停止。现在结束降噪步数为20,那么还剩余10步,就会传递给下一次降噪。返回噪波需要开启。二次渲染如果步数到了就不需要了。
也就是说当一次渲染为30步,开始降噪步数为0,结束降噪步数20,在20步结束了降噪步数,返回噪波需要开启噪波,第二次渲染的时候,步数为也为30,开始降噪步数要设成20。结束降噪步数>步数
这种方法适合不同模型的融合采样二次精炼,在SDXL和1.5模型都适用。
加载主模型。模型训练的时候像素512*512的图像(真实空间(Pixelspace)每一个像素生成的空间),训练后压缩一块一块的64*64电脑会在小块的空间(潜在空间)里面合成我们想要的消息,然后转换成我们肉眼所能看到的图像。
自己想的一个小小的例子,方便大家理解。
1.前期准备:
2.接收需求:
3.根据需求提取碎片:
4.草图设计:
5.实物组装:
图生图流程
1.初始图片上传
2.接收需求清单
3.细节还原与碎片提取
4.设计与制作
5.降噪与重绘幅度调整
6.最终生成
瑞士军刀:新建节点>加载器>Checkpoint加载器(pysss)
加载模型是分类,适用于模型储存在不同文件夹分类内,模型比较多的小伙伴.
决定潜在空间的图像大小,batch_size批次,就是生成多少张图,K采样器输入输出都需要潜在空间控制。
图片会在潜在空间之后解码
VAE解码后,今儿可以看到我们的图像了。保存图像路径可以设置,默认存在ComfyUI文件夹下的output内。
我们输入的是String类型的字符串,然后通过编码传给采样器。
以下节点需要安装插件使用,部分节点输出可能是String,所以需要使用默认CLIP文本编码器在CLIP节点上面右键选择转换为文本输入
当然这种操作可以适用绝大多数节点,就像编程一样,可以把某些节点内的参数转换成变量使用。例如重绘多采样器或者放大操作使用共享相同的随机种子,专门的变量框可以使用元节点,也可以直接拉。
汉化插件:新建节点>ALEK节点>条件
from设置现在的语言to设置要翻译的语言
文本翻译过后是否正确,可以使用预览文字和展示文本节点来查看。下同。
form设置auto自动to目标语言
add_proxies可以开启代理
service设置翻译引擎
manual_translate手动翻译
瑞士军刀插件:新建节点>实用工具>字符串操作
append追加replace替换
可以提升文本框为变量,然后用翻译文本组合使用,每个翻译文本框里面都可以输入不同的场景,这样逻辑会更加清晰。比如第一个是场景环境,第二个是对人物进行修饰的提示词,还有很多操作。
SDXLPromptStyler插件:新建节点>高级>条件
普通版:宽高,裁剪宽高一般不动,目标宽高。CLIP中的分辨率一般是真实生成图像的倍数关系,一般都是2倍,4倍这种,配个瑞士军刀的数学表达式使用会更简单。
优化:相比普通的CLIP文本编码SDXL,优化适用于二次精炼。
新建节点>实用工具
可以直接作用于空Latent节点输出的宽高。
假设空Latent节点宽高为1024,直接空Latent出连在A上。获取数据就是a.width,此时他就是1024。如果4倍就是a.width*4。注意在这个里面,不管条件是什么输出的只是一个数,出整数或者浮点直接连接CLIP文本编码SDXL的进宽高就行了。
新建节点>图像>加载图像
图片上传输入。mask就是图片蒙版,有可能照片年代久了,有些地方不出清楚了,或者之前有些地方不好看,我们就把它圈起来然他对圈起来的地方重新设计。
使用遮罩后要使用VAE内补码编码器,不然不识别遮罩。
新建节点>Latent>内补>VAE内补码编码器
相比普通VAE编码多了一个遮罩连接点。
使用遮罩后,注意自己的题词,不然会出现更多的手和脚或者衣服之内的。
新建节点>图像>变换>图像裁剪
宽高设置,x,y实现裁剪偏移,在右侧菜单栏中更多选项中勾选自动执行(AutoQueue)改变状态。配合图像按系数缩放节点来实现
对应webuiClip跳过层
新建节点>图像>WD14反推提示词
节点需要插件,并且配置科学,从远程批量下载模型提示词。同时也可以下载模型,本地运行。
模型:设置反推提示词模型
置信度:阈值,给的越低,反推出来的提示词越零碎,越详细。阈值越高,就会挑一些主要的提示词描述。角色置信度同理。
排除标签就是反推出来的字符串中有你不想要的,你可以复制粘贴进去。
同时也可以配合瑞士军刀插件字符串操作。
新建节点>实用工具>SDXL风格化提示词(高级)
L偏向于tag,类型人物,座椅板凳这种名词描述,短袖,牛仔裤。
G偏向于风格,形容词,比如形容女性的头发:长发短发,什么颜色。穿着什么样:什么样的短袖,什么样的牛仔裤。
输出为字符串,普通的SDXL需要提供CLIP文本编码器将文本框提升为连接点,SDXL风格化提示词(高级)需要提供CLIP文本编码器SDXL。
SDXL默认加载一个offset的Lora,进行光线调节。使用风格化提示词,简单的图像也可以没必要使用offset的Lora。
负面词应用可以控制只应用G或者L。
新建节点>条件
图像不能直接输入给ControlNet应用,需要安装预处理组件
ControlNet插件:新建节点>ControlNet预处理器
方便简单调用各种预处理器
瑞士军刀:新建节点>加载器
相比普通的,加载Lora方便文件夹内模型管理
多选:按住ctrl+鼠标拖动
多选后可以右键创建模板组
鼠标中间可以添加中转节点(理线器)
指定宽高倍数,粗暴放大,只是尺寸变大。
指定倍数,粗暴放大,二次采样注意重绘幅度。
新建节点>图像>放大>图像通过模型放大
放大中图像缩放,图像按系数缩放也是粗暴放大
4x-UltraSharp.pth
新建节点>图像>放大>SD放大
SD放大节点混合了采样器采用区块式和webui一样。
区块大小自定义,区块模糊就是边缘羽化大小,分块分区通常默认。
接缝修复模式通常采用BandPass效果较强,HalfTile比较弱。HalfTile+Intersections效果折中。如果不选默认为none会不起作用。
SD放大(不放大)少一个,方法模型连接点。用于二次采样二次修复
新建节点>遮罩>加载图像遮罩
这个操作是直接在潜空间里面拿图,不需要二次采样
新建节点>Latent>内补>设置Latent噪波遮罩
可以直接遮罩连接点向旁边拖选择设置Latent噪波遮罩,然后直接使用上一个K采样器输出的Latent然后输出到下一个K采样器
CLIP视觉加载器输入到CLIP视觉编码,同时将图像也输入。输出unCLIP条件也可以利用提示词传给条件零化然后传给unCLIP条件,再然后直接传给K采样器。这个过程可以利用多CLIP视觉编码进行风格化图片等等。