StableDiffusionWebUI目前最主流的搭配方式是Windows+Nvidia显卡,所以为了获得最佳的使用体验你需要配置一台Windows机器和一张Nvidia显卡(目前消费级显卡顶配4090)。
这里最核心的硬件就是显卡,配置层面上显卡有两个核心指标:
整合包相当于套了一层壳子,将一些繁琐的操作都封装进这个壳子,然后提供开箱即用的方式给用户,可以极大的降低用户使用成本。但如果你想要折腾一下安装过程,了解一下从零搭建一套环境需要做哪些事情,或者希望对运行环境做更多自定义操作的话,可以选择自行部署。
如果是自行部署注意需要开启cudnn加速,升级pytorch2.0以及开启xformers以提升生成速度,即使是4090在未经过提速之前生成图片速度也是不佳的。
PyTorch是一个针对深度学习,并且使用GPU和CPU来优化的tensorlibrary(张量库),仅仅是升级到pytorch2.0就可以使WebUI速度提升20%左右。
Xformers是Facebook出品的一款加速Transformers的工具库,xformers可以加速图片生成,并显著减少显存占用,是小显存玩家的福音,代价是可能生成不确定性的结果,注意该选项仅可用于Nvidia显卡,实测部分情况下提速接近100%。
SD模型调校目前有四种主流的优化方法,分别是DreamBooth,TextInversion,LoRA和Hypernetworks,几种模型的对比如下:
Embedding可以改变画面风格,快速得到你想要的画面特征的图片,常用于负向提示词,可有效提高出图质量。
有UP主举例说假如你是一个程序员,你的老板告诉你要做个购物网站:
插件体系是WebUI能够保持强大扩展能力的关键基础设施。
要提升成图质量,可以选用精度高表现好的模型,添加质量标准化提示词,增加分辨率等方式,除了以上方式之外,在WebUI中还有一系列功能时为了专门优化图像产出质量,为了我们获得更大更高清的分辨率而存在的。比如:
有人会问为什么不直接设置更高的分辨率呢?
Hires.fix的原理是先生成一张低分辨率图像,在此画面基础上结合文本提示词进一步添加画面细节,从而提高分辨率,达到放大图像的目的。它的优势是:
在图生图的页面中其实是没有高清修复的选项的,如果原图分辨率比较低,只要按更高的分辨率设置就可以实现"高清修复",如果想要生成的图片更大,画面更精细,可以使用UpScale放大脚本,在脚本栏开启"SDupscale",UpScale放大脚本的原理是将原图切成若干块之后分别重新绘制,最后拼合到一起。
UpScale放大脚本的优势是:
局部重绘顾名思义就是将AI生成画面中不满意的局部进行重新绘制以期待生成自己满意的画面。通常在我们对画面的99%都比较满意,只想修复图片不希望改变大部分区域时使用,比如AI绘画中常见的手画崩了的问题。:::info在web-ui中主要提供了三种方式进行局部重绘: