是不是迫不及待想试一试了呢,那我们开始吧,手把手教学,外婆真的看了都会的教程,开始进入教学!!
StableDiffusion是一款基于人工智能技术开发的绘画软件,它可以帮助艺术家和设计师快速创建高品质的数字艺术作品。该软件使用了一种称为GAN(生成对抗网络)的深度学习模型,该模型可以学习并模仿艺术家的创作风格,从而生成类似的艺术作品。
StableDiffusion具有直观的用户界面,可以让用户轻松地调整绘画参数并实时预览结果。用户可以选择不同的画布、画笔和颜色,还可以通过调整图像的风格、纹理和颜色等参数来创建各种不同的艺术作品。
除此之外,StableDiffusion还提供了一些高级功能,例如批量处理、自动矫正和自动化调整等,可以帮助用户更加高效地完成大量的绘画任务。
总之,StableDiffusion是一款功能强大的AI绘画软件,它比现在市面上主流的AI绘画软件Midjourney更加的强大,可以说SD是所有AI绘画的鼻祖级存在,同样,更强大代表着它的上手难度及配置要求也更高。那么说到这里,我们就来看看这两款软件的一个对比吧
1.配置要求:
需要使用N卡(NVIDIA显卡),显卡的显存至少需要4GB以上显存才能在本地运行。最低配置需要4GB显存,基本配置6GB显存,推荐配置12GB显存或者以上。
StableDiffusionAi绘画主要是运行显卡,算力越强,出图越快。显存越大,所设置图片的分辨率越高)
“推荐使用RTX4090显卡哦”-----来自一个3080显卡玩家
还有一点的就是硬盘空间要大,SD出图主要依赖模型,网上下载的模型资源一般都很大(一个模型在2G以上)批量跑图也是很占内存的,这边建议60GB以上的硬盘空间。
2.网络要求:大家都懂哈,咱也不说。
3.操作系统:需要是Win10或Win11。
满足以上条件基本上就可以用SD跑图啦。
自己手动安装需要上Github下载文件,还要下载Ptthon等工具,一般第一次手动安装会出现各种奇怪的报错,总之很复杂,我之前自己安装过,真就花了一上午都还没安装好。所以我不建议也不教大家手动安装了。(如果你要硬上,可以在网上看看别的使用教程)
上黑科技!!!咱直接去使用@秋葉aaaki大佬的免费启动器和安装包。
注意:下载的文件一定要放在空间比较大的盘里。
来看下具体操作:
1.安装一下这个“启动器运行依赖”。
2.然后把这两个文件复制一下,我们需要粘贴到“webui:文件夹中
3.粘贴替换目标中的文件。粘贴的位置看我的文件夹路径。
4.这里我重新走一遍打开流程,以防大家退出去了不知道从哪里进。我们打开下载的文件夹,然后进入到“novelai-webui”文件夹
5.打开“novelai-webui-aki-v3”文件夹。
6.然后下拉下拉...找到这个启动器,双击就完事了,这个就是我们刚刚粘贴替换的文件。
7.然后就打开啦,一键启动就好了。
1.大模型的切换
首先是这个界面左上角,在这里可以切换你所安装的模型。
然后我们在C站上下载一些模型:
接下来就是安装了,很简单,把下载的模型放到这个路径文件夹中。然后刷新webUI界面(就是SD操作界面)
2.模型的VAE(Sd的VAE)
VAE的全称是VariationalAuto-Encoder,翻译过来是变分自动编码器,本质上是一种训练模型,StableDiffusion里的VAE主要是模型作者将训练好的模型“解压”的解码工具。
这里可以切换VAE。一般情况下我们就选择第一个自动就行了。
在C站下载模型,在下载页面会有文件显示,如图。
VAE的安装路径看我这里,把下载的文件复制粘贴,然后把webUI界面刷新一下(就是SD操作界面)
言川总结:
VAE的作用就是没有加载VAE的图片是灰灰的,加载之后就是会产生一个润色的效果,色彩更加丰富。总的来说就是你在C站上下载的模型有些内置就有VAE的属性(不需要下载VAE文件),有些没有内置下载的时候我们就把VAE文件下载。(VAE文件一般大小在几百兆左右)
3.功能选项
这里我挑选几个重要的功能讲解下。
下面这块参数就是设置图片的一些基本参数,分辨率、尺寸等等,具体参数见下文。
图生图,这个也很好理解,放参考图然后输入提示词,与其他AI绘画软件一致。
图片信息,意思是你用SD画的图,放在这里来,右边会显示这个图片的一些参数,包括关键词。
然后你可以选择右下角的一些功能,比如“文生图”。
模型合并,这个功能很厉害,后面我出一篇关于这个功能的教学,大致就是把多个模型混合起来。
训练,这个就是训练自己的模型,新手用的比较少,后面可用作工作流的部署。(这个才是我推荐的核心哦)
设置,然后就是设置,大家自己去研究下就好了。
4.提示词和反向提示词
言川提示:
提示词内输入的东西就是你想要画的东西,反向提示词内输入的就是你不想要画的东西。
提示框内只能输入英文,所有符号都要使用英文半角,词语之间使用半角逗号隔开。
一般来说越靠前的词汇权重就会越高,比如我这张图的提示词:
万圣节假期的拟人化形式是一个留着短发和恶棍笑容的可爱女孩,可爱的帽子,可爱的脸颊,虚幻的引擎,高度详细,艺术种子数字插图,wootooth,吉卜力工作室,deviantart,锐利的焦点,artstation,由AlexeiVinogradov面包店,糖果,绿宝石般的眼睛。
第一句关键词词组:万圣节假期的拟人化形式是一个留着短发和恶棍笑容的可爱女孩。那生成的图片主体画面就会是万圣节短发可爱笑容女孩
这里可能有用过Midjourney的小伙伴们就有疑问了,(((cutegirl)))是什么意思,为啥有这么多括号,我来为大家解答下,这个是权重调节,类似Midjourney的::
①最直接的权重调节就是调整词语顺序,越靠前权重越大,越靠后权重越低,上面说过。
②可以通过下面的语法来对关键词设置权重,一般权重设置在0.5~2之间,可以通过选中词汇,按ctrl+↑↓来快速调节权重,每次调节为0.1,也可以直接输入。
③加英文输入的(),一个括号代表这组关键词的权重是1.1,两个括号是1.1*1.1的权重,不要加太多了哈。可以结合第二点固定权重,比如(((cutegirl:1.2))),那这个关键词的权重就很高了。
5.功能按钮
我们来介绍下右边这几个功能,生成就不说了,输入关键词生成就跑图了。
第一按钮的意思是读取你上一张图的所有参数信息(包括关键词),比如你画一张图之后,关掉了软件,再次启动点击这个就会把参数复制进来。
第二个按钮就是删除了,清空关键词;这里可以和第一个按钮结合用哦
第三个按钮就是模型选择管理
这个按钮就是点击就会出现这些功能,你安装的模型和Lora都可以在这边调整。
言川小知识:这里可以把你生成的图片添加到模型的封面上,方便你后面看这个模型的效果,看我怎么做:
找到这个模型的名称,然后我这里是跑出来一张图片的,点击这个按钮(lora一样)
最终效果:
后面两个就是一个提示词模板功能:
我们可以先点最后一个按钮,把现在的关键词创建一下,取个名字
然后在模板风格这里选中我们刚刚创建的模板(可以多选)
选中之后按一下第四个按钮,我们创建的关键词就被填入进去了,这块收工!
6.采样步数
一般来说大部分时候采样部署只需要保持在20~30之间即可,更低的采样部署可能会导致图片没有计算完全,更高的采样步数的细节收益也并不高,只有非常微弱的证据表明高步数可以小概率修复肢体错误,所以只有想要出一张穷尽细节可能的图的时候才会使用更高的步数。(加大这个会导致出图变慢)
7.采样方法
Stablediffusionwebui是Stablediffusion的GUI是将stablediffusion实现可视化的图像用户操作界面,它本身还集成了很多其它有用的扩展脚本。
这里的采用方式有很多,但是我们常用的就那几个,我们可以去设置里面把不需要用到的关掉,不展示在这个界面中。然后点击右边的重启UI就好了。
8.高清修复和图片尺寸参数
前面两个做个简单的介绍,面部修复对写实的风格有点效果,可平铺就不要用了,生成的图片很奇怪,可以自己试试。
我们说说高清修复,高清修复的意思是把基础生成的图片,按照你选择放大的倍率放大到指定分辨率之后再重新绘制图片,受到你重复幅度调节的数值影响。
宽度、高度就是图片的长宽比,很容易理解,生成批次和数量就是几批,一批几张图,配置好的可以直接拉满,增加效率哦。
默认未选中高清修复是这样的,当前图片的参数。
9.随机种子(seed)
这个功能与Midjourney的Seed功能一样。
随机数的起点。保持这个值不变,可以多次生成相同(或几乎相同,如果启用了xformers)的图像。没有什么种子天生就比其他的好,但如果你只是稍微改变你的输入参数,以前产生好结果的种子很可能仍然会产生好结果。
输入不同的种子,生成的图片不一样,seed值一样,那生成的图片也是一样。
差异随机种子,需要勾选这个按钮:
这个功能是固定一个种子,然后调整差异强度来生成图片,因为是固定的seed值,所以生成的图风格都是类似的。
直接看图吧。
这边的几个功能都很简单,大家尝试下就能理解了,那基础操作我们就先讲到这里,大家赶紧玩起来吧!!