其中,AUTOMATIC1111的stable-diffusion-webui是目前功能最多最好用的,强烈推荐,下面就来介绍如何使用它。还是先看看他们的能力如何
要顺利运行stable-diffusion-webui和模型,需要足够大的显存,最低配置4GB显存,基本配置6GB显存,推荐配置12GB显存。当然内存也不能太小,最好大于16GB,总之内存越大越好,如下图显卡为NVIDIAGeForceGTX1060Ti(5GB/NVIDIA),这个上古显卡跑AI绘画着实比较吃力,但也能将就用。
通过git的方式将整个工程源码拉下来运行:
python--version查看当前版本。另外,建议使用Anaconda管理多个Python环境,详见
默认stable-diffusion-webui运行使用的是GPU算力,也就是说需要用到Nvidia显卡(配置越高,绘图越快)A卡不行,A卡不行,A卡不行(CPU算力跟GPU算力相比简直天差地别,虽然可以通过改参来实现,但有条件直接上N卡吧)。这里我们需要安装CUDA驱动,先确定一下电脑能安装的CUDA版本,桌面右下角->右键NVIDIA设置图标->NVIDIA控制面板:
可以看到我的电脑的显示的是NVIDIACUDA11.6.134driver,所以我的电脑要安装的CUDA版本不能超过11.6。注意:高版本显卡是可以安装低版本的CUDA驱动的,比如我也可以安装经典的10.2版本,但是安装11.6版本可以获得更高的GPU运行效率,所以一般来说推荐安装显卡支持的最高CUDA版本。在下面的网址中找到对应的CUDA版本进行安装:
直接选择"精简"安装就可以了,安装完成之后,可以使用如下命令查看CUDA版本,来验证CUDA是否安装成功:
nvcc--version注:如果你没有Nvidia显卡,也可以通过给stable-diffusion-webui指定运行参数--use-cpusd,让其使用CPU算力运行,但是非常不建议你这么做,CPU算力跟GPU算力相比简直天差地别,可能GPU只需要10秒就能绘制完成,而CPU却要10分钟,这不是开玩笑的。另外,如果你的显卡内存不多,建议4G的显卡加上--medvram启动参数,2G的显卡加上--lowvram启动参数。
Windows用户编辑webui-user.bat文件,修改第六行:
setCOMMANDLINE_ARGS=--lowvram--precisionfull--no-half--skip-torch-cuda-test如果是16系列显卡,出的图是黑色的话,也是修改webui-user.bat文件的第六行:
setCOMMANDLINE_ARGS=--lowvram--precisionfull--no-half2、下载权重文件sd-v1-4.ckpt这是stablediffusion运行必须的权重文件,4G左右,可以去huggingface下载后放到models/Stable-diffusion目录下
主要用于真人风格图像绘制(都可以下来试试,推荐lora)
chilloutmix_NiPrunedFp32Fix.safetensors
可以去C站下载,3.97G,下载完成后放到models/Stable-diffusion目录下
在安装配置好运行环境之后,直接运行工程下的webui-user.bat文件即可(如果是类Unix系统,则运行webui-user.sh)。ps:这样启动是白天模式
使用命令
.\webui.bat--themedark启动的是夜间模式(不加theme参数就是日间模式)
首次启动会自动下载一些Python依赖库(具体哪些库请看工程下的requirements.txt),以及项目需要用到的配置和模型文件(比如:v1-5-pruned-emaonly.safetensors,将近4个G~),初始化一次之后,下次启动就快了。
温馨提示:该项目是英文页面,可以使用extension进行中文版本扩展
4-12:插入——————————————————————————————————————————————
此扩展可以在Extension选项卡里面通过加载官方插件列表直接安装
安装完成~~~~
确保扩展已经正确加载后
选择简体中文语言包(zh_CN)
stable-diffusion-webui的功能很多,主要有如下2个:
在开始使用文生图之前,有必要了解以下几个参数的含义:
接下来我们来生成一张赛博朋克风格的猫咪图片,配置以下参数后,
点击"Generate"即可:
Prompt:acutecat,cyberpunkart,byAdamMarczyński,cybersteampunk8k3d,kerembeyit,verycuterobotzen,beeple|Negativeprompt:(deformed,distorted,disfigured:1.3),poorlydrawn,badanatomy,wronganatomy,extralimb,missinglimb,floatinglimbs,(mutatedhandsandfingers:1.4),disconnectedlimbs,mutation,mutated,ugly,disgusting,blurry,amputation,flowers,human,man,womanCFGscale:6.5Samplingmethod:EuleraSamplingsteps:26Seed:1791574510
注:提示词(Prompt)越多,AI绘图结果会更加精准,另外,目前中文提示词的效果不好,还得使用英文提示词。
上面截图里左上角StableDiffusioncheckpoint的值怎么跟之前截图里的不一样?这是因为我换了一个模型文件,还记得前面提到那个将近4个G大小的模型文件(v1-5-pruned-emaonly.safetensors)吗?那是stable-diffusion-webui的默认模型文件,用这个模型文件生成出来的图片比较丑,因此我换了另一个模型文件。模型文件下载的网站几个,比较出名的就是civitai,这上面共享的都是别人训练好的模型。模型文件下载地址:
根据你要生成的图片风格(比如:动漫、风景),挑选合适的模型查看,前面那个文生图的例子,使用的就是这个Deliberate模型,直接点击"DownloadLatest"即可下载该模型文件。
注:模型文件有2种格式,分别是.ckpt(ModelPickleTensor)和.safetensors(ModelSafeTensor),据说.safetensors更安全,这两种格式stable-diffusion-webui都支持,随意下载一种即可。将下载好的模型文件放到stable-diffusion-webui\models\Stable-diffusion目录下:
放置好模型文件之后,需要重启一下stable-diffusion-webui(执行webui-user.bat)才能识别到。
这些模型文件一般会附带一组效果图,点击任意一张,就可以看到生成该效果图的一些参数配置: