首先是StableDiffusion的安装。我们还是去秋葉aaaki的视频下载他做的整合包,这个步骤很简单就是直接解压就行。视频也有详细的安装教程。
https://www.bilibili.com/video/BV1iM4y1y7oA/share_source=copy_web&vd_source=6c09aa7f53b69992e1cd572bbd2dbf94
之后在解压的文件夹找到这个启动器启动就行。
下载结束后点开秋叶的启动器,左侧tab模型管理,右侧选择SatbleDiffusion模型,然后点击上方的打开文件夹,把你下载的模型粘贴进去就行。搞完之后点击第一个Tab的一键启动按钮等待启动就行。
接下来我们需要安装ControlNet插件和下载模型。我这里写的比较简单可以去秋叶的这个视频看过程顺便从视频那里下载ControlNet需要用到的模型。
这里我们用的这个Brightness模型比较特殊他不是官方的ControlNet的模型,前几天的SD艺术二维码用的就是这个。
将模型文件放到\novelai-webui-aki-v2\models\ControlNet下就行。
如果你访问Huggingface太慢的话,也可以从我这个百度云下载:
这个模型是前几天做SD生成二维码的时候火起来的,本质上还是控制图片的光线和深度信息,不过在Depth的的基础上与环境和内容融合的更好不会向Depth那样生硬。接下来是正式的步骤:
还是走文生图的步骤
首先输入我们的提示词和反向提示词,我把我用的参数贴在这里:
提示词:Amelancholicautumnsceneinavastflowerfield,agentlebreezerustlingthroughthedrygrass,fallenleavesscatteredamongtheflowers,abittersweetatmosphere,amomentofquietcontemplation,1girl,longhair,white_skirt,high-waist_shorts,outfit,roses,(dynamicangle:1.1),vivid,Softandwarmcolorpalette,delicatebrushwork,evocativeuseoflightandshadow,wideshot,subtledetailsinthewiltingflowers,highcontrast,colorcontrast
反向提示词:(((nsfw))),EasyNegative,badhandv4,ng_deepnegative_v1_75t,(worstquality:2),(lowquality:2),(normalquality:2),lowres,((monochrome)),((grayscale)),badanatomy,DeepNegative,skinspots,acnes,skinblemishes,(fat:1.2),facingaway,lookingaway,tiltedhead,lowres,badanatomy,badhands,missingfingers,extradigit,fewerdigits,badfeet,poorlydrawnhands,poorlydrawnface,mutation,deformed,extrafingers,extralimbs,extraarms,extralegs,malformedlimbs,fusedfingers,toomanyfingers,longneck,cross-eyed,mutatedhands,polarlowres,badbody,badproportions,grossproportions,missingarms,missinglegs,extradigit,extraarms,extraleg,extrafoot,teethcroppe,signature,watermark,username,blurry,cropped,jpegartifacts,text,error,Lowerbodyexposure
提示词这里需要注意的是,尽量不要用一些例如特写人像之类的提示词,不然文字或者图案就会盖在人脸上,很难看,其他参数和模型就随你的喜好就行,也可以参考我图里的。
常规的信息填写完之后,我们要来处理重点的ControlNet了,首先需要在下面找到你安装的ControlNet,点击展开。
接下来我们需要准备类似我下面的黑底白字的图片,白字的内容决定了画面里展示的内容,这个比较好做我自己是用Figma做的你如果要是会用PS用PS做也行。实在不行的话打开Word打字然后截图也行。我这里文字放的靠下也是想避免文字被盖在人脸上。
之后点击启用的对勾,然后把PixelPerfect的对勾也打上。
之后预处理器这里我们不选择默认就是none,模型这里选择我们刚才下载的control_v1p_sd15_brightness这个模型。
接下来是最重要的两个参数,ControlWeight和EndingControlStep。
ControlWeight建议0.4-0.65。我这里也调整了好多次,这里数值越大,图案就会越明显,但相对的,文字和图片的融合度也会越差。可以自己多试,比较复杂的文字为了出效果可以调高点,简单的图案可以调低点。
好了基本上到这里教程就结束了,最后放几张我做的其他图。其实用Depth这类深度模型也可以做这种图不过融合没有这个效果好,另外也比较复杂。你也可以把这个模型跟其他模型结合来控制更多内容,比如和openpose结合固定人的位置避免文字出现在不该出现的位置。
这张是用Depth做的。
手把手教你用SD生成文字形状的光线,用来做营销宣传图非常有效
类似文字光效或者将文字合成在衣服上的图好像又火了,很多朋友在问怎么做,其实就是ControlNet的简单应用,比如模拟光线照射文字的,之前用来调整自然光线的角度和范围这次不过是将原来模拟光照的图变成了文字了。