AIGC(AIgeneratedcontent),人工智能生成内容,指利用人工智能技术来生成内容,其中包括文字、语音、代码、图像、视频、机器人动作等等,被认为是继PGC、UGC之后的新型内容创作方式。
随着互联网行业发展和技术的进步,设计师也有越来越丰富的手段来应对多种类型的产品需求;比如说3D渲染、各种自定义的插件已经成为设计师的工作日常,在不断的提高大家的工作效率;包括最近火热的AI绘图,也时常出现在设计师的讨论话题当中;
目前市面上,AI绘图在商业设计领域,目前还鲜有人尝试。我们团队通过网上大量的资料和学习,针对AI的先有几个工具进行了研究和试验,看看高阶的AI模型能否满足我们的诉求。
由于市面上存在大量的AI绘画工具,每个工具擅长的画风也各有所长;例如MidJourney;画面注重细节的构建和表达;
StableDiffusion,画风更偏写实;
DiscoDiffusion;笔触较明显,适合油画风格;
包括每一类型里不同的模型也会有不同的效果,例如基于Stable-Diffusion开发的NovelAIDiffusionModels,风格更偏二次元;
基于AI绘图具有【低成本、批量输出】的特征,而商业化运营需求也带有【日常、高频】的属性,例如日常大促、节日促销活动的H5页面、电商banner等;所以我们想将AI绘图应用在商业化设计流程之中。尝试打破效率边界,利用低投入高产出的方式为团队提效。
在进行具体的AI绘图实验之前,我们先把商业化运营设计需求分类,以活动类型、周期、对应设计复杂程度,可将其分为为S、A、B三个级别。其中S级别以专题大促为主,页面以为banner和H5为代表;A级别以平台活动为主,同样是banner和H5需求并存;B级别为日常促销,以banner需求居多;
面对常规运营banner需求,之前团队合作流程是由产品、运营同学按固定周期提需求到设计部门,按需求排期,定量投入设计人力逐步交付。
既然工作流程上已是最短路径,那么我们尝试把目光聚焦在需求本质上,将banner的结构拆散,可以发现绝大部分的banner都由这五类元素构成;那么是否能够利用现有成熟的AI类技术平台,直接生成商业运营设计banner成品(或半成品)呢?我们接下来就尝试一下。
我们首先横向对比了国内外智能出图平台的各项能力,以关键功能类型作为衡量指标,得到了一张能力图表;
那么横向来看,各平台的能力可以划分为两大类模版绘制、AI绘制结合模版设计;
第一类在线模版绘制;大量模版可以供挑选并调整,支持线上编辑并输出;第二类AI绘制;优势是速度极快快、批量出图,但图像的质量没有保障,需结合模版能力一起使用才能质量可靠的设计图;综合效率和结果两方面来考虑,我们选择第二类方法,如上图所示网上有多种平台可供选择,大家可以根据需求自行选择恰当的平台来进行实验。
在具体操作流程上,跟我们常规的设计作图略有不同;大概分为2个阶段;
首先我们需要选择配图主题类型、活动类型、人群,这决定了图片风格和商品素材的表现;并输入对应的文案标题,即banner图的文案显示;
随后可得到批量生成的初稿;
点击任一初稿,进入线上编辑环节,利用丰富的在线编辑能力对banner图做调整,例如图层查找,替换商品素材、装饰素材,更改字体等等;在智能编辑模块中简单处理后即可得到可用的设计图;经过大量实验后发现,这类方式更适合于电商类型的banner图;同时在经过对产品、运营同学的简单培训后,大家也可以非常迅速的做到上手并产出banner图;这也与我们的预期判断是匹配的;
在正式开始作图之前,我们需要对MidJourney的能力区间、工作模式建立基本的认知。
MidJourney允许用户以对话的形式,通过以输入描述词的方式,经过AI模型运算后得到其返回的图片。
针对A类平台活动类运营需求的绘制工作共分为四个步骤,分别是风格定义,垫图描述,调整与输出;
首先先通过参考图,明确出我们倾向的风格和特征;
第二步我们需要用到【以图生图】,在discord中将参考图发给MidJourney,并结合意向风格,构图和其他特征添加上恰当的描述,可以得到初稿;
不断调整图像与描述词,最终逐步接近目标效果;
头图生成好之后,搭配上文案的字体设计与装饰元素,可以看到最终的效果如上。利用AI模型辅助生图,可以使繁琐的工作量可以得到有效压缩,从而把大家从繁杂的工作中解放出来。
那么针对画面设计要求更高阶的运营需求,除依靠设计师个人能力来应对之外,会否有更高效、便捷的办法呢,我们同样可以通过AI模型绘制的办法来尝试解决这个问题。
基于前面对于MidJourney的基础了解,我们接下来看下利用MidJourney辅助输出运营设计图的工作流,分别是风格定义、撰写描述、二次调整、输出4个步骤;
首先是风格定义,由于AI绘图具有高度的随机性和风格化的特质,而运营设计更注重理性的构图版式。所以在正式进入绘图步骤之前,我们需要提前明确画面大致的风格调性,这样才能保证后续AI产出的方向不跑偏,并更准确的获取我们想要的图像;
MidJourney模型出图有两种模式,最常见的是texttoimg文本生图;以及imgtoimg以图生图;文本生图即通过一段文本描述告诉AI模型你想要的画面,由它帮你绘制出来;以图生图是通过一份原始图片,配合文本描述,来绘制跟原始图片类似风格但又不尽相同的图片素材;无论哪种方式,都需要明确一个关键的概念【Prompt】,也就是【关键词描述】。
Prompt关键词描述可以理解为与AI创作沟通的媒介,我们需要将脑海中构想的画面用恰当的提示词(语句)描述出来,并通过它来缩小AI想象的空间,它才能听懂、理解并产出令人满意的画面。另外值得注意的是,相同的描述文本内容,词语的顺序、前后词汇的关系对于内容的产出影响差异也会非常的大。所以关键词描述的写法至关重要;
Prompt的大致写法由几个部分构成,主体部分,环境氛围,构图,风格化,以及其他设定。我们接下来通过Prompt描述公式,一步步完成一张美妆运营图的设计。
首先是主体内容的描述,通常可以拆解为,存在几个【什么样的】的主体,在做什么动作,并附带了其他的什么动作。例如:Therewasapinklipstickandaglassbottleofperfume;可以得到如上的主体内容,香水口红的图像。
其次是为主体内容添加场景或环境,例如给定某些地点或物件。比如案例中,我们指定背景花朵、自然植物,以及倒影等词汇。通过观察以上四张图,可以发现模型中【NaturePlants】这个词汇对画面有较大的影响,决定了不同风格的背景以及复杂程度。同时也能发现,尽管只相差了一个描述词,但前后结果仍存在较大的差异,所以大家在调试画面的过程中可以从词汇逐个调整,以尽量减少画面的随机跳变;
然后是构图与镜头,比如左侧两张图强调景深,右侧两张图强调了构图位置等;
接下来是风格化与参考方向,可以添加上艺术家名字或平台名字,或直接将图像风格写出来;比如说3D渲染还是2D画风,可以从上图的结果中明显感觉到两者的区别。
最终通过以上五个小步骤,我们可以得出一大批风格各异的草图;
再通过第一步的风格调性做筛选,可以初步得出不同类型的初稿,以满足不同的品类需求。
当取得满足需求的初稿之后,我们可以使用MidJourney的进阶功能,来提升图像质量或对图像画面做调整;以下是几个使用频率最高的的调整功能;
首先是通过点击成图下方的U按钮,可以放大对应序号的图片的比例,来提高其分辨率;
第二种,通过点击图片下方的V按钮,可以基于原描述词,生成对应序号图片的变体,画面对比母版,图片的细节会出现随机变化,例如上图的花蕊、香水瓶的外轮廓;
第三种是LightUpscaleRedo&BetaUpscaleRedo,这两个功能都可以提升画质并细化效果;
最后一种也是变体生成方法,值得注意的是,需在【/setting】中开启【Remixmode】功能后,再次点V功能,此时可以二次编辑关键词;例如上图就通过【Remixmode】重置了图像的尺寸比例。
将二次修正后的图像,经过设计师轻量化的调整工作,例如修正细节,添加文案后,即可看到最后的效果。
随着AI模型能力的飞速迭代升级,现有的短板能力也会不断补齐,因此我们可以相信在不远的将来,设计师利用AI模型来开脑洞并辅助出图是趋势所向,但并不是说我们需要完全依赖AI,因为设计本身是理性而浪漫的工作,仅靠随机性做设计是完全不可取且不靠谱的。更合适的思路应该是,设计师首先定义好规则与框架,从AI模型提供的成百上千个结果中寻找到最匹配我们诉求的结果,从而辅助我们更快更好的达成目标。另外面对日新月异的的智能工具,我们应该保持终生学习的心态,做好时刻接受新事物的挑战,才能在越来越激烈的竞争中立于不败之地。