StableDiffusion的完整指南:核心基础知识制作AI数字人视频和本地部署要求

针对本地部署的硬件和软件要求,蓝海大脑高效、可靠和经济的PC集群解决方案采用高性能GPU节点和高速网络互联,能够满足大规模模型训练和推理的需求。同时,该方案提供多种深度学习框架和模型库,方便用户进行模型的训练和推理。此外,蓝海大脑PC集群解决方案还提供全面的安全防护措施,包括数据加密、访问控制和安全审计等,以确保用户数据的安全性和隐私性。

一、StableDiffusion核心基础内容

1、StableDiffusion模型原理

GAN通过对抗训练实现,让生成器和判别器互相竞争,不断逼近真实数据分布。而StableDiffusion无需对抗,直接利用文本提示指导模型生成所需的输出。可以说,GAN和StableDiffusion如同变色龙,可根据需求变换不同的创作形态。为人类开拓一个广阔的想象空间,任何灵感都可以通过生成式模型试验实现,将抽象概念转换为具体作品。生成式模型助力人类创造力的释放和拓展,正在引领一个前所未有的创作新时代。

生成式模型的主流架构

下面主要就GAN详细描述。由于篇幅原因,VAE和Flow-basedmodels这里就不过多介绍。GAN的训练过程可比喻为一场精妙的舞台表演。表演由两大角色联手完成——生成器与判别器。生成器扮演制作“假货”的角色,生成尽可能逼真的假数据来欺骗判别器。判别器则扮演辨别真伪的角色,判断生成器输出的数据是真是假。

两者之间展开一场激烈的智慧竞赛。生成器不断提升自己的造假技术,使生成的假数据更加真实。判别器也在竞相增强自身的判断能力,来识别假数据的破绽。双方都在以极快的速度成长。要取得最佳的生成效果,生成器和判别器必须同步训练。这也增加了GAN的训练难度。在训练初期,生成器制造的假数据非常容易被判别器识破。但随着训练轮数的增多,生成器的造假水平越来越高,判别器也必须不断自我革新来跟上生成器的进步。

这里可以把生成器比喻为高明的画家,不断精进绘画技巧来制作逼真的艺术品。判别器则像鉴赏家,需要提高自己的审美和识别能力,才能判断画作的真伪。两者互相促进,最终画家可以画出真假难辨的作品。GAN训练过程中充满智慧的对抗与不断深化的博弈。表面上双方合作焕然一新,实际都在暗地努力进步。最终,生成器取得决定性优势,其生成效果达到欺骗判别器的视真程度。

SD文生图过程

StableDiffusion(SD)模型在图像生成任务上有着广泛的应用。其中最典型和基础的两大应用分别是文生图和图生图。

SD图生图过程

图生图(Image-to-Image)在文生图的基础上,额外输入一张图像,根据文本描述对图片进行修饰和丰富。例如,先输入“天堂,巨大的,海滩”,生成一张美丽沙滩的图片。然后继续输入“海盗船”,同时输入先前生成的沙滩图。模型将解析文本语义,在原图片中添加一个海盗船,输出一张融合文本描述的新图像。可以看出,图生图保留原图片的主体内容,同时根据文本提示进行图像的二次创作。

感受SD模型强大的生成能力,大家可能会想到生成式领域上一个霸主模型GAN,与GAN模型不同的是,SD模型是属于扩散模型,是基于latent的扩散模型。那么扩散模型是什么呢扩散模型是一种图像生成方法,通过逐步添加细节来生成图像。将图像的生成过程分为多个步骤,每个步骤都会对图像进行一定程度的修改和完善,这样经过20-50次“扩散”循环后,最终输出的图像就会变得更加精致。

下面是一个通过SD模型的推理过程,将随机高斯噪声矩阵逐步去燥并生成一张小别墅图片的直观示例。

SD模型的Inference过程

那么latent又是什么呢基于latent的扩散模型在低维隐空间中进行“扩散”过程,而不是在实际像素空间中,大大降低了内存占用和计算复杂性。与常规扩散模型不同,latent扩散模型的主要特点是在训练和推理过程中都集中在latent空间中。

2、StableDiffusion模型的核心组件

SD模型主要由自动编码器(VAE),U-Net以及文本编码器三个核心组件构成。

SD模型文生图流程

1)自动编码器(VAE)

VAE的主要工作

VAE能够高效压缩图像到低维潜空间后仍实现良好重建,其关键在于自然图像具有高度规律性。例如,人脸图像中眼睛、鼻子、嘴巴遵循特定空间结构;猫身体有固定数量四肢以及特定生物学形态。这种先验知识使得VAE可以只保留图像最关键信息。即使在压缩特征损失的情况下,只要生成图像大小合适,重建后的语义内容和结构依然能够保持可识别性。

2)U-Net

在扩散模型生成流程中,需要逐步将随机噪声转化为图像隐特征。实现方式是:

-模型预测当前噪声的残差,即需要调整的量。

-经过多轮扩散优化,最终得到可生成目标图像的隐特征。

实现扩散模型的网络结构通常采用U-Net架构。U-Net由多层ResNet模块串联构成,并在模块之间添加交叉注意力机制。交叉注意力可用于接收额外的文本指令,指导图像生成方向。

常规U-Net结构

3)文本编码器

在扩散模型中,需要输入文本prompt,以指导图像生成方向。实现方式是:

-使用文本编码器(通常是CLIP等预训练模型),对prompt进行编码,得到表示其语义信息的词向量。

-将文本词向量通过交叉注意力机制,输入到扩散模型的U-Net中。

-文本词向量作为条件信息,引导U-Net的图像生成过程,以输出符合文本意图的图片。

3、StableDiffusion推理流程

要运行StableDiffusion(SD),可以直接使用diffusers库中的完整pipeline流程。

导入diffusers库:

fromdiffusersimportStableDiffusionPipeline

初始化SD模型并加载预训练权重:

pipe=StableDiffusionPipeline.from_pretrained("runwayml/stable-diffusion-v1-5"

如果想使用GPU加速,可以使用以下命令将模型加载到GPU上:

pipe.to("cuda")

如果GPU内存少于10GB,可以加载float16精度的SD模型:

pipe=StableDiffusionPipeline.from_pretrained("runwayml/stable-diffusion-v1-5",revision="fp16",torch_dtype=torch.float16)

使用pipeline来运行SD模型。例如,给定一个prompt和一张图片,可以使用以下代码生成一张新的图片:

prompt="aphotographofanastronautridingahorse"image=pipe(prompt).images[0]

由于没有固定seed,每次运行代码都会得到一个不同的图片。预训练文件夹中的模型主要由以下几个部分组成:text_encoder和tokenizer,scheduler,unet,vae。其中text_encoder,scheduler,unet,vae分别代表SD模型的核心结构。此外,还有一个名为Tokenizer的文件夹表示标记器。标记器将Prompt中的每个词转换为一个称为标记(token)的数字,符号化(Tokenization)是计算机理解单词的方式。然后通过text_encoder将每个标记转换为一个768维的向量称为嵌入(embedding),用于U-Net的condition。

Tokenizer的作用

有时候在运行完pipeline后,可能会遇到生成的图片全黑情况。这是因为生成的图片可能触发了NSFW(不适宜内容)机制,导致生成一些违规的图片。为解决这个问题,建议使用自定义的seed来重新生成图片。

可以使用以下代码来设置seed,并控制生成图片的输出:

#importtorch

#设置seedtorch.manual_seed(1024)

#创建生成器generator=torch.Generator("cuda").manual_seed(1024)

#使用设置的seed和生成器来生成图片image=pipe(prompt,guidance_scale=7.5,generator=generator).images[0]

2)guidance_scale代表文本提示对图像生成过程的影响程度。具体来说,它控制着有条件生成所使用噪声的比例。通常该值在7到8.5之间取值较好,如果取值过大,生成的图片质量可能会很高,但多样性会下降。

其中代表CFG,当越大时,condition起的作用越大,即生成的图像更和输入文本一致,当被设置为时,图像生成是无条件的,文本提示会被忽略。

3)输出尺寸

除了将预训练的SD模型整体加载,还可以选择加载其不同的组件。通过以下方式实现:

从transformers库中加载CLIPTextModel和CLIPTokenizer:

fromtransformersimportCLIPTextModel,CLIPTokenizer

fromdiffusersimportAutoencoderKL,UNet2DConditionModel,PNDMScheduler

fromdiffusersimportLMSDiscreteScheduler

可以单独加载VAE模型:

加载CLIP模型和tokenizer:

tokenizer=CLIPTokenizer.from_pretrained("openai/clip-vit-large-patch14")

text_encoder=CLIPTextModel.from_pretrained("openai/clip-vit-vit-large-patch14")

单独加载U-Net模型:

unet=UNet2DConditionModel.from_pretrained("runwayml/stable-diffusion-v1-5",subfolder="unet")

单独加载调度算法:

二、StableDiffusion经典应用场景

1、文本生成图片

输入:prompt

输入:图像

2、图片生成图片

输入:图像+prompt

输出:图像

在图片生成图片的预处理阶段,首先使用VAE编码器将输入图像转换为低维度的隐空间特征。然后添加噪声到隐空间特征中,去噪强度决定加入噪声的数量。如果去噪强度为0,则不添加任何噪声;如果去噪强度为1,则会添加最大数量的噪声,使得潜像成为一个完全随机的张量。在这种情况下,图片转图像的过程就完全相当于文本转图像,因为初始潜像完全是随机的噪声。

去噪强度(Denoisingstrength)控制噪音的加入量

3、图片inpainting

输入:图像+mask+prompt

VAEEncode使用VAE的编码器将输入的图像和mask转换成为低维度的隐空间特征。然后,VAEDecode利用VAE的解码器将低维度的隐空间特征转换为代表图像的像素空间。

下面是如何进行图像inpainting的直观过程:

4、使用controlnet辅助生成图片

输入:素描图+prompt

使用ControlNet辅助生成图片

5、超分辨率重建

输入:prompt/(图像+prompt)

三、StableDiffusion训练过程

StableDiffusion的训练过程可以被视为在最高维度上添加噪声和去除噪声的过程,并在对噪声的“对抗与攻防”中学习生成图像的能力。具体地说,在训练过程中首先对干净的样本添加噪声进行处理,采用多次逐步增加噪声的方式,直到干净的样本变成纯噪声。

SD训练时的加噪过程

接下来,让SD模型学习去噪过程,并最终抽象出一个高维函数,这个函数能够在纯噪声中“优化”噪声,从而得到一个干净的样本。具体来说,将去噪过程具象化为使用U-Net来预测噪声,并结合调度算法逐步去噪的过程。

SD训练时的去噪过程

另一方面,每次增加的噪声量级也可以不同,例如可以设定5个不同量级的噪声,每次随机选择一种量级增加到样本图片中。这进一步增加了噪声的多样性。在去噪过程中,同样采用逐步减少噪声的策略,每一步预测并去除一部分噪声,实现稳定的去噪。

多量级噪声

为了使网络能够知道当前处于k步的哪个阶段,需要使用位置编码。通过将步数作为输入传递给网络,位置编码能够让网络知道当前所处的阶段。这种操作与Transformer中的操作类似。

使用Positionalembeddings对训练迭代的步数进行编码

四、StableDiffusion性能优化

1、使用TF32精度

导入PyTorch并启用TF32支持,实现性能和精度的平衡。TF32精度具有以下作用和优势:

1)加速训练速度:使用TF32精度可以在保持相对较高的模型精度的同时,加快模型训练的速度。

2)减少内存需求:TF32精度相对于传统的浮点数计算(如FP32)需要更少的内存存储。这对于训练大规模的深度学习模型尤为重要,可以减少内存的占用。

3)可接受的模型精度损失:使用TF32精度会导致一定程度的模型精度损失,因为低精度计算可能无法精确表示一些小的数值变化。然而,对于大多数深度学习应用,TF32精度仍然可以提供足够的模型精度。

2、使用FP16半精度

导入PyTorch库,并从diffusers库中导入DiffusionPipeline。使用"runwayml/stable-diffusion-v1-5"预训练模型创建一个DiffusionPipeline对象pipe,同时设置torch_dtype为torch.float16,以使用FP16半精度进行训练。

3、对注意力模块进行切片

首先,导入PyTorch库,并从diffusers库中导入DiffusionPipeline。然后,使用"runwayml/stable-diffusion-v1-5"预训练模型创建一个DiffusionPipeline对象pipe,同时设置torch_dtype为torch.float16,以使用FP16半精度进行训练。接下来,将pipe转移到CUDA设备上,以便在GPU上运行。

4、对VAE进行切片

与注意力模块切片类似,也可以对VAE进行切片,让VAE每次只处理Batch(32)中的一张图片,从而大幅减少内存占用。

首先,导入PyTorch库,并从diffusers库中导入StableDiffusionPipeline。然后,使用"runwayml/stable-diffusion-v1-5"预训练模型创建一个StableDiffusionPipeline对象pipe,同时设置torch_dtype为torch.float16,以使用FP16半精度进行训练。接下来,将pipe转移到CUDA设备上,以便在GPU上运行。为启用VAE切片操作,调用pipe对象的enable_vae_slicing()方法。然后,使用prompt作为输入,将一批32张图片通过pipe进行生成,并将生成的图片存储在images变量中。

5、大图像切块

当需要生成4K或更高分辨率的图像,但内存资源有限时,可以采用图像切块的技术。通过对图像进行切块,让VAE的编码器和解码器逐一处理每个切块后的图像,最后将拼接在一起生成最终的大图像。

首先,导入PyTorch库,并从diffusers库中导入StableDiffusionPipeline。然后,使用"runwayml/stable-diffusion-v1-5"预训练模型创建一个StableDiffusionPipeline对象pipe,同时设置torch_dtype为torch.float16,以使用FP16半精度进行训练。接下来,将pipe转移到CUDA设备上,以便在GPU上运行。为启用图像切块操作,调用pipe对象的enable_vae_tiling()方法。然后,使用prompt作为输入,并指定图像的宽度为3840像素,高度为2224像素,以及生成步骤的数量为20。通过调用pipe对象的生成方法,可以得到生成的图像。最后,从生成的图像中获取第一张图像并将其存储在image变量中。

可将整个SD模型或SD模型的部分模块的权重加载到CPU中,并在推理时再将所需的权重加载到GPU。以下是如何使用PyTorch和StableDiffusionPipeline实现的代码:

importtorch

#将整个SD模型加载到CPU

pipe=StableDiffusionPipeline.from_pretrained(

"runwayml/stable-diffusion-v1-5",torch_dtype=torch.float16)

#开启子模块的CPUoffload功能,即可以在CPU上执行某些子模块的计算

pipe.enable_sequential_cpu_offload()

#开启整个SD模型的CPUoffload功能,即可以在CPU上执行整个SD模型的计算

pipe.enable_model_cpu_offload()

这段代码将整个SD模型或SD模型的部分模块的权重加载到CPU中,并在推理时再将所需的权重加载到GPU,以实现更好的性能和灵活性。

7、变换MemoryFormat

在计算机视觉领域,有两种常见的内存格式,分别是channelsfirst(NCHW)和channelslast(NHWC)。将channelsfirst转换为channelslast可能会提高推理速度,但需要依赖于特定的AI框架和硬件。

在channelslast内存格式中,张量的维度顺序为(batch_size,height,width,channels)。其中,batch_size表示批处理大小,height和width表示图像或特征图的高度和宽度,channels表示通道数。

相比之下,channelsfirst是另一种内存布局,其中通道维度被放置在张量的第二个维度上。在channelsfirst内存格式中,张量的维度顺序为(batch_size,channels,height,width)。

选择channelslast或channelsfirst内存格式通常取决于硬件和软件平台以及所使用的深度学习框架。不同的平台和框架可能对内存格式有不同的偏好和支持程度。

在一些情况下,channelslast内存格式具有以下优势:

1)内存访问效率:在一些硬件架构中,如CPU和GPU,channelslast内存格式能够更好地利用内存的连续性,从而提高数据访问的效率。

2)硬件加速器支持:一些硬件加速器(如NVIDIA的TensorCores)对于channelslast内存格式具有特定的优化支持,可以提高计算性能。

3)跨平台兼容性:某些深度学习框架和工具更倾向于支持channelslast内存格式,使得在不同的平台和框架之间迁移模型更加容易。

需要注意的是,选择内存格式需要根据具体的硬件、软件和深度学习框架来进行评估。某些特定的操作、模型结构或框架要求可能会对内存格式有特定的要求或限制。因此,建议在特定环境和需求下进行测试和选择,以获得最佳的性能和兼容性。

8、使用xFormers

使用xFormers插件能够优化注意力模块的计算,提升约20%的运算速度。

导入PyTorch库

创建一个名为"pipe"的StableDiffusionPipeline对象,使用预训练模型"runwayml/stable-diffusion-v1-5",数据类型为torch.float16,并将模型迁移到"cuda"设备上。

下面介绍如何安装SadTalker插件。

首先,需要确保已经成功安装StableDiffusionWebUI。然后,从Github上获取SadTalker的开源代码,其地址为:

一、SadTalker安装方法

1、安装方法一

适合访问Github或外网较流畅的用户,因为需要自动下载大量文件。在SDWebUI的扩展插件页面中进行安装,如下图所示:

这个插件需要下载许多文件,有些文件体积较大,需耐心等待。如果不确定是否出现了问题,可以查看控制台输出的内容,查找是否有错误。安装完成后,不要忘记重启StableDiffusion,需要完全重启,而不仅仅是重启WebUI。

2、安装方法二

对于访问外网不太方便的用户,可以提前下载所需文件,例如使用迅雷等下载工具。只要将下载的文件上传到指定的目录即可。

1)主程序

需要放到以下位置:stable-diffusion-webui/extensions/SadTalker

2)视频模型

可以从以下链接下载:stable-diffusion-webui/extensions/SadTalker/checkpoints

3)修脸模型

您可以从以下链接下载:

4)安装

首先,将文件下载到本地或云环境中。以AutoDL为例,将文件保存到/root目录中。

然后解压文件到stablediffusionwebui的扩展目录,并拷贝几个文件到SD模型目录:

tar-xvf/root/SadTalker.tar-C/root/stable-diffusion-webui/extensionscp-r/root/stable-diffusion-webui/extensions/SadTalker/gfpgan/weights/*/root/stable-diffusion-webui/models/GFPGAN/

看到下边的结果,就基本上差不多了。

SDmodels目录下有这几个文件:

部署完毕,不要忘了重启。

二、使用方法

在SDWebUI的Tab菜单中找到SadTalker,按照下边的顺序进行设置。

1、上传人物照片。

2、上传语音文件。

3、选择视频人物的姿势。实际上,这指的是在人物说话时头部的动作。可以通过尝试不同的数字来选择合适的动作。

4、分辨率。512的视频分辨率比256的大。

5、图片处理方法:corp是从图片截取头部做视频,resize适合大头照或者证件照,full就是全身照做视频。

6、StillModel:这个选项可以让头部动作不要过大,以避免头部与身体偏离的情况。然而,这样可能会导致头部动作不太明显。

7、GFPGAN:这个选项可以修整脸部,有助于改善说话时嘴部和眼部可能出现的变形现象,从而使脸部看起来更加自然。

三、常见问题

1、启动的时候报错:SadTalkerwillnotsupportdownload...

这个提示意味模型无法成功下载。可以执行以下命令来触发下载(请注意将cd后的路径替换为SadTalker安装路径):

cdstable-diffusion-webui/extensions/SadTalkerchmod755scripts/download_models.shscripts/download_models.sh

2、合成视频时报错:Nomodulenamed'xxx'

可以使用pipinstall命令来安装xxx。但请注意,如果使用Python虚拟环境,需要先激活。例如,这里需要先执行sourcexxx命令。然后,可以运行以下命令来安装

librosa:

source/root/stable-diffusion-webui/venv/bin/activate

pipinstalllibrosa

这些命令将激活虚拟环境并安装librosa库。

3、合成视频时报错:在合成视频时,可能会遇到一个错误:Nosuchfileordirectory:'/tmp/gradio/xxx'。这意味着系统无法找到该文件或目录。为了解决这个问题,可以创建一个目录。使用以下命令可以轻松地创建该目录:mkdir-p/tmp/gradio

随着StableDiffusion在AI艺术生成领域的不断发展和普及,越来越多的用户希望能够在自己的本地机器上部署SD模型,以获得更好的性能表现和使用体验。然而,部署一个大规模的生成模型如SD需要强大的计算资源和硬件配置。那么,究竟需要怎样的计算机配置才能流畅地运行SD模型呢

一、GPU

二、CPU

除了GPU之外,具有高核心数的CPU也是必不可少的。StableDiffusion的训练和推理过程需要进行大量的矩阵计算,对CPU的并行计算能力有很高的要求。一般来说,至少需要8核心或更多的CPU,如i9-13900;i7-13700;i513400;i312100;i712700;i912900等。

大量的RAM内存同样不可或缺。本地部署SD时,系统内存最好在32GB以上。这可以显著加速数据交换与传输速度。与GPU类似,更多的GPU卡也会需要更多的系统内存配合。

四、存储方面

系统盘无特殊要求,需要1TB甚至更大的磁盘空间来存储大规模的模型文件、数据集和生成结果。使用RAID0可以获得更高的读取速度。

五、网络方面

网络对于StableDiffusion的部署和使用都非常关键,需要准备以下几方面:

1、带宽需求

初始部署需要下载模型文件,通常数十GB甚至上百GB,需要具备稳定的大带宽来支持。训练过程中也需要大量的数据流量,务必确认网络带宽足够,例如千兆宽带。如果使用云训练平台,还需要考虑上传训练结果的流量。

2、网络速度

部署时的下载速度直接影响部署进度,需要尽可能高的网络速度。训练时网络速度影响同步效率。内网训练可以做到更低延迟。公网环境下,光纤宽带的低延迟有利于分布式训练。

3、网络稳定性

训练过程需要持续不间断的连接,断网会造成失败。部署和使用期间应尽量避免网络抖动现象的发生。

4、代理和缓存

可以使用本地代理做缓存,加速模型和数据的下载。代理同时还可以提供一定的数据安全性和隐私保护。

5、数据安全

六、软件方面

PC集群是一种由多台计算机组成的系统,这些计算机通过网络连接在一起,共同完成计算任务。PC集群解决方案是指在PC集群上运行的软件和硬件系统,用于管理和优化计算资源,提高计算效率和可靠性。

蓝海大脑PC集群解决方案提供高密度部署的服务器和PC节点,采用4U机架式设计,每个机架可插拔4个PC节点。融合了PC的高主频和高性价比以及服务器的稳定性的设计,实现了远程集中化部署和管理运维。同时,采用模块化可插拔设计,使维护和升级变得更加容易。

一、主要技术指标

1、支持远程开关机和硬重启PC节点

3、机箱管理单元支持节点远程上下电

4、每个PC节点支持热插拔,单个节点故障不影响其他节点工作

5、独立的管理网口和串口

二、客户收益

StableDiffusion技术对游戏产业带来了极大的影响和改变。它提升了游戏图像的质量和真实感、增强了游戏体验和沉浸感、优化了游戏制作流程、扩展了游戏应用领域,并推动了游戏产业的发展和创新。这些都表明,StableDiffusion技术在游戏产业中的应用前景十分广阔,有助于进一步推动游戏行业的发展,提高用户体验和娱乐价值。

1、提升游戏图像质量和真实感

2、增强游戏体验和沉浸感

游戏是一个交互式体验,它的目标是尽可能地让玩家沉浸到虚构的世界中。StableDiffusion可以使游戏环境变得更加真实,并增添一些更具有交互性和观赏性的场景。例如,利用StableDiffusion技术,游戏可以在水面上添加波纹、落叶,或者使摇曳的草丛更逼真。这些改善能够让玩家更好地感受游戏中所处的环境,增强沉浸感。

3、优化游戏制作流程

4、扩展游戏的应用领域

StableDiffusion的应用使得游戏在更多的领域得到应用。例如,在心理治疗、教育、文化传播等领域中,人工智能游戏可以根据用户的情绪和行为变化来调整游戏内容和策略,为用户提供更符合需求和娱乐性的游戏体验。此外,利用StableDiffusion技术,游戏可以生成不同类型的场景,包括虚拟现实和增强现实等体验,开发出更丰富更多变的游戏内容。

5、推动游戏产业的发展和创新

三、PC集群解决方案的优势

1、高性能

2、可扩展性

可以根据需要进行扩展,增加计算节点,提高计算能力。这种扩展可以是硬件的,也可以是软件的,非常灵活。

3、可靠性

PC集群可以通过冗余设计和备份策略来提高系统的可靠性。当某个节点出现故障时,其他节点可以接管其任务,保证计算任务的顺利进行。

4、低成本

相比于传统的超级计算机,PC集群的成本更低。这是因为PC集群采用的是普通的PC硬件,而不是专门的高性能计算硬件。

四、PC集群解决方案的应用领域有哪些

1、科学计算

PC集群可以用于各种科学计算,如天文学、生物学、物理学、化学等领域的计算模拟和数据分析。

2、工程计算

PC集群可以用于工程领域的计算,如飞机设计、汽车设计、建筑结构分析等。

3、金融计算

PC集群可以用于金融领域的计算,如股票交易、风险评估、投资组合优化等。

4、大数据处理

5、图像处理

PC集群可以用于图像处理,如视频编码、图像识别、虚拟现实等领域的图像处理和渲染。

五、常用配置推荐

i7-1370016C/24T/2.10GHz/30MB/65W/UptoDDR55600MT/s/UptoDDR43200MT/s

i51340010C/16T/1.80GHz/20MB/65W/UptoDDR54800MT/s/UptoDDR43200MT/s

i3131004C/8T/3.40GHz/12MB/60W/UptoDDR54800MT/s/UptoDDR43200MT/s

G69002C/2T/3.40GHz/4MB/46W/UptoDDR54800MT/s/UptoDDR43200MT/s

G74002C/4T/3.70GHz/6MB/46W/UptoDDR54800MT/s/UptoDDR43200MT/s

i3121004C/8T/3.30GHz/12MB/60W/UptoDDR54800MT/s/UptoDDR43200MT/s

i5124006C/12T/2.50GHz/18MB/65W/UptoDDR54800MT/s/UptoDDR43200MT/s

i71270012C/20T/2.10GHz/25MB/65W/UptoDDR54800MT/s/UptoDDR43200MT/s

i91290016C/24T/2.40GHz/30MB/65W/UptoDDR54800MT/s/UptoDDR43200MT/s

2、显卡GPU:

NVIDIARTXGeForce30708GB

NVIDIARTXGeForce308010GB

NVIDIARTXGeForce407012GB

NVIDIARTXGeForce4060Ti8GBor16GB

3、内存:

32GB×2

4、系统盘:

M.2500GB

5、数据盘:

500GB7200K

长沙市望城经济技术开发区航空路6号手机智能终端产业园2号厂房3层(0731-88081133)

THE END
1.在Illustrator中创建Web图形的最佳做法移动标尺原点将改变 Illustrator 网格化图稿的方式。有关为移动设备创建 Illustrator 图像的提示要为移动设备优化图形内容,请以任何 SVG 格式来存储用 Illustrator 创建的图稿,其中包括 SVG-t(这种格式是专为移动设备设计的)。 可以使用以下提示来确保用 Illustrator 创建的图像能够在移动设备上正确显示:https://helpx.adobe.com/cn/illustrator/using/creating-animations.html
2.ai图片生成视频怎么做对于那些新手来说,了解如何利用AI智能生成视频的基本步骤是非常重要的。通常,整个过程可以分为以下几步: 选择合适的AI图片生成工具:目前市场上已有多款AI智能工具可以生成高质量的图片,如Midjourney、DALL-E和StableDiffusion等。这些工具通过深度学习算法,能够根据用户的描述生成独特的视觉作品。 https://fuwu.11467.com/info/32048393.htm
3.ai图片生成视频的工具素材网站图片免费下载ai生成国风图片 10 旅途与图 mimicmotion:一张图片生成跳舞,运动视频,图生视频 14 z756627139 ai生成视频+照片|暗夜(制作中) 27 零点66 ai帮我生成的一张创意图片 5 依山昕雨 foleycrafter:配音员要失业!ai一键生成视频配音! 5 z756627139 llama 3.2:多模态ai黑科技,处理文字,图片,视频! 10 z756627139 aihttps://www.zcool.com.cn/tag/ZOTE1MzU5Ng==.html
4.ai图片生成视频,有这个AI工具就够了,1分钟教会你!AI图片生成视频,能够以前所未有的速度将想法和概念转化为精美的视频内容,不再是高门槛,任何人都可以通过AI工具轻松入门,今天就来看看如何使用AI工具轻松实现图片转视频,一个工具就搞定! 以万彩AI为例,它提供了强大的一键生成短视频功能,可以在几分钟内将文字图片转化为完整的视频作品,无需进行复杂的剪辑和后期。 https://www.animiz.cn/blog-8732.html
5.AI生成视频工具阿里推出图片生成视频Ai工具,免费无限制国内可用,比大家好,我是龙一,专注AI轻创副业项目分享,今天给大家分享一款阿里近日推出的开源的图片生成视频的Ai工具,目前可免费使用,没有使用次数的限制,效果非常好,不得不说比RunwayGen2香多了。 可以根据用户输入的静态图像和文本生成目标接近、语义相同的视频,生成的视频具高清(1280 * 720)、宽屏(16:9)、时序连贯、质感https://blog.csdn.net/weixin_43658159/article/details/132587001
6.妙笔工坊AI图片视频文案生成妙笔工坊-AI图片视频文案生成 分类:实用工具|支持:手机 ( 49次评分 ) 维护中 详细信息 软件大小 40.23M appID 1576604 版本号 3.8.8 开发者 成都贝因科技有限公司 更新时间 2024-10-29 隐私政策 点击查看 包名 beiyin.subtletypen.com 应用权限 查看更多 https://app.mi.com/details?id=beiyin.subtletypen.com
7.ai生成图片原理?一、ai生成图片原理? AI生成图片的原理主要是基于深度学习算法中的“生成对抗网络”(GAN,Generative Adversarial Networks),其基本思路是让两个神经网络相互竞争,从而生成高质量的图像。 具体地说,GAN模型由两个神经网络组成:生成器(Generator)和判别器(Discriminator)。生成器负责生成图像,而判别器则负责判断图像的真伪https://tool.a5.cn/article/show/113078.html
8.6款免费生成AI图片和视频。操作简单且效果不错的免费生成AI6款免费生成AI图片和视频。操作简单且效果不错的免费生成AI图片和视频的工具!#干货分享 #办公软件 #AI工具 - Word小技巧于20240328发布在抖音,已经收获了793个喜欢,来抖音,记录美好生活!https://www.douyin.com/note/7350852146025237760
9.AppStore上的“AI图生视频AI毒液特效&文生视频老照片动起来图片生成视频拥动图实况P图 露王 专为iPhone 设计 3.9 ? 210 个评分 免费 提供App 内购买项目 iPhone 截屏 简介 创意无限,创作更轻松! 本应用是一款智能工具,通过简单的文字描述,即可生成精美的图片和视频,帮助您快速实现创意。它还支持文本生成语音和语音智能对话,轻松创作出令https://apps.apple.com/cn/app/%E5%8F%AF%E9%A2%86ai-k-link/id6479939662
10.AI图生视频的三款工具推荐相比之下,图生视频能够更可控的进行内容产出,在目前的阶段能够更容易的插入到工作流当中。所以本文的重点会放在图生视频上面,期望本文能够对有这方面需求的个人或团队提供帮助。 Runway Runway是一款自由度较高的AI视频生成工具,如下图 Runway的图生视频界面https://www.jianshu.com/p/c18dd94d66d5
11.vmake官网,AI照片和视频编辑器生成,增强,去背景,去水印,ai模特?>1.免费ai视频生成+写作(可联网)?>2.超强免费ai视频神器3.免费ai写作绘画 vmake官网,AI照片和视频编辑器生成,增强,去背景,去水印,ai模特,物体消除,商品图 vmake简介 vmake是一款全能型的AI照片和视频编辑器工具箱,提供图片/视频增强,图片视频去背景,去水印! 物体消除等! 此外,还提供ai模特,为服装品牌https://feizhuke.com/sites/vmake.html
12.10款顶尖AI工具推荐,轻松将图片转换为动态视频!学AI很简单如何利用AI将图片转换为视频?——10个最佳AI应用推荐 随着AI技术的不断发展,现在越来越多的工具可以将静态图像转化为动态视频。这些应用不仅适合创作者制作短视频,也能够帮助企业实现视觉内容的自动化生产。本https://www.yizz.cn/8123.html
13.AI商品视频,可变批量生成。人工智能AI图片视频制作,AI文生图片视频加载中 下载 视频 讨论 AI商品视频,可变批量生成。人工智能AI图片视频制作,AI文生图片视频。 #AI绘画 #AI教程 #AI图片 #梗图 #文生图片 41 简介 独播24集全 重启恋的世界 美女医生穿越遇真爱霸总 独播30集全 铁拳英雄 陈展鹏曼谷唐人街扶善惩恶 https://v.youku.com/v_show/id_XNjQxMDc1ODI5Mg==.html
14.副业工具AI文字生视频+图片生视频,推荐2个AI视频工具(国内有AI文生视频(文字描述场景,生成视频),AI图生视频(给AI图片生成视频) 同时,有视频风格、氛围、运镜等选项可用,经过狂金测试,这些选项可以准确的完成预定动作,应该是经过调教的,你只需要直接用。。 需要注意的是:文字生视频,对于人物、动物,建议优先特写、近距离镜头,可以获得非常不错的视频效果,大远景通常用于植物https://www.6969net.cn/1497
15.AI图生视频app下载AI图生视频手机版下载v1.0.3AI图生视频是一款提供多样化绘画创作的智能AI绘画工具。86ps软件园用户可以进入平台,打开一个对话框,输入自己画作的详细描述,点击确认,一键生成一幅精美的画作。还为自己的手机相册提供便捷的图片管理,各种图片都可以导入到应用程序中,获得免费的动态视频。 http://www.86ps.com/soft/59352302.html
16.「超实用」全领域AI工具大盘点!(附链接)2.D-ID——AI真人口播视频生成工具 https://www.d-id.com/ 3.Artflow——AI创建生成视频动画 https://www.app.artflow.ai/ 4.Unsreen——AI智能视频背景移除工具 https://www.unscreen.com/ 五、AI设计工具 1.Mircosoft Designer——微软推出的AI海报和宣传图设计工具 https://www.niaogebiji.com/article-550460-1.html
17.白日梦AI:从脚本到成品,一站式短视频制作新媒派白日梦AI是一款文本生成图像或图像生成视频的工具,由上海白日梦科技有限公司开发的。利用先进的自然语言处理(NLP)和深度学习技术,可以将文本生成图像、图像生成视频、配音字幕和后期剪辑等功能整合成一个完整的AI视频生产工作流,只需几分钟时间,你就可以将2000字以内的文案一键生成原创IP故事视频,视频长度可达6分钟。 https://pidoutv.com/sites/22750.html
18.ai做视频封面免费视频封面生成神器ai自动生成视频封面,支持在线生成视频封面/标题/文案等,智能AI作图软件.输入关键词即可一键生成封面图,创客贴AI 只需3秒,快速出图,简单好用的AI视频封面制作软件。https://www.chuangkit.com/adlp2/290.html
19.3个支持图片转视频的AI工具分享给你!Kaiber 是一款 AI 工具,主要用于视频生成,支持 AI 文本生成视频、AI 图片转视频。Kaiber 提供各种视频生成风格,如动漫、概念艺术、印象主义等。还可以进行多种自定义选择,无需任何视频编辑经验,0 基础新人也可以生成高质量视频。Kaiber 涉猎的领域非常多,无论是音乐视频、社交媒体内容还是现场视觉效果等等,Kaiber https://js.design/special/article/ai-image-to-video.html