英伟达H100vs苹果M2大模型训练,哪款性价比更高?

关键词:M2芯片;Ultra;M1芯片;UltraFusion;ULTRAMAN;RTX4090、A800;A100;H100;LLAMA、LM、AIGC、CHATGLM、LLVM、LLM、LLMs、GLM、NLP、ChatGPT、AGI、HPC、GPU、CPU、CPU+GPU、英伟达、Nvidia、英特尔、AMD、高性能计算、高性能服务器、蓝海大脑、多元异构算力、高性能计算、大模型训练、大型语言模型、通用人工智能、GPU服务器、GPU集群、大模型训练GPU集群、大语言模型

摘要:训练和微调大型语言模型对于硬件资源的要求非常高。目前,主流的大模型训练硬件通常采用英特尔的CPU和英伟达的GPU。然而,最近苹果的M2Ultra芯片和AMD的显卡进展给我们带来了一些新的希望。

苹果的M2Ultra芯片是一项重要的技术创新,它为苹果设备提供了卓越的性能和能效。与此同时,基于AMD软硬件系统的大模型训练体系也在不断发展,为用户提供了更多选择。尽管英伟达没有推出与苹果相媲美的200G显卡,但他们在显卡领域的竞争仍然激烈。对比苹果芯片与英伟达、英特尔、AMD的最新硬件和生态建设,我们可以看到不同厂商在性价比方面带来了全新的选择。

蓝海大脑为生成式AI应用提供了极具吸引力的算力平台,与英特尔紧密协作,为客户提供强大的大模型训练和推理能力,加速AIGC创新步伐、赋力生成式AI产业创新。

基于英特尔CPU+英伟达GPU大模型训练基础架构

一、深度学习架构大模型的主要优势

当前主流大模型架构都是基于深度学习transformer的架构模型,使用GPU训练深度学习架构的大模型主要有以下优势:

1、高性能计算

深度学习中的大部分计算都是浮点计算,包括矩阵乘法和激活函数的计算。GPU在浮点计算方面表现出色,具有高性能计算能力。

2、并行计算能力

GPU具有高度并行的计算架构,能够同时执行多个计算任务。深度学习模型通常需要执行大量的矩阵乘法和向量运算,这些操作可以高度并行的方式进行,从而提高深度学习模型训练效率。

3、高内存带宽

GPU提供高达几百GB/s的内存带宽,满足深度学习模型对数据大容量访问需求。这种高内存带宽能够加快数据传输速度,提高模型训练的效率。

二、当前大多数大模型采用英特尔的CPU加英伟达的GPU作为计算基础设施的原因

尽管GPU在训练大模型时发挥着重要作用,但单靠GPU远远不够。除GPU负责并行计算和深度学习模型训练外,CPU在训练过程中也扮演着重要角色,其主要负责数据的预处理、后处理以及管理整个训练过程的任务。通过GPU和CPU之间的协同工作,可以实现高效的大规模模型训练。

1、强大的性能

英特尔最新CPU采用AlderLake架构,具备出色的通用计算能力。而英伟达最新GPUH100拥有3.35TB/s的显存带宽、80GB的显存大小和900GB/s的显卡间通信速度,对大数据吞吐和并行计算提供友好的支持。

2、广泛的支持和生态系统

基于英特尔CPU提供的AVX2指令集和基于英伟达GPU提供的CUDA并行计算平台和编程模型,构建优秀的底层加速库如PyTorch等上层应用。

3、良好的兼容性和互操作性

在硬件和软件设计上考虑彼此配合使用的需求,能够有效地协同工作。这种兼容性和互操作性使得英特尔的CPU和英伟达的GPU成为流行的组合选择,在大规模模型训练中得到广泛应用。

苹果的M2Ultra统一内存架构

在WWDC2023开发者大会上苹果推出M2Ultra芯片,以及搭载该芯片的新款MacStudio和MacPro。这款芯片采用了第二代5nm制程工艺技术,是苹果迄今为止最大且最强大的芯片。

去年3月,苹果展示了一种将两块M1芯片“粘”在一起的设计,发布集成1140亿颗晶体管、20核CPU、最高64核GPU、32核神经网络引擎、2.5TB/s数据传输速率、800GB/s内存带宽、128GB统一内存的“至尊版”芯片M1Ultra。延续M1Ultra的设计思路,M2Ultra芯片通过采用突破性的UltraFusion架构,将两块M2Max芯片拼接到一起,拥有1340亿个晶体管,比上一代M1Ultra多出200亿个。

UltraFusion是苹果在定制封装技术方面的领先技术,其使用硅中介层(interposer)将芯片与超过10000个信号连接起来,从而提供超过2.5TB/s的低延迟处理器间带宽。基于这一技术,M2Ultra芯片在内存方面比M1Ultra高出了50%,达到192GB的统一内存,并且拥有比M2Max芯片高两倍的800GB/s内存带宽。以往由于内存不足,即使是最强大的独立GPU也无法处理大型模型。然而,苹果通过将超大内存带宽集成到单个SoC中,实现单台设备可以运行庞大的机器学习工作负载,如大型Transformer模型等。

AMD的大模型训练生态

除苹果的M2Ultra在大模型训练方面取得了显著进展之外,AMD的生态系统也在加速追赶。

据7月3日消息,NVIDIA以其显著的优势在显卡领域获得了公认的地位,无论是在游戏还是计算方面都有着显著的优势,而在AI领域更是几乎垄断。然而,有好消息传来,AMD已经开始发力,其MI250显卡性能已经达到了NVIDIAA100显卡的80%。AMD在AI领域的落后主要是因为其软件生态无法跟上硬件发展的步伐。尽管AMD的显卡硬件规格很高,但其运算环境与NVIDIA的CUDA相比仍然存在巨大的差距。最近,AMD升级了MI250显卡,使其更好地支持PyTorch框架。

MosaicML的研究结果显示,MI250显卡在优化后的性能提升显著,大语言模型训练速度已达到A100显卡的80%。AMD指出,他们并未为MosaicML进行这项研究提供资助,但表示将继续与初创公司合作,以优化软件支持。但需要注意的是,NVIDIAA100显卡是在2020年3月发布的,已经是上一代产品,而NVIDIA目前最新的AI加速卡是H100,其AI性能有数倍至数十倍的提升。AMD的MI250显卡也不是最新产品,其在2021年底发布,采用CDNA2架构,6nm工艺,拥有208个计算单元和13312个流处理器核心,各项性能指标比MI250X下降约5.5%,其他规格均未变动。

AMD体系的特点如下:

一、LLM训练非常稳定

使用AMDMI250和NVIDIAA100在MPT-1BLLM模型上进行训练时,从相同的检查点开始,损失曲线几乎完全相同。

二、性能与现有的A100系统相媲美

MosaicML对MPT模型的1B到13B参数进行了性能分析发现MI250每个GPU的训练吞吐量在80%的范围内与A100-40GB相当,并且与A100-80GB相比在73%的范围内。随着AMD软件的改进,预计这一差距将会缩小。

三、基本无需代码修改

得益于PyTorch对ROCm的良好支持,基本上不需要修改现有代码。

英伟达显卡与苹果M2Ultra相比性能如何

一、英伟达显卡与M2Ultra相比性能如何

在传统英特尔+英伟达独立显卡架构下,CPU与GPU之间的通信通常通过PCIe进行。最强大的H100支持PCIeGen5,传输速度为128GB/s,而A100和4090则支持PCIe4,传输速度为64GB/s。

另一个重要的参数是GPU的显存带宽,即GPU芯片与显存之间的读写速度。显存带宽是影响训练速度的关键因素。例如,英伟达4090显卡的显存带宽为1.15TB/s,而A100和H100的显存带宽分别为1.99TB/s和3.35TB/s。

最后一个重要的参数是显存大小,它指的是显卡上的存储容量。目前,4090是消费级显卡的顶级选择,显存大小为24GB,而A100和H100单张显卡的显存大小均为80GB。这个参数对于存储大规模模型和数据集时非常重要。

M2Ultra的芯片参数和4090以及A100的对比(CPU采用英特尔最新的i9-13900KS)

从这些参数来看,苹果的M2Ultra相对于英伟达的4090来说性能稍低,与专业级显卡相比则较为逊色。然而,M2Ultra最重要的优势在于统一内存,即CPU读写的内存可以直接被显卡用作显存。因此,拥有192GB的显存几乎相当于8个4090或者2.5个A100/H100的显存。这意味着单个M2Ultra芯片可以容纳非常大的模型。例如,当前开源的LLaMA65B模型需要120GB的显存才能进行推理。这意味着苹果的M2Ultra可以直接适用于LLaMA65B,而目前没有其他芯片能够单独承载如此庞大的模型,甚至包括最新的H100。

从上述参数对比来看,M2Ultra在其他指标接近4090的情况下,显存大小成为其最大的优势。尽管M2Ultra并非专为大模型训练而设计,但其架构非常适合进行大模型训练。

在上层生态方面,进展也非常良好。2022年5月18日,PyTorch宣布支持苹果芯片,并开始适配M1Ultra,利用苹果提供的芯片加速库MPS进行加速Ultra上使用PyTorch进行训练。以文本生成图片为例,它能够一次性生成更多且更高精度的图片。

二、NVIDIA为什么不推出一款200GB显存以上的GPU?

主要原因可以分为以下几点:

1、大语言模型火起来还没多久;

2、显存容量和算力是要匹配的,空有192GB显存,但是算力不足并无意义;

3、苹果大内存,适合在本地进行推理,有希望引爆在端侧部署AI的下一轮热潮。

过去之所以消费级显卡的显存容量升级较慢,根本原因是没有应用场景。8GB的消费级显卡用来打游戏足矣,加速一些视频剪辑也绰绰有余。更高的显存容量,只能服务于少量科研人员,而且大多都去买了专业卡专门应用。现在有了大语言模型,可以在本地部署一个开源的模型。有了对于显存的明确需求,未来一定会快速提升显存容量的。

其次,苹果有192GB的统一内存可以用于大语言模型的“训练”。这个认知是完全错误的。AI模型可以分为训练(train)、微调(fine-tune)和推理(inference)。简单来说,训练就是研发人员研发AI模型的过程,推理就是用户部署在设备上来用。从算力消耗上来说,是训练>微调>推理,训练要比推理的算力消耗高至少3个数量级以上。

显存和算力,必须要相辅相成。在有限的产品成本内,两者应当是恰好在一个平衡点上。现阶段英伟达的H100能够广泛用于各大厂商的真实模型训练,而不是只存在于几个自媒体玩具级别的视频里面,说明H100能够满足厂商的使用需要。

要按苹果的显存算法,一块GraceHopper就超过了啊。一块GraceHopper的统一内存高达512GB,外加Hopper还有96GB的独立显存,早就超了。

使用NVIDIAH100训练ChatGPT大模型仅用11分钟

据了解,机器学习及人工智能领域的开放产业联盟MLCommons发布了最新的MLPerf基准评测。包括8个负载测试,其中就包含基于GPT-3开源模型的LLM大语言模型测试,这对于评估平台的AI性能提出了很高的要求。

H100加速卡采用GH100GPU核心,定制版台积电4nm工艺制造,拥有800亿个晶体管。它集成了18432个CUDA核心、576个张量核心和60MB的二级缓存,支持6144-bitHBM高带宽内存以及PCIe5.0接口。

H100计算卡提供SXM和PCIe5.0两种样式。SXM版本拥有15872个CUDA核心和528个Tensor核心,而PCIe5.0版本则拥有14952个CUDA核心和456个Tensor核心。该卡的功耗最高可达700W。

就性能而言,H100加速卡在FP64/FP32计算方面能够达到每秒60万亿次的计算能力,而在FP16计算方面达到每秒2000万亿次的计算能力。此外,它还支持TF32计算,每秒可达到1000万亿次,是A100的三倍。而在FP8计算方面,H100加速卡的性能可达每秒4000万亿次,是A100的六倍。

蓝海大脑大模型训练平台

蓝海大脑大模型训练平台提供强大的支持,包括基于开放加速模组高速互联的AI加速器。配置高速内存且支持全互联拓扑,满足大模型训练中张量并行的通信需求。支持高性能I/O扩展,同时可以扩展至万卡AI集群,满足大模型流水线和数据并行的通信需求。强大的液冷系统热插拔及智能电源管理技术,当BMC收到PSU故障或错误警告(如断电、电涌,过热),自动强制系统的CPU进入ULFM(超低频模式,以实现最低功耗)。致力于通过“低碳节能”为客户提供环保绿色的高性能计算解决方案。主要应用于深度学习、学术教育、生物医药、地球勘探、气象海洋、超算中心、AI及大数据等领域。

一、为什么需要大模型?

1、模型效果更优

大模型在各场景上的效果均优于普通模型

2、创造能力更强

大模型能够进行内容生成(AIGC),助力内容规模化生产

3、灵活定制场景

通过举例子的方式,定制大模型海量的应用场景

4、标注数据更少

通过学习少量行业数据,大模型就能够应对特定业务场景的需求

二、平台特点

1、异构计算资源调度

一种基于通用服务器和专用硬件的综合解决方案,用于调度和管理多种异构计算资源,包括CPU、GPU等。通过强大的虚拟化管理功能,能够轻松部署底层计算资源,并高效运行各种模型。同时充分发挥不同异构资源的硬件加速能力,以加快模型的运行速度和生成速度。

2、稳定可靠的数据存储

支持多存储类型协议,包括块、文件和对象存储服务。将存储资源池化实现模型和生成数据的自由流通,提高数据的利用率。同时采用多副本、多级故障域和故障自恢复等数据保护机制,确保模型和数据的安全稳定运行。

3、高性能分布式网络

提供算力资源的网络和存储,并通过分布式网络机制进行转发,透传物理网络性能,显著提高模型算力的效率和性能。

4、全方位安全保障

在模型托管方面,采用严格的权限管理机制,确保模型仓库的安全性。在数据存储方面,提供私有化部署和数据磁盘加密等措施,保证数据的安全可控性。同时,在模型分发和运行过程中,提供全面的账号认证和日志审计功能,全方位保障模型和数据的安全性。

三、常用配置

目前大模型训练多常用H100、H800、A800、A100等GPU显卡,其中H100配备第四代TensorCore和Transformer引擎(FP8精度),与上一代产品相比,可为多专家(MoE)模型提供高9倍的训练速度。通过结合可提供900GB/sGPU间互连的第四代NVlink、可跨节点加速每个GPU通信的NVLINKSwitch系统、PCIe5.0以及NVIDIAMagnumIO软件,为小型企业到大规模统一GPU集群提供高效的可扩展性。

搭载H100的加速服务器可以提供相应的计算能力,并利用NVLink和NVSwitch每个GPU3TB/s的显存带宽和可扩展性,凭借高性能应对数据分析以及通过扩展支持庞大的数据集。通过结合使用NVIDIAQuantum-2InfiniBand、MagnumIO软件、GPU加速的Spark3.0和NVIDIARAPIDS,NVIDIA数据中心平台能够以出色的性能和效率加速这些大型工作负载。

1、H100工作站常用配置

CPU:英特尔至强Platinum846848C96T3.80GHz105MB350W*2

内存:动态随机存取存储器64GBDDR54800兆赫*24

存储:固态硬盘3.2TBU.2PCIe第4代*4

GPU:NvidiaVulcanPCIeH10080GB*8

平台:HD210*1

散热:CPU+GPU液冷一体散热系统*1

网络:英伟达IB400Gb/s单端口适配器*8

电源:2000W(2+2)冗余高效电源*1

2、A800工作站常用配置

CPU:Intel8358P2.6G11.2UFI48M32C240W*2

内存:DDR4320064G*32

数据盘:960G2.5SATA6GbRSSD*2

硬盘:3.84T2.5-E4x4RSSD*2

网络:双口10G光纤网卡(含模块)*1

双口25GSFP28无模块光纤网卡(MCX512A-ADAT)*1

GPU:HVHGXA8008-GPU8OGB*1

电源:3500W电源模块*4

其他:25GSFP28多模光模块*2

单端口200GHDRHCA卡(型号:MCX653105A-HDAT)*4

2GBSAS12Gb8口RAID卡*1

16A电源线缆国标1.8m*4

托轨*1

主板预留PCIE4.0x16接口*4

支持2个M.2*1

原厂质保3年*1

3、A100工作站常用配置

CPU:IntelXeonPlatinum8358P_2.60GHz_32C64T_230W*2

RAM:64GBDDR4RDIMM服务器内存*16

SSD1:480GB2.5英寸SATA固态硬盘*1

SSD2:3.84TB2.5英寸NVMe固态硬盘*2

GPU:NVIDIATESLAA10080GSXM*8

网卡1:100G双口网卡IB迈络思*2

网卡2:25GCX5双口网卡*1

4、H800工作站常用配置

CPU:IntelXeonPlatinum8468Processor,48C64T,105MCache2.1GHz,350W*2

内存:64GB3200MHzRECCDDR4DIMM*32

系统硬盘:intelD7-P56203.2TNVMePCle4.0x43DTLCU.215mm3DWPD*4

GPU:NVIDIATeslaH800-80GBHBM2*8

GPU网络:NVIDIA900-9x766-003-SQOPCle1-PortIB400OSFPGen5*8

THE END
1.人工智能训练平台数据集管理和自定义算法管理的一站式人工智能训练平台。 立即体验 统一的人工智能运行环境 兼容以TensorFlow、PyTorch、Caffe为主的人工智能计算框架,支持多种计算运行库, 提供容器化与虚拟化计算资源,利用分布式计算优势,提高模型训练效率。 立即体验 工业智能平台,开放智慧企业ET大脑服务能力 https://ei.casicloud.com/
2.国内加载流畅的AI模型训练平台Swanlab快速入门SwanLab是一款开源、轻量级的AI实验跟踪工具,提供了一个跟踪、比较、和协作实验的平台,旨在加速AI研发团队100倍的研发效率。 其提供了友好的API和漂亮的界面,结合了超参数跟踪、指标记录、在线协作、实验链接分享、实时消息通知等功能,让您可以快速跟踪ML实验、可视化过程、分享给同伴。 https://blog.csdn.net/2401_85578645/article/details/139744954
3.TIONE训练平台AI模型训练AI开发平台TI-ONE 训练平台(TI-ONE)是为 AI 工程师打造的一站式机器学习平台,为用户提供从数据接入、模型训练、模型管理到模型服务的全流程开发支持。TI-ONE 支持多种训练方式和算法框架,满足不同 AI 应用场景的需求。https://cloud.tencent.com/product/tio
4.TIONE训练平台AI模型训练AI开发平台TI-ONE 训练平台(TI-ONE)是为 AI 工程师打造的一站式机器学习平台,为用户提供从数据接入、模型训练、模型管理到模型服务的全流程开发支持。TI-ONE 支持多种训练方式和算法框架,满足不同 AI 应用场景的需求。https://cloud.tencent.cn/product/tione
5.模型训练平台模型训练平台是基于多种机器学习框架开发的人工智能云平台,具有强大的硬件资源管理能力以及高效的模型开发能力,可进行模型开发、分布式训练与服务发布,降低AI使用门槛,提升开发效率,助力车企加速智能化转型。https://www.z-one.tech/products/modeltraining/
6.深度学习训练平台–中科特瑞产品 一站式大数据分析平台 大数据治理平台 数据标注平台 人脸核身系统 深度学习训练平台 AI一站式开发平台 i9000大数据生态系统 iCloud云计算平台 供应链金融开发平台 瑞翼链BAAS开发平台 瑞翼ETH开发平台 瑞数安算隐私计算平台 DC-Web工业互联网平台http://teruitech.com/deeplearning-platform/
7.国内的大模型训练平台星环科技为您提供国内的大模型训练平台相关内容,帮助您快速了解国内的大模型训练平台。如果想了解更多国内的大模型训练平台资讯,请访问星环科技官网(www.transwarp.cn)查看更多丰富国内的大模型训练平台内容。https://www.transwarp.cn/keyword-detail/34604-1
8.开练app下载开练(健身训练服务平台)v5.1.4安卓版下载开练是健身训练服务平台,支持动作讲解、运动记录、数据统计、趋势复牌等功能,提供大量健身视频,专业指导,软件会根据你的时间安排自动生成专属训练计划,让你科学健身不走弯路,还能通过智能分析你的历史训练数据,并根据你的训练时间、身体部位、肢体动作等多个维度提供可视化图表,为你展示每一块肌肉的训练效果,助你快速复盘https://www.jb51.net/softs/910245.html
9.大模型训练平台大模型训练(及服务)平台集成了数据管理、模型管理、CI/CD流程编排、GPU/NPU资源调度、自动伸缩等能力和相关最佳实践,为大模型的训练和 服务提供了全面支持。该平台通过自动化和智能化的管理手段,显著提升了模型训练的效率和质量,并降低了服务成本。https://www.huaweisoft.com/dmxxlpt
10.FiF智慧教学平台聚合教育生态应用,打造智慧教学平台 讯飞AI课堂 围绕课前、课中、课后教学闭环,基于 动态数据分析,打造全新的智慧教学环境 FiF口语训练系统 语音技术,科学评测,即时反馈 训练题库,内容丰富,题型多样 > FiF在线课程 多个平台,个性课程;学习进度,一目了然 https://www.fifedu.com/
11.海康威视AI开放平台有哪些能力?海康威视AI开放平台是承载了算法模型训练、设备开源开放和生态应用开放共享等能力的平台,为广大用户提供了一站式训练平台、设备开放平台和算法应用编排平台。下面来看看这些平台能提供哪些能力吧! 1、一站式训练平台 一站式训练平台是海康威视AI开放平台面向智能感知领域打造的一站式AI算法模型开发平台,提供数据管理、数据http://www.huiyikj.com/articles/hkwsai1047.html
12.慕言橙长Growth线上训练工作室平台慕言科技 —— 致力于中国儿童成长发育历程及特殊教育领域,专注于早期筛查、辅助训练、康复治疗的在线平台服务https://www.aimysw.com/index.php?tag=faq
13.悟道大模型训练平台火山引擎是字节跳动旗下的云服务平台,将字节跳动快速发展过程中积累的增长方法、技术能力和应用工具开放给外部企业,提供云基础、视频与内容分发、数智平台VeDI、人工智能、开发与运维等服务,帮助企业在数字化升级中实现持续增长。本页核心内容:悟道大模型训练平台https://www.volcengine.com/theme/3146327-W-7-1
14.海康威视AI开放平台海康威视AI开放平台是面向行业用户与生态合作伙伴打造的一站式AI模型开发和应用平台。提供数据集管理、数据标注、模型训练、模型管理、应用集成的全流程AI服务,致力于打造AI视觉应用生态。https://ai.hikvision.com/
15.口语100学生版免费下载口语100,面向中小学生的英语口语教育平台。 特色卖点 给每个学生一个口语陪练,配套各类中小学教材,在音节层次上纠正口语发音。 厂商联系方式 官方网站:http://www.kouyu100.com/ 联系电话:400-016-0066 邮件:cs@kouyu100.com 口语100 app介绍 口语100 app,一般又称英语100口语app,口语一百学生app,口语100手机版。https://www.liqucn.com/app-rn-489612-17
16.GPU如何实现高性能大模型的百倍训练加速蓝海大脑大模型训练平台是蓝海大脑自主研发的高性能计算平台,专用于大模型训练和推理。该平台采用先进的硬件架构和优化的软件算法,可以提供高效的计算能力和存储能力。 大模型内部运行原理 近年来,在大规模语料上预训练 Transformer 模型产生了预训练语言模型(Pre-trained Language Model, PLM),在各类自然语言处理任务上展https://blog.51cto.com/u_15497017/7418809
17.立起新时代军事训练的“魂”和“纲”——陕西庶区推动新大纲在此基础上,省军区依托训练基地,根据年度训练任务和重点训练项目,将全年各级各类人员训练全部安排在基地,省军区统一制订训练计划,分期分批施训,实现了统建训练平台、统配教管力量、统一基地施训、统筹训练保障。 此外,省军区还广泛开展群众性练兵比武活动,提高军事训练实战化水平,按照分层次组织、分专业设置、分科目参加https://sn.cri.cn/chinanews/20180821/a52ae04e-5833-6e14-1a7b-c8489c4520d5.html
18.智慧军营之智慧训练场平台北京西岐智慧军营解决方案集成智慧军校、智能营区、智慧营院、智慧训练、智慧边防、智慧政工、请销假系统、人员管理系统、车辆管理系统、车辆派遣系统、机关办公系统、政治教育系统、访客登记系统、装备保障系统、战备值班系统、后勤保障系统、智慧考试系统、辅助决策系统、三维可视大屏、综合态势平台等软硬件结合一体化解决方http://www.zhihuijunying.cn/info?id=9
19.大模型训练效率是推动大模型进化关键此前,智谱AI训练平台的存储方案以混闪为主,尝试通过堆叠存储节点满足空间容量和高并发带宽访问需求,但这种方式造成存储空间严重浪费和存储成本的急剧增长,在数据体量持续增长的情况下不可持续。因此,智谱AI希望采购新的存储方案,同时满足高性能存储和成本可控。智谱AI经过多方调研,在综合考量技术先进性、性能指标、成功https://blog.itpub.net/29568843/viewspace-2995355/
20.AI体能申报考核系统标签:消防AI智慧训练系统,智能化训练平台,智慧考核,AI智慧体能申报考核系统 AI智慧体能申报考核系统(消防AI智慧训练系统)适用于消防救援队伍体能训练、自主申报、智慧考核、电子评分、自动上传和数据分析的业务应用。该系统基于物联感知及AI识别技术实现数字化训练数据采集,规范“数字化”训考机制,革新体能训考模式,实现指https://www.ff-iot.com/AIzhihuixunlian/576.html
21.货拉拉一站式云原生AI平台建设实践数据工程模型训练在线服务数据工程、模型训练、在线服务是机器学习技术实现的三驾马车,这个流程中处理的数据量大,计算量大、训练框架和版本多样、底层依赖复杂,资源算力管理,需要人工介入解决很多问题,给AI落地带来了比较困难。针对这一系列的问题,货拉拉大数据智能平台组从2020年开始就在探索提供一套完整的云原生的一站式AI解决方案,并从那时起https://juejin.cn/post/7213636024101765181
22.首页国内最活跃的CTF在线训练平台,网络安全爱好者首选。提供丰富的CTF、AWD、渗透加固题目,助力信息安全人才实战演练和技能提升。https://ctf.bugku.com/