科普篇——算力(一) #人工智能# #算力概念# #华为# 第四次科技革命与AGI双浪叠加的时代背景下,新一轮科技创新周期将肇始于底层算力创新... 

狭义的概念上,算力是软硬件配合执行某种信息处理需求的能力。广义概念上,算力是集信息计算力、网络运载力、数据存储力于一体的新型生产力,主要通过算力中心等算力基础设施向社会提供服务。

2、算力分类

3、算力的作用

2)算力与数字产业化互为支撑

3)算力加速产业数字化“数实融合”

(2)算力是通用人工智能的核心动力

对AGI发展来说,数据、算力、算法三大核心要素中,算力向下扎根于数据,向上支撑着算法,将是驱动AGI发展的核心动力。

深度学习出现之前,用于AI训练的算力增长大约每20个月翻一番,基本符合摩尔定律;深度学习出现之后,用于AI训练的算力大约每6个月翻一番;2012年后,全球头部AI模型训练算力需求更是加速到每3-4个月翻一番,即平均每年算力增长幅度达到惊人的10倍;目前大模型发展如火如荼,训练算力需求有望扩张到原来的10到100倍,算力需求的指数级增长曲线将更加陡峭。这也意味着发展AGI需要巨大的算力成本投入。

02

驱动因素

1、政策支持算力基础设施高质量发展

在此基础上,各地市人民政府相继出台多项政策举措,大力支持算力产业发展,全国上下已形成积极推动算力产业快速健康发展的良好局面。

2、ChatGPT掀起AI大模型热潮,拉升算力需求

人工智能大模型训练数据量巨大,对算力尤其是智能算力需求庞大,且将在未来持续高增长,驱动全社会算力产业的快速发展。以GPT大模型为例,GPT-3模型参数约为1746亿个,训练一次需要的总算力为3640PF-days,而新一代GPT-4模型参数量将达到1.8万亿个,算力需求提高68倍。

ChatGPT的轰动引发全球人工智能大模型训练及应用的浪潮,驱动算力需求进入爆炸式增长阶段。尤其是针对人工智能的智能算力,更成为了算力产业未来发展的重要方向。

03

行业发展情况

1、发展情况:算力规模不断提升,产业体系逐步完善

根据《2023智能算力发展白皮书》显示。截至2022年底,全球算力总规模达到650EFLOPS,其中,通用算力规模为498EFLOPS,智能算力规模为142EFLOPS,超算算力规模为10EFLOPS。智能算力规模同比增加了25.7%,占比达21.9%。我国算力规模方面,截至2022年底,中国算力总规模为180EFLOPS,排名位居全球第二。其中,通用算力规模为137EFLOPS,智能算力规模为41EFLOPS,超算算力规模为2EFLOPS。

在数据存储力方面,我国存储规模不断扩大,截至2022年底,我国存储总量达到1000EB,较21年增加25%,以全闪存技术为代表的先进存力快速发展。

在网络运载力方面,我国网络基础设施建设不断完善。截至2023年6月,我国累计建成5G基站超过293万个,光缆线路总长度达到6196万公里。

从硬件设备角度,根据信通院测算,2022年我国计算设备算力总规模达到302EFlops,全球占比约为33%,连续两年增速超过50%。

2、发展方向:智能算力成为产业未来主流

智能算力是基于最新人工智能理论,采用领先的人工智能计算架构,提供人工智能模型训练及应用所需的算力服务、数据服务和算法服务。随着人工智能技术在经济社会的加速渗透,人工智能计算需求快速提升。数据显示,人工智能计算需求未来将占据80%以上计算需求,智能算力将成为算力产业未来发展的重要方向。

根据IDC统计数据,全球范围内人工智能支出快速增长,技术投资规模从2019年的612亿美元增长至2021年的924亿美元,2025年有望突破2000亿美元。

3、市场周期:需求爆发驱动进入涨价阶段

对于国内来说,算力的供应更加紧张。23年10月美国更新出口管制新规,将英伟达多款用于AI训练的高端GPU芯片纳入限制出口范围,国内进口GPU难度大幅增加。因此,在本轮全球算力行业涨价周期中,国内算力行业的价格上涨更为突出。

04

算力未来趋势

1、未来需进一步实现算力国产化产业

未来我国需从芯片技术自主创新、高性能计算平台建设、人工智能与深度学习、云计算发展、开源软件和开放合作、教育与人才培养几个方面进一步实现算力国产化。

2、未来算力将在普适和智慧两个维度上加速发展

未来算力将在普适和智慧两个维度上加速发展。“普适”强调以自然交互的方式提供算力,算力将成为人人可得(Affordable)、人人可用(Available)、人人适用(Adaptable)的“3A”型基础资源;“智慧”强调以认知驱动的方式提供算力,算力将具备自适应(Self-adapting)、自学习(Self-learning)、自进化(Self-evolving)为代表的“3S”智能。对于构建“人-机-物”三元融合系统来说,普适和智慧缺一不可,算力终将无处不在。

(1)“普慧”算力助力充分释放数据红利,中国数字经济体量有望突破百万亿元

当前,数据对提高生产效率的乘数作用不断凸显,是最具时代特征的生产要素,与其他生产要素相比,数据具有可复制、非消耗、边际成本接近于零等新特性,打破了自然资源有限供给对增长的制约,能够为经济转型升级提供不竭动力。

(2)“普慧”算力推动大小模型协同进化,通用人工智能将真正走向落地

AI大模型的真正价值最终将体现在具体场景中,未来产业竞争将从“规模”转向“应用”。目前大模型训练都在云端实现,所用算力是中心化的,精度要求高且成本高,意味着大模型落地必然会面临能耗和性能平衡的难题。破局之道在于大小模型协同进化,即在利用大参数训练完大模型之后,通过高精度压缩,将大模型转化为端侧可用的小模型,大模型相当于超级大脑,小模型相当于垂直领域专家,共同推动AGI落到实处。而这一过程中,算力由中心化走向泛在化,由通用化走向智能化,恰恰也是“普慧”算力释放价值的过程。

“普慧”算力作为通用人工智能的核心动力,既是帮助科技公司搭建AI模型的“卖铲人”,又是检验算力公司创新能力、制造能力的“试金石”,更是推动中国迈向科技强国的“加速器”。在全球算力供给告急的背景下,“普慧”算力正在迎来规模化、产业化发展机遇。

(3)“普慧”算力要求安全不容有失,数据、算法、算力三位一体

1)数据安全:已上升至国家立法层面

中国已将数据安全提升至国家立法的层面,《国家安全法》《网络安全法》《数据安全法》及《个人信息保护法》等共同构筑了数据安全保护的法律法规框架体系。推动算力发展过程中,数据流动和安全发展的矛盾将逐渐显现,必须严守数据安全防线,规避数据泄露、数据贩卖、数据滥用等风险。《全国一体化大数据中心协同创新体系算力枢纽实施方案》强调,“加强对基础网络、数据中心、云平台、数据和应用的一体化安全保障,提高大数据安全可靠水平。”

2)算法安全:伦理规范问题不可忽视

公开资料显示,ChatGPT已经引起美国、欧盟等关于人工智能立法的讨论,实际上AI决策难以解释、不可问责一直是棘手难题,导致了无人驾驶、手术机器人等难以落地,数字金融欺诈、大数据杀熟、生物特征识别等更是不断引发信任危机。随着ChatGPT等生成式AI走向应用,AI在“可解释性”上面临的挑战可能更加严峻,例如,现阶段ChatGPT有能力完成各种基于文本的任务,但它不可避免地会产生一些与事实不符的内容,原因是ChatGPT在回答问题时只是根据前一个单词“预测下一个单词”,进而生成答案,这一过程绕不开神经网络运行机理产生的黑箱效应,运行过程难以解释,部分运行结果的说服力也将大打折扣,某种程度上,AI缺乏“可解释性”带来的“不可信”,正在阻碍AI大规模应用,也是算力发展必须克服的难关。

中国正在以算法安全可信、高质量、创新性发展为导向,建立健全算法安全治理机制,构建完善算法安全监管体系,推进算法自主创新,《关于加强互联网信息服务算法综合治理的指导意见》《互联网信息服务算法推荐管理规定》等政策文件出台,中国开始迈向对算法进行事前事中全流程、动态规制与监管的“算法法”时代。

3)算力安全:战略地位将进一步提高

对比数据安全、算法安全来看,未来中国算力安全的战略地位有机会且有必要进一步提升。在国家政策层面,算力安全受到的重视程度相对不足,多以地方政府级别的政策为主,保障算力安全需要国家从顶层设计发力,推动各界共同努力。目前高端芯片、数据中心、网络等基础设施是算力产业可持续发展的重要保障,要以核心技术自主创新为牵引,加快研发突破,通过产学研联合攻关增强算力产业链的稳定可控性,不断提升算力的自主可控水平。此外,中国超大型、大型数据中心仍有较大发展空间,需坚持适度超前原则,以建代用,尽可能提高算力基础设施的承载能力。

(4)“普慧”算力发展任重道远,绿色化、场景化、市场化三措并举

1)算力绿色化关乎可持续发展,亟需提高单位能耗的计算能力

能量和信息是科技发展的主线,计算的本质是利用能量对信息进行处理加工,信息越多,计算就越复杂,需要的能量也越多,当能量增长跟不上近乎无限扩张的信息时,提高能量利用率将成为必然选择。

2)算力场景化面临知识壁垒,亟需业务、数据、算力高效联动

算力要落地到具体场景中才能真正转化为生产力,而行业愈是细分、业务愈是复杂,算力场景化落地面临的“知识壁垒”就越高。例如,大量行业垂直类软件要求高度凝练总结行业经验、最佳实践等知识,这一知识软件化的过程,经常伴随着非结构化和半结构化数据占比不断升高、数据负载从单一负载转向混合负载等结果,会使得数据流通、压缩存储、加密解密等对算力的需求趋向复杂化和定制化,正倒逼着算力服务商不断提高行业理解力、强化数据资产沉淀、提高算力针对场景化需求的适配度等。

可以预见,随着各行业全要素、全流程、全场景迈向数字化和智能化,数据架构和业务架构将不断向更强大的算力平台上迁移,实现“业务、数据、算力”之间的高效联动,是保证算力资源按需匹配、精准赋能的必要前提。

3)算力市场化仍需加强,亟需多方共同推动算力统一交易

当前算力需求增长确定性高,算力供给规模相对有限,通过市场化交易可以大幅提升算力资源配置效率,是破解算力供需矛盾,推动算力产业生态进入正向循环的关键。各方仍在积极探索算力交易模式,亟需解决算力归属复杂、难以度量定价、区域发展不平衡等问题。

针对算力归属复杂的问题,主要原因在于当前规模化算力基础设施大多由多方共建,要求算力建设方明确划分算力资源占比,保证算力产权可溯源;针对算力难以度量定价的问题,可以提倡由行业管理部门和龙头类企业带头建立统一标准,为算力定价提供可靠依据;针对算力区域发展不平衡问题,在“东数西算”工程稳步推进过程中,各级地方政府部门可以结合区域算力资源禀赋和市场环境,“因地制宜”建设算力基础设施,积极融入全国算力一体化网络,大力建设算力供需适配平台、算力交易平台等,畅通区域间算力流通、共享、按需分配。

05

产业链分析

算力产业链上游涵盖由基础硬件、基础软件等,中游由第三方数据中心、云计算服务、网络运营服务、IT外包服务、系统集成服务构成,下游为应用领域,由互联网、制造业、金融、能源等各行业企业用户构成。

1、上游重点环节

2024年,预计算力仍是发展主线之一,GPU、其他各大厂商的云端AI芯片等有望保持高增长,服务器也有望跟随受益。

(1)芯片:国产芯片厂商快速崛起,生态加速丰富

1)GPU:性能持续进化,价值量提升

当前阶段,GPU仍然是算力硬件的主流选项。以中国为例,按照IDC统计,2023年上半年GPU服务器占据加速计算服务器90%的比例,其余NPU、FPGA等形式的加速计算服务器占比为10%,此前几年GPU也一直是主流选项。

2)AI芯片:百花齐放,实现更高性价比

除GPU外,其他专用AI芯片也是2024年发展的一大主要方向,将在一定程度上影响未来云端算力芯片的市场格局趋势。

3)国产智能芯片硬件性能不断提升

大模型装备竞赛下国内对高端算力芯片需求旺盛,BIS加强对华高端半导体管控,英伟达多款高端算力芯片限制对华出售,高端算力芯片国产替代正当时。大模型能力的提升需要算力硬件进行支撑,算力充足与否,直接决定了AI产品供应商能否长期稳定的提供服务,从而保持行业竞争力。根据头豹研究所和沙利文联合发表的白皮书,2022年中国AI芯片市场规模为368亿元,预计2027年将达到3400亿元,2022-2027CAGR56%。

华为海思有超20年技术积累,芯片超200项自主知识产权,技术实力领先。目前有智能终端和处理器两大产品线,处理器产品包括麒麟、昇腾、鲲鹏、巴龙、凌霄。目前在全球设有12个办事处和研发中心,产品和服务遍布全球100多个国家和地区,有超8000项专利,研发实力突出。其中昇腾作为新一代智算芯片,有昇腾310与昇腾910两款产品。昇腾310是华为首款全栈全场景人工智能芯片,昇腾910是华为目前推出的算力最强的AI芯片,昇腾系列后续发展也被各界给予较高期待。昇腾芯片搭载的华为独创达芬奇架构神经网络处理单元NPU(NeuralNetworkProcessingUnit),该架构具有极具创新的高性能3DCube计算引擎等关键技术,大幅提升AI计算的效率和灵活性,能够在多场景,云、边、端,提供最优算力支持。

4)国产芯片厂商软件生态仍在不断丰富,华为较为领先

CUDA生态是英伟达关键壁垒之一,国产厂商加速建立自身开发者生态。国外厂商英伟达除芯片硬件性能之外,软件CUDA生态亦是其重要壁垒。借助CUDA,开发者能够利用GPU的强大性能显著加速计算应用。CUDA工具包中包含多个GPU加速库、一个编译器、多种开发工具以及CUDA运行环境。国内厂商由于起步较晚,在开发者生态上与国外成熟产品仍有差距。在政府推动及下游产业支持下,国产芯片厂商开发者数量逐步上升,生态渐渐形成。

以华为昇腾计算生态为代表的国产开放式生态快速发展。华为在生态建设持开放的态度,在华为建立的全场景开源AI框架昇思MindSpore外,支持与各种计算框架对接。除自研的应用使能工具MindX外,支持第三方平台应用。实现了从模型研发到落地千行百业的全链条赋能。在今年5月的鲲鹏昇腾开发者峰会上,华为公布目前鲲鹏和昇腾AI开发者已经超过350万,合作伙伴超过5600家,解决方案认证超过15500个。昇腾AI基础软硬件平台已孵化和适配了30多个主流大模型,覆盖中国一半的原创AI大模型,包括鹏城盘古、紫东太初。有25个城市基于昇腾构建人工智能计算中心,其中14个已经上线并饱和运行。

沐曦等AI独角兽企业则采取兼容CUDA生态的方式,以及与华为等国内大厂共建国产生态的路线。摩尔线程携手浪潮共建元脑生态。在2023年人工智能框架沐曦等AI独角兽企业则采取兼容CUDA生态的方式,以及与华为等国内大厂共建国产生态的路线。摩尔线程携手浪潮共建元脑生态。在2023年人工智能框架。

THE END
1.统计方法知识库 知识分类:|知识来源: |发布日期:https://www.stats.gov.cn/zsk/snapshoot?reference=d466cfa12a8d807d0c267a76a75d1e42_2DF4A2519591B2823E278F8050D9622B
2.算法学习:1.统计数字问题这篇博客介绍了如何使用暴力破解法和数字分析法(递归)来统计一本书页码中各数字的出现次数。对于给定的页码范围,作者提供了两种算法的实现:一种是通过双重循环直接计算,另一种则是通过递归分析数字规律。博客还包含详细的代码实现和特殊情况的处理,如前导零的排除。 摘要由CSDN通过智能技术生成 https://blog.csdn.net/qq_51542797/article/details/123383271
3.2误差统计计算统计数据分析必须甄别并改正这样的过失误差,否则会对分析结果产生严重影响。在使用计算机软件处理数据时程序设计的质量问题也会导致误差发生。比如,当输入条件不满足模型要求而程序中未进行检查时,可能给出错误的结果。2.2 数值误差 数值误差是用电子计算机进行数据存储和计算时产生的误差,设计算法时必须了解并尽可能避免https://www.math.pku.edu.cn/teachers/lidf/docs/statcomp/html/_statcompbook/intro-error.html
4.关于统计数字问题的算法关于统计数字问题的算法 关于统计数字问题的算法 ?本书的页码从?然数1开始顺序编码直到?然数n。书的页码按照通常的习惯编排,每个页码都不含多余的前导数字0。例如第6页?6表不是06或006。数字统计问题要求对给定书的总页码,计算出书的全部页码中分别?到多少次数字 0,1,2,3,9。这个https://wenku.baidu.com/view/1de9d3abe63a580216fc700abb68a98270feac4e.html
5.计算机算法设计与分析习题解答11统计数字问题在线阅读1-1统计数字问题书名: 计算机算法设计与分析习题解答 作者名: 王晓东编著 本章字数: 396字 更新时间: 2018-12-30 15:21:44首页 书籍详情 目录 自动阅读00:04:58 摸鱼模式 字号 背景 手机阅读 举报 上QQ阅读APP看后续精彩内容 下载QQ阅读APP,本书新人免费读10天 设备和账号都新为新人 登录订阅本章 https://book.qq.com/book-read/773422/16
6.关于统计数字问题的算法C语言本文介绍了统计数字问题的算法,计算出书的全部页码中分别用到多少次数字0,1,2,3,9,并有每一步的解题思路,需要的朋友可以参考下GPT4.0+Midjourney绘画+国内大模型 会员永久免费使用!【 如果你想靠AI翻身,你先需要一个靠谱的工具!】 一本书的页码从自然数1开始顺序编码直到自然数n。书的页码按照通常的习惯https://www.jb51.net/article/70467.htm
7.关于统计数字问题的算法关于统计数字问题的算法 一本书的页码从自然数1开始顺序编码直到自然数n。书的页码按照通常的习惯编排,每个页码都不含多余的前导数字0。例如第6页用6表示而不是06或006。数字统计问题要求对给定书的总页码,计算出书的全部页码中分别用到多少次数字0,1,2,3,9。 这个https://www.xiuzhanwang.com/a1/Cyuyan/2917.html
8.《数学之美》第25章 条件随机场和句法分析 第26章 维特比和他的维特比算法 维特比算法是一个特殊的但应用最广泛的动态规划算法,维特比算法主要解决篱笆网络的有向图的最短路径问题。它之所以重要,是因为凡是使用隐含马尔可夫模型描述的问题都可以用它来解码。 对于每一个给定的起始点、终止点,如果列出所有可能的路径,从中找出最https://www.douban.com/note/623299429/
9.描述统计分析数据分析行业基础语言一.描述统计分析基础知识 描述统计学:对大量数据进行归纳,大量数据的集合就是数据集,简化数据集,将一系列复杂的数据,减少为几个具有描述作用的指标。从这几个指标中了解关键的信息,利用更加直观的数据来解决问题。 几个关键的描述指标: 1.平均值:算术平均值 https://zhuanlan.zhihu.com/p/195687658
10.科学网—计算实验方法的溯源现状与展望摘要: 随着信息技术的发展, 复杂系统越来越多的呈现出社会、物理、信息相融合的特征. 因为这些系统涉及到了人和社会的因素, 其设计、分析、管理、控制和综合等问题正面临前所未有的挑战. 在这种背景下, 计算实验应运而生, 通过“反事实”的算法化, 为量化分析复杂系统提供了一种数字化和计算化方法. 对于计算实验https://blog.sciencenet.cn/blog-2374-1371452.html
11.必修一《数据与计算》复习提纲与练习题15、在教科书中利用Python探究电流和电压、电阻的关系实验里,除了可以通过书中的JuyterNotebook外,处理数据还可以通过下列()工具实现[单选题]*A.PythonIDLE(正确答案)XmindC.网络画板D.几何画板第三章算法基础练习题[填空题] 1、人们利用计算机解决问题的基本过程为() ①调试运行程序 ②分析问题 ③设计算法 ④问https://www.yxfsz.com/view/1667461982557671425
12.长沙市就业与社保数据服务中心:长沙市“智慧人社”项目(一期)采购同时也是对企业各业务数据的汇总分析,数据可通过服务进行交换共享。支持对企业总体概况、行业分布、百强企业、企业行政区划分布情况、画像查询等方面的统计分析。 2.人社数字驾驶舱 数字驾驶舱综合社保、人才、劳动监察等多个单位数据,采用图形、滚动的表格、大字、地图、滚屏文字等动静相结合的方式将实时数据及按月、按https://www.bidcenter.com.cn/newscontent-205864182-1.html
13.永川这15家企业招人,找工作的看过来!澎湃号·政务澎湃新闻1.以电话形式处理客户有关业务的咨询、查询及投诉等客户服务工作,解决客户所提出的问题,并跟踪、反馈处理结果 2.负责客户所反应问题的归类、统计、分析等工作 3.对服务中发现的热点、难点问题及其他有可能造成越级投诉的服务质量隐患,及时上报公司领导 4.负责满意度回访,针对用户不满意问题,合理并积极协调公司内部资源https://www.thepaper.cn/newsDetail_forward_8515765
14.数字信号处理教程(第4版)(简明版)pdfepubmobitxt电子书下载第一部分是离散时间信号(序列)与系统的基本概念和时域、频域(包括z变换域)的分析方法与算法,包括离散傅里叶变换及其快速算法,模拟信号用数字信号处理的原理方法,这包括第1、2、3、4章的内容;第二部分为IIR及FIR数字滤波器的基本概念、理论、结构与设计方法,这包括第5、6、7章;第三部分为多抽样率数字信号处理https://windowsfront.com/books/11243105
15.值得每个程序员收藏的算法知识总结51CTO博客本部分主要是笔者在学习算法知识和一些相关面试题所做的笔记,如果出现错误,希望大家指出! 一、排序 1、冒泡排序 冒泡排序的基本思想是,对相邻的元素进行两两比较,顺序相反则进行交换,这样,每一趟会将最小或最大的元素“浮”到顶端, 最终达到完全有序。 https://blog.51cto.com/u_15809510/5835164
16.DizzyK/ustccyber算法分析与设计 教材: 算法导论 ( 原书第3版 ) , 机械工业出版社, Thomas H. Cormen 教学内容: 算法入门, 函数增长, 递归分析, 分治策略, 概率分析, 随机算法, 排序, 顺序统计学, 树搜索, 动态规划, 贪心算法, 回溯法, 分支限界法, 随机算法应用 https://toscode.gitee.com/DizzyK/ustc_cyber_security
17.软考高级——信息系统项目管理师(第4版)思维导图模板各类新模式就是无源之水,数字化转型也就成为无本之木。 专业性。工业互联网数据的价值在于分析利用,分析利用的途径必须依赖行业知识和工业机理。制造业 千行百业、千差万别,每个模型、算法背后都需要长期积累和专业队伍, 只有深耕细作才能发挥数据价值。 https://www.processon.com/view/654c455f8f11b40fe56ece43
18.用于制图的地理计算和地理空间人工智能(GeoAI)的进展开源地理地理计算的优点是利用计算方法和工具来探索地理空间和地球数据,并产生新知识,同时,GeoAI 提供了机器学习、深度学习、迁移学习等强大的学习算法,为地理空间和地球问题开发有效且创新的解决方案。制图是 GIS 和地球观测的重要组成部分,有助于了解自然和建筑环境。传统上,基于空间统计推断理论的空间分析用于制图。尽管范围和https://www.osgeo.cn/post/10dfe