人工智能快速发展趋势下,中国该如何应对?之一

水冷服务器、大数据一体机、图数据一体机2023-03-2313:28

人工智能|深度学习|GPT-4

文心一言|机器学习|ChatGPT

近日,随着ChatGPT-4和百度的文心一言的出台,人工智能技术得到迅猛发展。人工智能(AI)是一种模拟人类智能的技术,它可以通过学习和自我改进来执行各种任务。ChatGPT是一种基于AI的聊天机器人,它可以与人类进行自然语言交互,回答问题和提供信息。

人工智能是通过模拟人类大脑的方式来工作的。它使用算法和数据来学习和自我改进,以便更好地执行任务。人工智能可以分为弱人工智能和强人工智能。弱人工智能是指只能执行特定任务的AI,例如语音识别或图像识别。强人工智能是指可以像人类一样思考和决策的AI。

2023年政府工作报告指出“过去五年极不寻常、极不平凡,我们经受了世界变局加快演变、新冠疫情冲击、国内经济下行等多重考验,经济社会发展取得举世瞩目的重大成就。”聚焦到科技领域,“全社会研发经费投入强度从2.1%提高到2.5%以上,科技进步贡献率提高到60%以上。科技创新成果丰硕,人工智能领域的创新成果也不断涌现。”

纵览人工智能产业近年发展,虽然一定程度上突破了深度学习等各类算法革新、技术产品化落地、应用场景打磨、市场教育等难点;但如今也仍需致力解决可信、业务持续、盈利、部署的投资回报率等商业化卡点。

聚焦于2022年,这一历史上极为重要一年中我国AI产业参与者的特征表现、探讨AI产业在我国经济发展中的价值与地位、洞察各技术赛道参与者的发展路径与产业进阶突破点。

人工智能产业发展环境演变

一、人工智能参与社会建设的千行百业——价值性、通用性、效率化为产业发展战略方向

人工智能已成为推动产业发展的主流趋势,其产品形态和应用边界不断拓宽,包括软件服务、云服务、硬件基础设施等形式,应用场景涵盖消费、制造业、互联网、金融、元宇宙和数字孪生等领域。据艾瑞预测,到2022年,我国人工智能产业规模将达到1958亿元,同时,人工智能产学研界在通用大模型、行业大模型等方向上取得了一定突破,促进技术通用性和效率化生产。AI技术的商业价值塑造、通用性提升和效率化应用是其助力产业发展、社会进步和自身造血的关键。

二、企业积极部署AI战略以实现业务增长——对AI应用的比率及数量持续走高;AI提升营收能力进步

纵观近五年来的AI技术商业落地发展脉络,产品及服务提供商围绕技术深耕、场景创新、商业价值创造、精细化服务不断努力;需求侧企业也在从单点试验、数据积累到战略改革的发展路线上,与AI技术逐渐深度绑定。AI成为企业数字化、智能化改革的重要抓手,也是各行业领军企业打造营收护城河的重要方向。

麦肯锡2022年对企业应用AI技术的调研表明:相较于2017年的20%,2022年企业至少在一个业务领域采用AI技术的比率增加了一倍多,达到50%;应用的AI产品数量也从2018年的平均1.9个增加到2022年的3.8个。除了应用数量上的提升,AI产生的商业价值也不断增长,企业部署AI的动力显著。

埃森哲商业研究院针对中国250家领先企业的调研显示,2018-2021年,企业营收中“由AI推动的份额”平均增加了一倍,预计到2024年将进一步增加至36%。落地AI应用对企业业务运营的商业价值与战略意义越来越明确。

三、城市算脑建设推动区域发展与产业升级——各地加速布局区域智算中心,夯实AI算力基础设施

四、政策引导解决AI重大应用和产业化问题——着力打造人工智能重大场景,形成可复制推广的标杆应用

尽管我国在数据、算力、算法及模型的基础层资源与研究积累日益丰富,为开展下游人工智能场景创新应用打下了坚实基础,但在应用场景上仍存在“对场景创新认识不到位,重大场景系统设计不足,场景机会开放程度不够,场景创新生态不完善”等问题。为此,2022年,我国陆续出台一系列指导意见及通知,持续加强对人工智能场景创新工作的统筹指导,规范与加强人工智能应用建设,实现AI与实体产业经济的深度融合。其中,政策引导是解决AI重大应用和产业化问题的重要手段之一。着力打造人工智能重大场景,形成可复制推广的标杆应用,是政策引导的重要方向之一。通过政策引导,加强对人工智能场景创新工作的统筹指导,规范与加强人工智能应用建设,将有助于实现AI与实体产业经济的深度融合。

五、科技伦理治理持续引导AI“向善”——全球AI伦理治理迈入法治时代,我国积极倡导框架规范

六、人工智能产业投资热度仍在——融资向中后期过渡,视觉赛道上市浪潮涌动

七、区域与独角兽企业融资分布特点——北上广与江浙地带融资密度高;独角兽企业聚集于自动驾驶、医疗、工业、芯片赛道

八、人工智能产业市场规模——2022年市场平稳向好,市场规模近2000亿元

人工智能的底层基础

一、AI芯片

1、AI芯片针对机器学习算法设计开发,广泛应用于云、边、端各类场景

3、AI芯片:云端场景数据中心

1)GPU具备矩阵和大规模并行计算优势,适合数据中心场景

CPU是一种通用处理器,它由控制单元(负责指令读取和指令译码)、存储单元(包括CPU片内缓存和寄存器)以及运算单元(ALU约占20%CPU空间)三个主要模块组成。然而,由于成本、功耗、技术难度和算力瓶颈等问题的限制,目前还没有出现适用于AI高算力要求的主流CPU产品。

相比之下,GPU是一种由大量核心组成的大规模并行计算架构,它具有较多的运算单元(ALU)和较少的缓存(cache),是专门为同时处理多重任务而设计的芯片。GPU拥有良好的矩阵计算能力和并行计算优势,能够满足深度学习等AI算法的处理需求,因此成为主流云端AI芯片。

2)张量计算单元是GPU进行深度学习运算的核心组成部分

英伟达A100芯片是一种并发多核处理器,由多个SM单元(StreamingMultiprocessors,流式多处理器)构成。不同的SM单元共享L2Cache存储资源,以便进行数据访问。该芯片采用安培架构,拥有128个SM核,其中SM结构是芯片架构升级的核心。此外,英伟达GPU架构中还设置了TensorCore,这是专为深度学习矩阵运算设计的张量计算单元,也是英伟达GPU系列深度学习运算加速的核心。TensorCore主要处理大型矩阵运算,执行一种专门的矩阵数学运算,适用于深度学习和某些类型的高性能计算。其功能是执行融合乘法和加法的运算,其中两个4*4FP16矩阵相乘,然后将结果添加到4*4FP32或FP64矩阵中,最终输出新的4*4FP32或FP64矩阵。

4、边缘端场景—AIoT。边缘端集成AI芯片可以实现本地化数据的实时处理

5、终端场景—智能驾驶。随着智能驾驶等级的提高,技术不断迭代促使车用AI芯片性能逐步增强

SAE(国际自动机工程师学会)将自动驾驶分为六个级别,从L0(非自动化)到L5(完全自动化)。每一级别需要强大的算力进行实时分析、处理大量数据和执行复杂的逻辑运算,对计算能力有着极高的要求。L1(驾驶员辅助)和L2(部分自动化)需要的计算能力相对较低,而L3(有条件自动化)需要约250TOPS的计算能力,L4(高度自动化)需要超过500TOPS,L5(全场景自动驾驶)需要超过1,000TOPS。随着芯片设计和制造工艺的提高,车用AI芯片正朝着高算力、低功耗的方向发展。

6、终端场景—智能驾驶。预计到2025年,全球车用AI芯片市场规模将突破17亿美元

随着汽车控制方式逐渐由机械式转向电子式,每辆汽车对车用AI芯片需求提升,带动车用AI芯片长期发展。据市场研究机构Yole预测,到2025年,全球车用AI芯片产量将达到67.19亿颗,市场规模将达到17.76亿美元,年复合增速分别达到99.28%和59.27%。此外,车用AI芯片逐渐往高能效方向发展。例如,英特尔计划于2022年推出EyeQUltra自动驾驶汽车芯片,该芯片基于经过验证的MobileyeEyeQ架构而打造,含有8个PMA、16个VMP、24个MPC、2个CNNAccelerator视觉处理单元(VPU),通过优化算力和效能以达到176TOPS,可满足L4自动驾驶场景。该产品将于2023年底供货,预计在2025年全面实现车规级量产。

7、终端场景—消费电子。2026年全球消费电子AI芯片市场规模将突破55亿美元

AI芯片在图像识别、语音识别和快速建立用户画像等方面具有重要作用。根据Yole预测,2026年全球消费电子AI芯片市场规模将达到55.8亿美元,其中笔记本电脑、平板电脑和智能手机AI芯片渗透率将分别达到100%、100%和91%,未来全球消费电子AI芯片市场规模和渗透率呈现逐步增长态势。

二、深度学习开源框架

深度学习开源框架是一种标准接口、特性库和工具包,用于设计、训练和验证AI算法模型。它们集成了数据调用、算法封装和计算资源的使用,是AI开发的重要工具。目前,国际上广泛使用的深度学习开源框架包括GoogleTensorFlow、FacebookPyTorch、AmazonMXNet和微软CNTK等。在中国,也有一些深度学习开源框架,如百度PaddlePaddle、华为MindSpore等。这些框架已经初步应用于工业、服务业等场景,服务200余万开发者。

三、数据服务以AI训练与调优为目的,涉及数据采集、标注与质检等环节

人工智能数据服务是指提供数据库设计、数据采集、数据清洗、数据标注和数据质检等服务,以满足客户的需求。这个服务流程是围绕客户需求展开的,最终产出的产品是数据集和数据资源定制服务,为AI模型训练提供可靠、可用的数据。随着短视频、直播、社交电商等应用的快速兴起,全球数据量也在快速增长。根据IDC的预测,全球数据量将从2015年的9ZB增加到2025年的175ZB,这为人工智能技术的持续迭代提供了重要的底层基础。

四、云计算服务显著降低人工智能算法开发成本,缩短产品开发周期

由于人工智能的开发和应用对于算力和数据有较大需求,云计算服务可以为开发者提供智能服务器集群等强大算力设施的租用。同时,云计算服务还可以直接提供已经训练好的人工智能功能模块等产品,通过多元化的服务模式,降低开发者的开发成本和产品开发周期,为客户提供AI赋能。

人工智能的核心技术

一、机器学习

机器学习是实现人工智能的核心方法,专门研究计算机如何模拟/实现生物体的学习行为,获取新的知识技能,利用经验来改善特定算法的性能。根据学习范式的不同,机器学习可划分为有监督学习、无监督学习、强化学习三类。有监督学习是指通过给计算机提供标注数据,让计算机学习如何将输入映射到输出的过程。无监督学习则是指在没有标注数据的情况下,让计算机自行学习数据的特征和结构。强化学习则是通过让计算机在与环境的交互中不断试错,从而学习如何最大化奖励的过程。深度学习是机器学习算法的一种,具有多层神经网络结构,其在图像识别、语音处理等领域取得了划时代的成果。

1、有监督学习:从有标注训练数据中推导出预测函数

有监督学习是机器学习任务的一种类型,其目的是从给定的训练数据集中学习出一个函数(模型参数),以便在新的数据到来时,能够根据该函数预测结果。训练集中包括输入和输出,也称为特征和目标,其中目标是由人工标注的。有监督学习的过程一般包括确定训练类型、收集训练集、确定特征提取方法、选择算法、训练算法、评估准确性六个环节。通过已有的训练样本去训练得到一个最优模型,再利用该模型将所有的输入映射为相应的输出,从而实现分类目的。

1)逻辑回归

逻辑回归是一种用于学习某事件发生概率的算法,它可以对某个事件的发生或不发生进行二元分类。逻辑回归使用Sigmoid函数来输出结果,其输出结果的范围在[0,1]之间。逻辑回归的主要目标是发现特征与特定结果可能性之间的联系。例如,我们可以使用逻辑回归来根据学习时长来预测学生是否通过考试,其中响应变量为“通过”和“未通过”考试。

2)支持向量机:以间隔最大化为基准学习远离数据的决策边界

支持向量机(SupportVectorMachine,SVM)是一种基于间隔最大化的决策边界算法。其主要目的是学习一个尽可能远离数据的决策边界,以确保分类的准确性。在SVM中,支持向量是决策边界的重要数据点,其位置对于分类结果具有重要的影响。

当训练样本线性可分时,SVM采用硬间隔最大化的方法学习线性可分支持向量机;当训练样本近似线性可分时,SVM采用软间隔最大化的方法学习线性支持向量机。在解决线性不可分问题时,SVM引入核函数,将数据映射到另一个特征空间,然后进行线性回归。通过采用核方法的支持向量机,原本线性不可分的数据在特征空间内变为线性可分,从而实现了分类的准确性。

3)决策树:以树结构形式表达的预测分析模型

决策树是一种树状结构,用于对数据进行划分。它通过一系列决策(选择)来划分数据,类似于针对一系列问题进行选择。一棵决策树通常包含一个根节点、若干个内部节点和若干个叶节点。每个内部节点表示一个属性上的测试,每个分支代表一个测试输出,每个叶节点代表一种类别。

决策树的生成是一个递归过程。在决策树基本算法中,有三种情况会导致递归返回:

当前节点包含的样本全属于同一类别,无需划分。

当前属性集为空或是所有样本在所有属性上取值相同,无法划分。

当前节点包含的样本集合为空,不能划分。

这些情况都是决策树生成过程中的终止条件。

4)随机森林:利用多决策树模型,提高模型预测精度

随机森林是一种分类器,它利用多棵决策树对样本进行训练和预测。在随机森林算法中,每个决策树的输出被收集起来,通过多数表决的方式得到最终的分类结果。这种方法类似于找人商量事情,不只听一个人的意见,而是在听取多人意见后综合判断。随机森林的每棵树都是通过以下步骤生成的:

从训练集中随机且有放回地抽取N个训练样本,作为该树的训练集,重复K次,生成K组训练样本集;

从M个特征中随机选取m个特征,其中m<

利用m个特征实现每棵树最大程度的生长,并且没有剪枝过程。

这种方法可以有效地避免过拟合问题,并且在处理大型数据集时表现良好。

5)朴素贝叶斯是常用于自然语言分类问题的算法

朴素贝叶斯是一种基于概率进行预测的算法,主要用于分类问题。在实践中,它被广泛应用于文本分类和垃圾邮件判定等自然语言处理领域。具体来说,该算法通过计算数据为某个标签的概率,将其分类为概率值最大的标签。例如,假设训练数据类别为电影(包括那部让人感动的电影名作重映、华丽的动作电影首映和复映的名作感动了世界),训练数据类别为宇宙(包括沙尘暴笼罩着火星、火星探测终于重新开始和VR中看到的火星沙尘暴让人感动),而验证数据为“复映的动作电影名作让人感动”。在这种情况下,朴素贝叶斯算法将通过计算“复映的动作电影名作让人感动”属于电影或宇宙的概率,来判断该数据属于哪个类别。以下为朴素贝叶斯算法过程:

2、无监督学习:对无标签样本进行学习揭示数据内在规律

无监督学习是一种机器学习方法,其主要目的是在没有标记的训练数据的情况下生成模型。这种方法通常用于缺乏足够的先验知识难以进行人工标注类别或进行人工类别标注成本高的情况下。无监督学习的目标是通过对无标签样本的学习来揭示数据的内在特性及规律。该方法主要涉及聚类和降维问题。聚类问题包括K-means聚类、概念聚类、模糊聚类等算法,其目标是为数据点分组,使得不同聚类中的数据点不相似,同一聚类中的数据点则是相似的。降维问题主要是主成分分析、线性判别分析、多维尺度分析等算法,其中主成分分析将数据中存在的空间重映射成一个更加紧凑的空间,此种变换后的维度比原来维度更小。无监督学习适用于发现异常数据、用户类别划分、推荐系统等场景。

1)策略梯度:有效处理高维及连续动作空间问题

2)时序差分学习:结合蒙特卡罗方法与动态规划特点,提升策略优化速度

时序差分学习(TemporalDifference,TD)是一种无需具体环境模型,可直接从经验中学习的方法。它结合了动态规划和蒙特卡罗方法的优点,能够在每执行一步策略后即进行Q函数更新,而不必等到完成一个采样轨迹后才进行更新。根据算法中采样策略和更新Q值策略是否相同,TD学习可分为同策略算法(on-policy)和异策略算法(off-policy)。同策略代表算法为Sarsa,其行为策略和目标策略均为贪心策略;异策略代表算法为Q-Learning(或称SarsaMax),其行为策略为贪心策略,而目标策略为确定性策略。Sarsa收敛速度较快,但可能无法得到全局最优解;Q-Learning可找到全局最优解,但收敛速度较慢,因此需要根据具体问题选择合适的算法。

3)深度Q网络:神经网络与Q-Learning结合,有效应对复杂状态空间

深度Q网络(DeepQ-network,DQN)是一种基于深度学习的Q-Learning算法,由GoogleDeepMind团队于2013年提出,并在2015年进一步完善。传统的强化学习算法(如动态规划、蒙特卡罗方法、时序差分学习等)的状态均为离散、有限的,并使用查找表存储状态价值或Q函数。然而,现实生活中的状态多为连续的,即使离散化后状态空间(系统全部可能状态的集合)仍十分庞大,因而产生内存不足、表格搜索耗时过长等问题。DQN则通过DNN、CNN或RNN等神经网络对价值函数做近似表示,利用经验回放方式替代查找表,令最终结果无限逼近全局最优解,有效解决Q-Learning状态空间有限问题。

4)Actor-Critic算法:综合策略梯度与Q-Learning优势,提高学习效率和准确性

3、迁移学习:将知识由源域迁移至目标域,提高机器学习效率

1)选择源模型,从可用模型中挑选出预训练模型;

2)重用模型,在目标域中使用源模型进行训练;

3)调整模型。模型可以在目标数据集中对输入-输出进行选择性微调,以让其适应目标任务。

实现迁移学习的方式主要包括样本迁移、特征迁移、模型迁移。目前,迁移学习主要应用在计算机视觉、自然语言处理等领域。

4、联邦学习:以分布式机器学习方式,有效化解信息孤岛问题

联邦学习(FederatedLearning,FL)是由Google公司首次提出的一种学习机制,它允许多个数据持有方协同训练模型,而不需要共享数据,仅在中间阶段交换训练参数。根据数据分布情况,联邦学习可分为横向联邦学习、纵向联邦学习和联邦迁移学习。联邦学习的基本流程包括:

1)客户端从服务器下载全局模型;

2)训练本地数据得到本地模型;

3)上传模型更新信息;

4)中心服务器加权聚合本地模型,得到更新后的全局模型。

通过多次迭代,联邦学习可以得到趋近于集中式机器学习结果的模型。联邦学习是一项新兴技术,在物联网、智慧医疗、金融风控、智慧城市等领域都有广阔的应用前景。

二、深度学习

1、神经网络:具有适应性简单单元组成的广泛并行互联网络

神经网络是一种由数千甚至数百万个紧密互连的简单处理节点组成的模型。它主要包括输入层、中间层/隐藏层和输出层。输入层接收输入数据,中间层使用非线性函数对输入数据进行计算,输出层使用非线性函数对中间层数据进行计算,最终输出结果。神经网络可以用于回归,但主要应用于分类问题。通过设置中间层的数量和层的深度,神经网络可以学习更复杂的边界特征,从而得出更加准确的结果。

2、卷积神经网络:以图像识别为核心的深度学习算法

卷积神经网络(ConvolutionalNeuralNetwork,CNN)是一种由数千甚至数百万个紧密互连的简单处理节点组成的神经网络结构,主要用于处理图片、视频等类型数据。该网络结构主要包括输入层、卷积层、池化层、全连接层和输出层。早在1980年,日本科学家福岛邦彦就提出了一个包含卷积层、池化层的神经网络结构。随后,YannLecun将BP算法应用到该神经网络结构的训练上,形成了当代卷积神经网络的雏形。在1998年,YannLeCun及其合作者构建了更加完备的卷积神经网络LeNet-5,并在手写数字的识别问题中取得了成功。此外,1998年WeiZhang提出了第一个二维卷积神经网络:平移不变人工神经网络(SIANN),并将其应用于检测医学影像。

卷积层、池化层、全连接层和输出层是卷积神经网络中的四个主要组成部分。在卷积层中,输入的图片会被转化成RGB对应的数字,并通过卷积核进行卷积操作,以提取输入中的主要特征。池化层的作用是压缩特征映射图尺寸,从而降低后续网络处理的负载。全连接层计算激活值,并通过激活函数计算各单元输出值,常用的激活函数包括Sigmoid、tanh、ReLU等。输出层使用似然函数计算各类别似然概率。

3、循环神经网络:用于处理序列数据的神经网络

4、图神经网络:用于处理图结构数据的神经网络

图神经网络(GraphNeuralNetworks,GNN)是一种将图数据和神经网络进行结合的新型机器学习方法。它能够在图数据上进行端对端的计算,具备端对端学习、擅长推理、可解释性强的特点。目前,图神经网络已经发展出多个分支,主要包括图卷积网络、图注意力网络、图自编码器、图生成网络和图时空网络等。

图神经网络的训练框架如下:首先,每个节点获取其相邻节点的所有特征信息,将聚合函数(如求和或取平均)应用于这些信息。聚合函数的选择必须不受节点顺序和排列的影响。之后,将前一步得到的向量传入一个神经网络层(通常是乘以某个矩阵),然后使用非线性激活函数(如ReLU)来获得新的向量表示。

图神经网络在许多领域的实际应用中都展现出强大的表达能力和预测能力。例如,在物理仿真、科学研究、生物医药、金融风控等领域,图神经网络已经被广泛应用。它不仅能够对图数据进行分类、回归和聚类等任务,还能够进行图生成、图表示学习和图推理等任务。因此,图神经网络被认为是一种非常有前途的机器学习方法。

5、长短期记忆神经网络:在RNN中加入门控机制,解决梯度消失问题

6、自编码器:通过期望输出等同于输入样本的过程,实现对输入样本抽象特征学习典型深度无监督学习模型包括自编码器、受限波尔兹曼机与生成对抗网络。

自编码器(Autoencoder,AE)是一种神经网络模型,由编码器和解码器两部分组成。编码器将高维输入样本映射到低维抽象表示,实现样本压缩和降维;解码器将抽象表示转换为期望输出,实现输入样本的复现。自编码器的输入和期望输出均为无标签样本,隐藏层输出则作为样本的抽象特征表示。自编码器通过最小化输入样本与重构样本之间的误差来获取输入样本的抽象特征表示,但无法保证自编码器提取到样本的本质特征。为避免这个问题,需要对自编码器添加约束或修改网络结构,进而产生稀疏自编码器、去噪自编码器、收缩自编码器等改进算法。自编码器凭借其优异的特征提取能力,主要应用于目标识别、文本分类、图像重建等领域。

7、生成对抗网络:通过对抗训练机制使得生成器生成以假乱真的样本

生成对抗网络(GAN)是一种通过对抗训练机制对两个神经网络进行训练的方法,以避免反复应用马尔可夫链学习机制带来的配分函数计算,从而明显提高应用效率。GAN包含一组相互对抗的模型,即判别器和生成器。判别器的目的是正确区分真实数据和生成数据,使得判别准确率最大化;而生成器则是尽可能逼近真实数据的潜在分布。类比于造假钞的人和警察的博弈,生成器类似于造假钞的人,其制造出以假乱真的假钞;而判别器则类似于警察,尽可能鉴别出假钞。在这个博弈中,双方不断提升各自的能力,以达到更高的准确率和更逼真的生成数据。

三、计算机视觉

1、U-Net:在有限数据集图像分割方面独具优势

2、R-CNN:基于深度学习模型的目标检测算法

目标检测算法主要分为两类:R-CNN和Yolo。R-CNN(Region-CNN)最早将深度学习应用在目标检测任务中。目标检测任务是计算机视觉中的重要组成部分,其在人脸识别、自动驾驶等领域有着广泛应用。传统目标检测方法大多以图像识别为基础,在图片上使用穷举法选出所有物体可能出现的区域框,对这些区域框提取特征并使用图像识别方法分类,得到所有分类成功的区域后,通过非极大值抑制算法得到输出结果。R-CNN遵循传统目标检测的思路,但在提取特征这一步,将传统特征换成深度卷积网络提取的特征。虽然R-CNN准确度高,但速度慢。相比之下,Yolo算法速度快但准确性相对低。

3、Yolo:采用CNN模型实现端到端的目标检测算法

以往的目标检测算法通常采用滑动窗口的方式,将检测问题转化为图像分类问题,但存在计算量过大等弊端。为了解决这个问题,Yolo算法应运而生。Yolo算法直接将原始图片分割成互不重合的小方块,然后通过卷积产生特征图。具体而言,Yolo算法采用单独的CNN模型实现端到端的目标检测,包含24个卷积层和2个全连接层。卷积层主要使用1x1卷积来做通道缩减,然后紧跟3x3卷积。卷积层和全连接层采用LeakyReLU激活函数,最后一层采用线性激活函数。Yolo算法的优点在于采用CNN实现检测,训练和预测都是端到端过程,因此该算法比较简洁且速度快。同时,由于Yolo是对整张图片做卷积,因此在检测目标时拥有更大的视野且不容易对背景误判。然而,Yolo算法的缺点是其在物体的宽高比方面泛化率相对较低,无法定位不寻常比例的物体。

四、自然语言处理

1、自然语言处理:用于分析、理解和生成自然语言,便于人机间交流

2、Word2Vec:以分布式方法表示词向量,有效降低维度,丰富词语间关系

3、Seq2Seq:基于循环神经网络输出非固定长度语句

Seq2Seq(SequencetoSequence)是一种神经网络模型,由GoogleBrain和YoshuaBengio团队在2014年分别独立提出。它的主要应用场景是解决机器翻译任务中输出语句长度不确定的问题。Seq2Seq模型基于RNN或LSTM等神经网络算法,由编码器(Encoder)和解码器(Decoder)两部分构成。编码器负责将输入序列压缩为指定长度的语义向量,而解码器则根据语义向量生成指定序列。这种模型可以实现序列信号转化为无固定长度序列输出,而传统的RNN只能将序列信号转化为固定长度序列输出。除了机器翻译,Seq2Seq还被应用于文本摘要、图像描述文本生成、语音识别等场景。

4、门控卷积神经网络:应用于语言建模,以并行计算方式加速学习过程

门控卷积神经网络(GatedConvolutionalNeuralNetworks):由Facebook团队Yann等人在2016年提出,使用基于门控机制的卷积神经网络处理语言建模问题。与循环神经网络(RNN)相比,门控卷积神经网络可实现并行计算,有效缩短运行时长。由于卷积神经网络不存在梯度消失问题,因而门控卷积神经网络中的门控机制更加简化,仅需保留输出门用于判定信息是否传递至下一层,可实现更高精度及更快收敛速度。目前,门控卷积神经网络模型已被应用于光学字符识别(OCR)、机器阅读理解等多个领域。

五、语音处理

1、语音识别:将语音自动转换为文字的过程

2、基于深度神经网络-隐马尔可夫模型的声学模型成为主流声学建模技术

声学模型承载着声学特征与建模单元之间的映射关系,其中建模单元包括音素、音节、词语等,其单元粒度依次增加。然而,若采用词语作为建模单元,每个词语的长度不等,导致声学建模缺少灵活性,很难充分训练基于词语的模型。相比之下,词语中包含的音素是确定且有限的,利用大量的训练数据可以充分训练基于音素的模型。因此,目前大多数声学模型一般采用音素作为建模单元。

混合声学模型是比较经典的声学模型,通常可以分为两种:基于高斯混合模型-隐马尔可夫模型的声学模型和基于深度神经网络-隐马尔可夫模型的声学模型。后者具有两方面优势:一是深度神经网络能利用语音特征的上下文信息;二是深度神经网络能学习非线性的更高层次特征表达。因此,基于深度神经网络-隐马尔可夫模型的声学模型已成为目前主流的声学建模技术。

3、语音合成:将任意输入的文本转换成自然流畅的语音输出

语音合成(TextToSpeech,TTS)是一种将文本转换为语音的技术,赋予机器像人一样自如说话的能力,是人机语音交互中重要的一环。语音合成系统分为文本前端和声学后端两个部分。文本前端主要负责在语言层、语法层、语义层对输入文本进行预处理,如为文本添加韵律信息,并将文本词面转化为语言学特征序列。声学后端可以分为声学特征生成网络和声码器。声学特征生成网络根据文本前端输出的信息产生声学特征。声码器利用频谱等声学特征,生成语音样本点并重建时域波形。近年来出现的端到端语音合成系统则将声学后端合并为一个整体,可直接将语言学特征序列,甚至字符直接合成语音。

目前,语音合成技术已经广泛应用于银行、医院信息播报系统、自动应答呼叫中心等领域。这些应用场景需要机器能够快速、准确地将大量的文本信息转化为语音,以提供更好的用户体验。随着技术的不断发展,语音合成系统的语音质量和性能也在不断提高,未来将会有更多的应用场景涌现。

六、知识图谱:利用图模型来描述知识和建模万物关系的语义网络

知识图谱是一种结构化描述客观世界中概念、实体之间关系的方式,旨在提高搜索引擎的能力,提高用户搜索质量,改善用户搜索体验。其最常见的表示形式是RDF(三元组),即“实体x关系x另一实体”或“实体x属性x属性值”集合,其中节点代表实体或概念,边代表实体/概念之间的各种语义关系。知识图谱的构建过程旨在让计算机更好地理解各行业领域信息,使其具备人的认知能力。基本构建流程包括知识抽取(如实体抽取、关系抽取)、知识融合(如数据整合、实体对齐)、知识加工(如知识推理)等。由于图数据相对于传统的关系型数据具有更强大的表达能力,善于处理大量、复杂、互联、多变的网状数据,因此图数据的计算与推理逐渐成为知识图谱的重要研究任务之一。

THE END
1.边缘AI计算平台是什么?了解AI边缘计算平台的优势及应用嘲边缘AI计算平台是一种在边缘计算环境中实现人工智能技术的平台。所谓边缘计算,是一种分布式计算框架,它将计算和数据存储更接近实际设备,从而优化了数据处理和传输的速度和响应时间。边缘AI则在此基础上,通过集成机器学习、深度学习等人工智能技术,使边缘设备能够自主地感知、理解和响应数据,实现实时的智能决策、智能控制和https://www.iotdt.com/news/chanpingxunxi/634.html
2.智汇奇策申请一种基于边缘计算的智能制造方法及系统专利,提高数据处理金融界2024年12月21日消息,国家知识产权局信息显示,深圳市智汇奇策科技有限公司申请一项名为“一种基于边缘计算的智能制造方法及系统”的专利,公开号 CN 119151221 A,申请日期为 2024 年 8 月。 专利摘要显示,本发明适用于智能制造技术领域,提供了一种基于边缘计算的智能制造方法及系统。本发明通过确定本地服务器,https://www.163.com/dy/article/JJUR9UR90519QIKK.html
3.从现场总线技术的角度探索万物互联边缘运算的优势与挑战在自动驾驶和万物互联的浪潮中,边缘运算成为了一个关键概念。它指的是将数据处理从云端转移到更接近用户或设备的地方。这一技术对于解决自动驾驶汽车产生的大量数据是非常有益的。 传统上,所有数据都通过云端进行处理。但是,这种方式存在一些问题。首先,网络延迟可能会影响实时性。其次,即使使用最新的5G网络,也可能无法https://www.hsr3sniea.cn/zi-xun/390180.html
4.端侧智能新纪元:AIPC与智能手机的融合创新报告精读端侧智能指的是在设备端进行数据处理和智能决策的技术,它能够提供更快的响应速度、降低对云端的依赖,并增强数据隐私保护。在这一领域,AI PC和智能手机是两个最具代表性的应用场景。AI PC通过集成高性能AI芯片,实现了从传统计算设备到智能助理的转变;而智能手机则通过集成NPU(神经网络处理单元),在端侧执行复杂的AIhttps://www.vzkoo.com/read/2024121978cbd873e27f01f385dfa82f.html
5.现场总线技术自动驾驶与万物互联边缘运算的新纪元在科技的高速发展下,自动驾驶和万物互联的概念正逐渐成为现实。这些曾经只存在于科幻电影中的场景,如今有望变为现实。Google母公司Alphabet旗下的Waymo、沃尔沃、福特、大众等传统汽车企业,以及新兴互联网企业,都在积极推进自动驾驶技术的研发。 边缘运算是将数据处理从云端转移到终端设备或较近的运算设备上的一种技术。https://www.9e80wtu09.cn/ke-ji/393714.html
6.TensorFlowLite,MLKit和Flutter移动深度学习:1~5微软开发的 Seeing AI 是一款智能相机应用,它使用计算机视觉来听觉上帮助盲人和视障人士了解周围的环境。 它具有一些功能,例如为用户读取简短的文本和文档,提供有关人的描述,使用设备的相机识别其他应用中的货币,颜色,笔迹,光线甚至图像。 为了使该应用具有先进的实时响应能力,开发人员采用了使服务器与 Microsoft Cognitihttps://developer.aliyun.com/article/1427017
7.你以为边缘AI只是技术噱头?绝非如此,它正在推动行业创新!边缘设备的互联互通:不同边缘设备之间需要通过高速网络进行数据和状态同步,形成智能协同工作,尤其是在智能制造和自动驾驶中需要大量设备进行实时通信。 边缘设备的实时操作系统 边缘AI要求设备能够实时响应,这需要支持高效的实时操作系统(RTOS)。这些系统能够保证在严格的时间限制内执行任务,尤其在自动驾驶、工业机器人等对https://t.10jqka.com.cn/pid_389326326.shtml
8.5米识别,0.1秒响应,探境科技亮出四款语音AI芯片(探境鲁勇:破局存储墙,打造首款通用AI芯片 | GTIC2019) 而探境科技认为,其存储优先架构(SFA)的的一大突破就是将存储作为调度核心,使数据在存储器之间传递的过程中就得到计算,这种简单快速有效的方式特别适合边缘计算场景来使用,在同等条件下相对于传统的类CPU架构,存储优先架构的芯片产品可将数据访问降低10-100倍https://zhidx.com/p/145750.html
9.奇绩创坛路演日:基础软件元宇宙医疗ESG芯片…54个项目看FedML.ai 借助Open MLOps和Web3 Marketplace,随时随地构建开放、协作的Al。 FedML.ai是一个创新性的平台,可以从各种用户/孤岛/边缘节点的分散数据中进行机器学习,用户无需在它们之间或将任何数据移动到云端,从而最大程度保护用户隐私,遵守数据使用法规并减少开发成本。FedML.ai为去中心化和协作式AI创建了一个MLOpshttps://m.36kr.com/p/1783186930585220
10.AI芯片和传统芯片有何区别?在AI 产业应用大规模兴起之前,使用 FPGA 这类适合并行计算的通用芯片来实现加速,可以避免研发 ASIC 这种定制芯片的高投入和风险。 但就像我们刚才说到的,由于通用芯片的设计初衷并非专门针对深度学习,因此 FPGA 难免存在性能、功耗等方面的瓶颈。随着人工智能应用规模的扩大,这类问题将日益突出。换句话说,我们对人工智https://www.zhihu.com/question/285202403
11.AI芯片全面发展!从训练到推理从云端到边缘从GPU到ASIC边缘AI芯片市场规模将超过云端芯片 同时AI芯片正在从云端向边缘端发展,IDC&浪潮日前发布的《2021-2022中国人工智能计算力发展评估报告》显示,在新技术的驱动下,5G 等连接技术降低了数据的传输和处理速度,为了分担数据中心的计算压力并且也能提高实时响应速度,人工智能在边缘侧的处理将成为企业的一个关键增长领域。 https://maimai.cn/article/detail?fid=1714614484&efid=aybPcqVYnbirZbbFAx5chA
12.芯片领涨第三子浪,神经网络芯片的王者横空出世AI芯片可以根据其部5.安全与隐私保护:AI SoC芯片通常包含硬件级别的安全功能,如加密引擎和安全存储,以保护设备免受黑客攻击,并保护用户数据的隐私。 6.低功耗运行:边缘AI芯片的功耗比云端AI芯片低得多,适合电池供电的设备,如可穿戴设备和移动设备。 7.实时响应:利用边缘AI芯片直接在设备上执行AI处理可以将数据延迟降低至纳秒级,这对https://xueqiu.com/1320842253/308803540
13.边缘AI对数据量大的应用将至关重要腾讯云开发者社区到2020年,我们预计将有超过7.5亿的边缘人工智能芯片(执行或加速机器学习任务的芯片或芯片部件,不是在远程数据中心里)被售出,这意味着26亿美元的收入。此外,边缘AI芯片市场的增长速度将远远快于整个芯片市场。我们预计,到2024年,边缘人工智能芯片的销量将超过15亿。这意味着年销量至少增长20%,是整个半导体行业9%年复https://cloud.tencent.com/developer/news/588292
14.智能安防三大硬核技术:智能感知图像/视频处理AI计算可重构芯片应用于图像信号处理有如下优势:快速在芯片上实现最新的图像算法、更加强大的图像处理性能、为客户提供自己定制ISP算法的可能,并可延长产品的生命周期。 在产品形态上,添加AI能力的边缘计算载体包括智能安防摄像头、智能网关、盒子、微型数据中心等。这些设备和应用对于多种连接和数据移动性、实时决策、本地化计https://mp.ofweek.com/im/a656714229187
15.产研:集成化趋势下,DSP芯片会被取消吗?未来,DSP与CPU、GPU以及AI专用芯片的融合将成为主流,这种趋势将进一步推动DSP芯片在诸如AI、智能控制等领域的广泛应用。通过多核架构和高度集成的设计,DSP芯片能够更好地适应复杂应用场景,尤其是在需要大规模数据处理和实时响应的应用中。 个性化定制与差异化 https://www.eefocus.com/article/1757379.html
16.从“谁是你”到“你是谁”,AI深度改造安防行业而从另一角度来看,前端计算可以大大节省带宽,把服务器端的负载大大降低,让更多场景下的实时计算成为可能,从而大大提升未来城市居民的生活质量。 2018安博会上,地平线首次展出了XForce边缘AI计算平台。XForce是基于地平线BPU2.0处理器架构的FPGA边缘AI计算平台。通过算法与芯片深度结合的软硬件联合优化,XForce具备强大https://www.esmchina.com/news/20190225164401.html
17.芯趋势2022边缘AI最新5大趋势看点边缘AI的新兴趋势远不止于此。但他们的应用泛化可能还需要我们推进相关关键技术的变革。NVIDIA预测边缘AI管理将成为IT的日常工作,可能会使用Kubernetes。Gartner报告说,使用IT资源而不是让业务人员管理边缘解决方案可以优化成本。 关于酷芯微电子 上海酷芯微电子有限公司成立于2011年7月,致力于成为全球智能芯片领导者。公司https://laoyaoba.com/n/833849
18.一图知悉AI芯片规格性能差异图注:云端AI芯片,边缘终端AI芯片(不完全统计) ChatGPT加速生成式AI应用,其综合运用算法、预训练模型和多模态机器学习等,搜索现有数据或批量信息中的模式,高效输出适合数据收集分析、社交互动、文案等场景内容。 目前市场上已经有许多由生成式AI驱动的应用程序,常见输出类型包括文本、图像、音乐和软件代码https://www.xcc.com/news/detail/5483255
19.ai芯片概念(4)边缘计算 边缘计算是指将数据处理和分析推向网络边缘设备,减少数据传输和存储需求,并提供实时响应。AI芯片在边缘设备上使用可以实现快速响应、保护数据隐私、节省带宽等优势。例如,在智能手机、智能摄像头、无人机等设备上搭载AI芯片可以实现本地图像识别、语音识别等功能。 3. 应用 AI芯片的应用范围广泛,几乎涵盖https://wenku.baidu.com/view/af142e6e2179168884868762caaedd3382c4b514.html
20.Ready的多协议无线芯片实现AI/ML边缘设备应用这款芯片最受关注的地方是内部集成了一个AI/ML硬件加速器,采用优化的矩阵处理器来帮助ML推理、为CPU卸载,实现计算周期(Cycle)大幅减少的同时降低功耗。 “相比Cortex-M,我们的处理速度提升了2~4倍,处理功耗则降低了6倍。“周巍介绍到,在边缘设备应用方面主要包括传感器ADC或GPIO上的数据传输,例如加速、温度、电流/https://www.eet-china.com/news/202205301104.html
21.了解AI芯片概况AI芯片部署的位置有两种:云端、终端。所以根据部署的位置不同,AI芯片可以分为:云AI芯片、端AI芯片。 云端,即数据中心,在深度学习的训练阶段需要极大的数据量和大运算量,单一处理器无法独立完成,因此训练环节只能在云端实现。 终端,即手机、安防摄像头、汽车、智能家居设备、各种IoT设备等执行边缘计算的智能设备。终端https://www.jianshu.com/p/4b4c403820b6
22.云天励飞董事长兼CEO陈宁:大模型落地嘲,好用适用比“堆参数”更大模型训练、推理、调用、部署均在云端完成,对算力(集群)规模、网络稳定性、能效等方面都提出极高要求,但未来要落地千行百业,走到线下物理世界,面对大量突发状况及时响应,就要求所有分析处理都在本地完成。目前,业内已经出现越来越多AI大模型迈向边缘、越来越多AI芯片向边缘设备扩展的趋势。https://m.cls.cn/detail/1726863
23.FPGA适合AI边缘计算吗?雷峰网FPGA适合AI边缘计算吗? 导语:FPGA要在边缘AI计算中应用,高成本和开发难度大是两个问题。 新一轮的AI热潮对芯片提出了更高要求,不过,AI芯片的定义还没有严格和公认的标准。因此,可以运行深度学习算法的CPU、GPU以及FPGA和ASIC都可以被称为AI芯片。虽然都称为AI芯片,但在2019年AI落地的大背景下,AI芯片的效率更https://www.leiphone.com/news/201912/ugckm1Vjn3N0v5g3.html