人工智能快速发展趋势下,中国该如何应对?之一

水冷服务器、大数据一体机、图数据一体机2023-03-2313:28

人工智能|深度学习|GPT-4

文心一言|机器学习|ChatGPT

近日,随着ChatGPT-4和百度的文心一言的出台,人工智能技术得到迅猛发展。人工智能(AI)是一种模拟人类智能的技术,它可以通过学习和自我改进来执行各种任务。ChatGPT是一种基于AI的聊天机器人,它可以与人类进行自然语言交互,回答问题和提供信息。

人工智能是通过模拟人类大脑的方式来工作的。它使用算法和数据来学习和自我改进,以便更好地执行任务。人工智能可以分为弱人工智能和强人工智能。弱人工智能是指只能执行特定任务的AI,例如语音识别或图像识别。强人工智能是指可以像人类一样思考和决策的AI。

2023年政府工作报告指出“过去五年极不寻常、极不平凡,我们经受了世界变局加快演变、新冠疫情冲击、国内经济下行等多重考验,经济社会发展取得举世瞩目的重大成就。”聚焦到科技领域,“全社会研发经费投入强度从2.1%提高到2.5%以上,科技进步贡献率提高到60%以上。科技创新成果丰硕,人工智能领域的创新成果也不断涌现。”

纵览人工智能产业近年发展,虽然一定程度上突破了深度学习等各类算法革新、技术产品化落地、应用场景打磨、市场教育等难点;但如今也仍需致力解决可信、业务持续、盈利、部署的投资回报率等商业化卡点。

聚焦于2022年,这一历史上极为重要一年中我国AI产业参与者的特征表现、探讨AI产业在我国经济发展中的价值与地位、洞察各技术赛道参与者的发展路径与产业进阶突破点。

人工智能产业发展环境演变

一、人工智能参与社会建设的千行百业——价值性、通用性、效率化为产业发展战略方向

人工智能已成为推动产业发展的主流趋势,其产品形态和应用边界不断拓宽,包括软件服务、云服务、硬件基础设施等形式,应用场景涵盖消费、制造业、互联网、金融、元宇宙和数字孪生等领域。据艾瑞预测,到2022年,我国人工智能产业规模将达到1958亿元,同时,人工智能产学研界在通用大模型、行业大模型等方向上取得了一定突破,促进技术通用性和效率化生产。AI技术的商业价值塑造、通用性提升和效率化应用是其助力产业发展、社会进步和自身造血的关键。

二、企业积极部署AI战略以实现业务增长——对AI应用的比率及数量持续走高;AI提升营收能力进步

纵观近五年来的AI技术商业落地发展脉络,产品及服务提供商围绕技术深耕、场景创新、商业价值创造、精细化服务不断努力;需求侧企业也在从单点试验、数据积累到战略改革的发展路线上,与AI技术逐渐深度绑定。AI成为企业数字化、智能化改革的重要抓手,也是各行业领军企业打造营收护城河的重要方向。

麦肯锡2022年对企业应用AI技术的调研表明:相较于2017年的20%,2022年企业至少在一个业务领域采用AI技术的比率增加了一倍多,达到50%;应用的AI产品数量也从2018年的平均1.9个增加到2022年的3.8个。除了应用数量上的提升,AI产生的商业价值也不断增长,企业部署AI的动力显著。

埃森哲商业研究院针对中国250家领先企业的调研显示,2018-2021年,企业营收中“由AI推动的份额”平均增加了一倍,预计到2024年将进一步增加至36%。落地AI应用对企业业务运营的商业价值与战略意义越来越明确。

三、城市算脑建设推动区域发展与产业升级——各地加速布局区域智算中心,夯实AI算力基础设施

四、政策引导解决AI重大应用和产业化问题——着力打造人工智能重大场景,形成可复制推广的标杆应用

尽管我国在数据、算力、算法及模型的基础层资源与研究积累日益丰富,为开展下游人工智能场景创新应用打下了坚实基础,但在应用场景上仍存在“对场景创新认识不到位,重大场景系统设计不足,场景机会开放程度不够,场景创新生态不完善”等问题。为此,2022年,我国陆续出台一系列指导意见及通知,持续加强对人工智能场景创新工作的统筹指导,规范与加强人工智能应用建设,实现AI与实体产业经济的深度融合。其中,政策引导是解决AI重大应用和产业化问题的重要手段之一。着力打造人工智能重大场景,形成可复制推广的标杆应用,是政策引导的重要方向之一。通过政策引导,加强对人工智能场景创新工作的统筹指导,规范与加强人工智能应用建设,将有助于实现AI与实体产业经济的深度融合。

五、科技伦理治理持续引导AI“向善”——全球AI伦理治理迈入法治时代,我国积极倡导框架规范

六、人工智能产业投资热度仍在——融资向中后期过渡,视觉赛道上市浪潮涌动

七、区域与独角兽企业融资分布特点——北上广与江浙地带融资密度高;独角兽企业聚集于自动驾驶、医疗、工业、芯片赛道

八、人工智能产业市场规模——2022年市场平稳向好,市场规模近2000亿元

人工智能的底层基础

一、AI芯片

1、AI芯片针对机器学习算法设计开发,广泛应用于云、边、端各类场景

3、AI芯片:云端场景数据中心

1)GPU具备矩阵和大规模并行计算优势,适合数据中心场景

CPU是一种通用处理器,它由控制单元(负责指令读取和指令译码)、存储单元(包括CPU片内缓存和寄存器)以及运算单元(ALU约占20%CPU空间)三个主要模块组成。然而,由于成本、功耗、技术难度和算力瓶颈等问题的限制,目前还没有出现适用于AI高算力要求的主流CPU产品。

相比之下,GPU是一种由大量核心组成的大规模并行计算架构,它具有较多的运算单元(ALU)和较少的缓存(cache),是专门为同时处理多重任务而设计的芯片。GPU拥有良好的矩阵计算能力和并行计算优势,能够满足深度学习等AI算法的处理需求,因此成为主流云端AI芯片。

2)张量计算单元是GPU进行深度学习运算的核心组成部分

英伟达A100芯片是一种并发多核处理器,由多个SM单元(StreamingMultiprocessors,流式多处理器)构成。不同的SM单元共享L2Cache存储资源,以便进行数据访问。该芯片采用安培架构,拥有128个SM核,其中SM结构是芯片架构升级的核心。此外,英伟达GPU架构中还设置了TensorCore,这是专为深度学习矩阵运算设计的张量计算单元,也是英伟达GPU系列深度学习运算加速的核心。TensorCore主要处理大型矩阵运算,执行一种专门的矩阵数学运算,适用于深度学习和某些类型的高性能计算。其功能是执行融合乘法和加法的运算,其中两个4*4FP16矩阵相乘,然后将结果添加到4*4FP32或FP64矩阵中,最终输出新的4*4FP32或FP64矩阵。

4、边缘端场景—AIoT。边缘端集成AI芯片可以实现本地化数据的实时处理

5、终端场景—智能驾驶。随着智能驾驶等级的提高,技术不断迭代促使车用AI芯片性能逐步增强

SAE(国际自动机工程师学会)将自动驾驶分为六个级别,从L0(非自动化)到L5(完全自动化)。每一级别需要强大的算力进行实时分析、处理大量数据和执行复杂的逻辑运算,对计算能力有着极高的要求。L1(驾驶员辅助)和L2(部分自动化)需要的计算能力相对较低,而L3(有条件自动化)需要约250TOPS的计算能力,L4(高度自动化)需要超过500TOPS,L5(全场景自动驾驶)需要超过1,000TOPS。随着芯片设计和制造工艺的提高,车用AI芯片正朝着高算力、低功耗的方向发展。

6、终端场景—智能驾驶。预计到2025年,全球车用AI芯片市场规模将突破17亿美元

随着汽车控制方式逐渐由机械式转向电子式,每辆汽车对车用AI芯片需求提升,带动车用AI芯片长期发展。据市场研究机构Yole预测,到2025年,全球车用AI芯片产量将达到67.19亿颗,市场规模将达到17.76亿美元,年复合增速分别达到99.28%和59.27%。此外,车用AI芯片逐渐往高能效方向发展。例如,英特尔计划于2022年推出EyeQUltra自动驾驶汽车芯片,该芯片基于经过验证的MobileyeEyeQ架构而打造,含有8个PMA、16个VMP、24个MPC、2个CNNAccelerator视觉处理单元(VPU),通过优化算力和效能以达到176TOPS,可满足L4自动驾驶场景。该产品将于2023年底供货,预计在2025年全面实现车规级量产。

7、终端场景—消费电子。2026年全球消费电子AI芯片市场规模将突破55亿美元

AI芯片在图像识别、语音识别和快速建立用户画像等方面具有重要作用。根据Yole预测,2026年全球消费电子AI芯片市场规模将达到55.8亿美元,其中笔记本电脑、平板电脑和智能手机AI芯片渗透率将分别达到100%、100%和91%,未来全球消费电子AI芯片市场规模和渗透率呈现逐步增长态势。

二、深度学习开源框架

深度学习开源框架是一种标准接口、特性库和工具包,用于设计、训练和验证AI算法模型。它们集成了数据调用、算法封装和计算资源的使用,是AI开发的重要工具。目前,国际上广泛使用的深度学习开源框架包括GoogleTensorFlow、FacebookPyTorch、AmazonMXNet和微软CNTK等。在中国,也有一些深度学习开源框架,如百度PaddlePaddle、华为MindSpore等。这些框架已经初步应用于工业、服务业等场景,服务200余万开发者。

三、数据服务以AI训练与调优为目的,涉及数据采集、标注与质检等环节

人工智能数据服务是指提供数据库设计、数据采集、数据清洗、数据标注和数据质检等服务,以满足客户的需求。这个服务流程是围绕客户需求展开的,最终产出的产品是数据集和数据资源定制服务,为AI模型训练提供可靠、可用的数据。随着短视频、直播、社交电商等应用的快速兴起,全球数据量也在快速增长。根据IDC的预测,全球数据量将从2015年的9ZB增加到2025年的175ZB,这为人工智能技术的持续迭代提供了重要的底层基础。

四、云计算服务显著降低人工智能算法开发成本,缩短产品开发周期

由于人工智能的开发和应用对于算力和数据有较大需求,云计算服务可以为开发者提供智能服务器集群等强大算力设施的租用。同时,云计算服务还可以直接提供已经训练好的人工智能功能模块等产品,通过多元化的服务模式,降低开发者的开发成本和产品开发周期,为客户提供AI赋能。

人工智能的核心技术

一、机器学习

机器学习是实现人工智能的核心方法,专门研究计算机如何模拟/实现生物体的学习行为,获取新的知识技能,利用经验来改善特定算法的性能。根据学习范式的不同,机器学习可划分为有监督学习、无监督学习、强化学习三类。有监督学习是指通过给计算机提供标注数据,让计算机学习如何将输入映射到输出的过程。无监督学习则是指在没有标注数据的情况下,让计算机自行学习数据的特征和结构。强化学习则是通过让计算机在与环境的交互中不断试错,从而学习如何最大化奖励的过程。深度学习是机器学习算法的一种,具有多层神经网络结构,其在图像识别、语音处理等领域取得了划时代的成果。

1、有监督学习:从有标注训练数据中推导出预测函数

有监督学习是机器学习任务的一种类型,其目的是从给定的训练数据集中学习出一个函数(模型参数),以便在新的数据到来时,能够根据该函数预测结果。训练集中包括输入和输出,也称为特征和目标,其中目标是由人工标注的。有监督学习的过程一般包括确定训练类型、收集训练集、确定特征提取方法、选择算法、训练算法、评估准确性六个环节。通过已有的训练样本去训练得到一个最优模型,再利用该模型将所有的输入映射为相应的输出,从而实现分类目的。

1)逻辑回归

逻辑回归是一种用于学习某事件发生概率的算法,它可以对某个事件的发生或不发生进行二元分类。逻辑回归使用Sigmoid函数来输出结果,其输出结果的范围在[0,1]之间。逻辑回归的主要目标是发现特征与特定结果可能性之间的联系。例如,我们可以使用逻辑回归来根据学习时长来预测学生是否通过考试,其中响应变量为“通过”和“未通过”考试。

2)支持向量机:以间隔最大化为基准学习远离数据的决策边界

支持向量机(SupportVectorMachine,SVM)是一种基于间隔最大化的决策边界算法。其主要目的是学习一个尽可能远离数据的决策边界,以确保分类的准确性。在SVM中,支持向量是决策边界的重要数据点,其位置对于分类结果具有重要的影响。

当训练样本线性可分时,SVM采用硬间隔最大化的方法学习线性可分支持向量机;当训练样本近似线性可分时,SVM采用软间隔最大化的方法学习线性支持向量机。在解决线性不可分问题时,SVM引入核函数,将数据映射到另一个特征空间,然后进行线性回归。通过采用核方法的支持向量机,原本线性不可分的数据在特征空间内变为线性可分,从而实现了分类的准确性。

3)决策树:以树结构形式表达的预测分析模型

决策树是一种树状结构,用于对数据进行划分。它通过一系列决策(选择)来划分数据,类似于针对一系列问题进行选择。一棵决策树通常包含一个根节点、若干个内部节点和若干个叶节点。每个内部节点表示一个属性上的测试,每个分支代表一个测试输出,每个叶节点代表一种类别。

决策树的生成是一个递归过程。在决策树基本算法中,有三种情况会导致递归返回:

当前节点包含的样本全属于同一类别,无需划分。

当前属性集为空或是所有样本在所有属性上取值相同,无法划分。

当前节点包含的样本集合为空,不能划分。

这些情况都是决策树生成过程中的终止条件。

4)随机森林:利用多决策树模型,提高模型预测精度

随机森林是一种分类器,它利用多棵决策树对样本进行训练和预测。在随机森林算法中,每个决策树的输出被收集起来,通过多数表决的方式得到最终的分类结果。这种方法类似于找人商量事情,不只听一个人的意见,而是在听取多人意见后综合判断。随机森林的每棵树都是通过以下步骤生成的:

从训练集中随机且有放回地抽取N个训练样本,作为该树的训练集,重复K次,生成K组训练样本集;

从M个特征中随机选取m个特征,其中m<

利用m个特征实现每棵树最大程度的生长,并且没有剪枝过程。

这种方法可以有效地避免过拟合问题,并且在处理大型数据集时表现良好。

5)朴素贝叶斯是常用于自然语言分类问题的算法

朴素贝叶斯是一种基于概率进行预测的算法,主要用于分类问题。在实践中,它被广泛应用于文本分类和垃圾邮件判定等自然语言处理领域。具体来说,该算法通过计算数据为某个标签的概率,将其分类为概率值最大的标签。例如,假设训练数据类别为电影(包括那部让人感动的电影名作重映、华丽的动作电影首映和复映的名作感动了世界),训练数据类别为宇宙(包括沙尘暴笼罩着火星、火星探测终于重新开始和VR中看到的火星沙尘暴让人感动),而验证数据为“复映的动作电影名作让人感动”。在这种情况下,朴素贝叶斯算法将通过计算“复映的动作电影名作让人感动”属于电影或宇宙的概率,来判断该数据属于哪个类别。以下为朴素贝叶斯算法过程:

2、无监督学习:对无标签样本进行学习揭示数据内在规律

无监督学习是一种机器学习方法,其主要目的是在没有标记的训练数据的情况下生成模型。这种方法通常用于缺乏足够的先验知识难以进行人工标注类别或进行人工类别标注成本高的情况下。无监督学习的目标是通过对无标签样本的学习来揭示数据的内在特性及规律。该方法主要涉及聚类和降维问题。聚类问题包括K-means聚类、概念聚类、模糊聚类等算法,其目标是为数据点分组,使得不同聚类中的数据点不相似,同一聚类中的数据点则是相似的。降维问题主要是主成分分析、线性判别分析、多维尺度分析等算法,其中主成分分析将数据中存在的空间重映射成一个更加紧凑的空间,此种变换后的维度比原来维度更小。无监督学习适用于发现异常数据、用户类别划分、推荐系统等场景。

1)策略梯度:有效处理高维及连续动作空间问题

2)时序差分学习:结合蒙特卡罗方法与动态规划特点,提升策略优化速度

时序差分学习(TemporalDifference,TD)是一种无需具体环境模型,可直接从经验中学习的方法。它结合了动态规划和蒙特卡罗方法的优点,能够在每执行一步策略后即进行Q函数更新,而不必等到完成一个采样轨迹后才进行更新。根据算法中采样策略和更新Q值策略是否相同,TD学习可分为同策略算法(on-policy)和异策略算法(off-policy)。同策略代表算法为Sarsa,其行为策略和目标策略均为贪心策略;异策略代表算法为Q-Learning(或称SarsaMax),其行为策略为贪心策略,而目标策略为确定性策略。Sarsa收敛速度较快,但可能无法得到全局最优解;Q-Learning可找到全局最优解,但收敛速度较慢,因此需要根据具体问题选择合适的算法。

3)深度Q网络:神经网络与Q-Learning结合,有效应对复杂状态空间

深度Q网络(DeepQ-network,DQN)是一种基于深度学习的Q-Learning算法,由GoogleDeepMind团队于2013年提出,并在2015年进一步完善。传统的强化学习算法(如动态规划、蒙特卡罗方法、时序差分学习等)的状态均为离散、有限的,并使用查找表存储状态价值或Q函数。然而,现实生活中的状态多为连续的,即使离散化后状态空间(系统全部可能状态的集合)仍十分庞大,因而产生内存不足、表格搜索耗时过长等问题。DQN则通过DNN、CNN或RNN等神经网络对价值函数做近似表示,利用经验回放方式替代查找表,令最终结果无限逼近全局最优解,有效解决Q-Learning状态空间有限问题。

4)Actor-Critic算法:综合策略梯度与Q-Learning优势,提高学习效率和准确性

3、迁移学习:将知识由源域迁移至目标域,提高机器学习效率

1)选择源模型,从可用模型中挑选出预训练模型;

2)重用模型,在目标域中使用源模型进行训练;

3)调整模型。模型可以在目标数据集中对输入-输出进行选择性微调,以让其适应目标任务。

实现迁移学习的方式主要包括样本迁移、特征迁移、模型迁移。目前,迁移学习主要应用在计算机视觉、自然语言处理等领域。

4、联邦学习:以分布式机器学习方式,有效化解信息孤岛问题

联邦学习(FederatedLearning,FL)是由Google公司首次提出的一种学习机制,它允许多个数据持有方协同训练模型,而不需要共享数据,仅在中间阶段交换训练参数。根据数据分布情况,联邦学习可分为横向联邦学习、纵向联邦学习和联邦迁移学习。联邦学习的基本流程包括:

1)客户端从服务器下载全局模型;

2)训练本地数据得到本地模型;

3)上传模型更新信息;

4)中心服务器加权聚合本地模型,得到更新后的全局模型。

通过多次迭代,联邦学习可以得到趋近于集中式机器学习结果的模型。联邦学习是一项新兴技术,在物联网、智慧医疗、金融风控、智慧城市等领域都有广阔的应用前景。

二、深度学习

1、神经网络:具有适应性简单单元组成的广泛并行互联网络

神经网络是一种由数千甚至数百万个紧密互连的简单处理节点组成的模型。它主要包括输入层、中间层/隐藏层和输出层。输入层接收输入数据,中间层使用非线性函数对输入数据进行计算,输出层使用非线性函数对中间层数据进行计算,最终输出结果。神经网络可以用于回归,但主要应用于分类问题。通过设置中间层的数量和层的深度,神经网络可以学习更复杂的边界特征,从而得出更加准确的结果。

2、卷积神经网络:以图像识别为核心的深度学习算法

卷积神经网络(ConvolutionalNeuralNetwork,CNN)是一种由数千甚至数百万个紧密互连的简单处理节点组成的神经网络结构,主要用于处理图片、视频等类型数据。该网络结构主要包括输入层、卷积层、池化层、全连接层和输出层。早在1980年,日本科学家福岛邦彦就提出了一个包含卷积层、池化层的神经网络结构。随后,YannLecun将BP算法应用到该神经网络结构的训练上,形成了当代卷积神经网络的雏形。在1998年,YannLeCun及其合作者构建了更加完备的卷积神经网络LeNet-5,并在手写数字的识别问题中取得了成功。此外,1998年WeiZhang提出了第一个二维卷积神经网络:平移不变人工神经网络(SIANN),并将其应用于检测医学影像。

卷积层、池化层、全连接层和输出层是卷积神经网络中的四个主要组成部分。在卷积层中,输入的图片会被转化成RGB对应的数字,并通过卷积核进行卷积操作,以提取输入中的主要特征。池化层的作用是压缩特征映射图尺寸,从而降低后续网络处理的负载。全连接层计算激活值,并通过激活函数计算各单元输出值,常用的激活函数包括Sigmoid、tanh、ReLU等。输出层使用似然函数计算各类别似然概率。

3、循环神经网络:用于处理序列数据的神经网络

4、图神经网络:用于处理图结构数据的神经网络

图神经网络(GraphNeuralNetworks,GNN)是一种将图数据和神经网络进行结合的新型机器学习方法。它能够在图数据上进行端对端的计算,具备端对端学习、擅长推理、可解释性强的特点。目前,图神经网络已经发展出多个分支,主要包括图卷积网络、图注意力网络、图自编码器、图生成网络和图时空网络等。

图神经网络的训练框架如下:首先,每个节点获取其相邻节点的所有特征信息,将聚合函数(如求和或取平均)应用于这些信息。聚合函数的选择必须不受节点顺序和排列的影响。之后,将前一步得到的向量传入一个神经网络层(通常是乘以某个矩阵),然后使用非线性激活函数(如ReLU)来获得新的向量表示。

图神经网络在许多领域的实际应用中都展现出强大的表达能力和预测能力。例如,在物理仿真、科学研究、生物医药、金融风控等领域,图神经网络已经被广泛应用。它不仅能够对图数据进行分类、回归和聚类等任务,还能够进行图生成、图表示学习和图推理等任务。因此,图神经网络被认为是一种非常有前途的机器学习方法。

5、长短期记忆神经网络:在RNN中加入门控机制,解决梯度消失问题

6、自编码器:通过期望输出等同于输入样本的过程,实现对输入样本抽象特征学习典型深度无监督学习模型包括自编码器、受限波尔兹曼机与生成对抗网络。

自编码器(Autoencoder,AE)是一种神经网络模型,由编码器和解码器两部分组成。编码器将高维输入样本映射到低维抽象表示,实现样本压缩和降维;解码器将抽象表示转换为期望输出,实现输入样本的复现。自编码器的输入和期望输出均为无标签样本,隐藏层输出则作为样本的抽象特征表示。自编码器通过最小化输入样本与重构样本之间的误差来获取输入样本的抽象特征表示,但无法保证自编码器提取到样本的本质特征。为避免这个问题,需要对自编码器添加约束或修改网络结构,进而产生稀疏自编码器、去噪自编码器、收缩自编码器等改进算法。自编码器凭借其优异的特征提取能力,主要应用于目标识别、文本分类、图像重建等领域。

7、生成对抗网络:通过对抗训练机制使得生成器生成以假乱真的样本

生成对抗网络(GAN)是一种通过对抗训练机制对两个神经网络进行训练的方法,以避免反复应用马尔可夫链学习机制带来的配分函数计算,从而明显提高应用效率。GAN包含一组相互对抗的模型,即判别器和生成器。判别器的目的是正确区分真实数据和生成数据,使得判别准确率最大化;而生成器则是尽可能逼近真实数据的潜在分布。类比于造假钞的人和警察的博弈,生成器类似于造假钞的人,其制造出以假乱真的假钞;而判别器则类似于警察,尽可能鉴别出假钞。在这个博弈中,双方不断提升各自的能力,以达到更高的准确率和更逼真的生成数据。

三、计算机视觉

1、U-Net:在有限数据集图像分割方面独具优势

2、R-CNN:基于深度学习模型的目标检测算法

目标检测算法主要分为两类:R-CNN和Yolo。R-CNN(Region-CNN)最早将深度学习应用在目标检测任务中。目标检测任务是计算机视觉中的重要组成部分,其在人脸识别、自动驾驶等领域有着广泛应用。传统目标检测方法大多以图像识别为基础,在图片上使用穷举法选出所有物体可能出现的区域框,对这些区域框提取特征并使用图像识别方法分类,得到所有分类成功的区域后,通过非极大值抑制算法得到输出结果。R-CNN遵循传统目标检测的思路,但在提取特征这一步,将传统特征换成深度卷积网络提取的特征。虽然R-CNN准确度高,但速度慢。相比之下,Yolo算法速度快但准确性相对低。

3、Yolo:采用CNN模型实现端到端的目标检测算法

以往的目标检测算法通常采用滑动窗口的方式,将检测问题转化为图像分类问题,但存在计算量过大等弊端。为了解决这个问题,Yolo算法应运而生。Yolo算法直接将原始图片分割成互不重合的小方块,然后通过卷积产生特征图。具体而言,Yolo算法采用单独的CNN模型实现端到端的目标检测,包含24个卷积层和2个全连接层。卷积层主要使用1x1卷积来做通道缩减,然后紧跟3x3卷积。卷积层和全连接层采用LeakyReLU激活函数,最后一层采用线性激活函数。Yolo算法的优点在于采用CNN实现检测,训练和预测都是端到端过程,因此该算法比较简洁且速度快。同时,由于Yolo是对整张图片做卷积,因此在检测目标时拥有更大的视野且不容易对背景误判。然而,Yolo算法的缺点是其在物体的宽高比方面泛化率相对较低,无法定位不寻常比例的物体。

四、自然语言处理

1、自然语言处理:用于分析、理解和生成自然语言,便于人机间交流

2、Word2Vec:以分布式方法表示词向量,有效降低维度,丰富词语间关系

3、Seq2Seq:基于循环神经网络输出非固定长度语句

Seq2Seq(SequencetoSequence)是一种神经网络模型,由GoogleBrain和YoshuaBengio团队在2014年分别独立提出。它的主要应用场景是解决机器翻译任务中输出语句长度不确定的问题。Seq2Seq模型基于RNN或LSTM等神经网络算法,由编码器(Encoder)和解码器(Decoder)两部分构成。编码器负责将输入序列压缩为指定长度的语义向量,而解码器则根据语义向量生成指定序列。这种模型可以实现序列信号转化为无固定长度序列输出,而传统的RNN只能将序列信号转化为固定长度序列输出。除了机器翻译,Seq2Seq还被应用于文本摘要、图像描述文本生成、语音识别等场景。

4、门控卷积神经网络:应用于语言建模,以并行计算方式加速学习过程

门控卷积神经网络(GatedConvolutionalNeuralNetworks):由Facebook团队Yann等人在2016年提出,使用基于门控机制的卷积神经网络处理语言建模问题。与循环神经网络(RNN)相比,门控卷积神经网络可实现并行计算,有效缩短运行时长。由于卷积神经网络不存在梯度消失问题,因而门控卷积神经网络中的门控机制更加简化,仅需保留输出门用于判定信息是否传递至下一层,可实现更高精度及更快收敛速度。目前,门控卷积神经网络模型已被应用于光学字符识别(OCR)、机器阅读理解等多个领域。

五、语音处理

1、语音识别:将语音自动转换为文字的过程

2、基于深度神经网络-隐马尔可夫模型的声学模型成为主流声学建模技术

声学模型承载着声学特征与建模单元之间的映射关系,其中建模单元包括音素、音节、词语等,其单元粒度依次增加。然而,若采用词语作为建模单元,每个词语的长度不等,导致声学建模缺少灵活性,很难充分训练基于词语的模型。相比之下,词语中包含的音素是确定且有限的,利用大量的训练数据可以充分训练基于音素的模型。因此,目前大多数声学模型一般采用音素作为建模单元。

混合声学模型是比较经典的声学模型,通常可以分为两种:基于高斯混合模型-隐马尔可夫模型的声学模型和基于深度神经网络-隐马尔可夫模型的声学模型。后者具有两方面优势:一是深度神经网络能利用语音特征的上下文信息;二是深度神经网络能学习非线性的更高层次特征表达。因此,基于深度神经网络-隐马尔可夫模型的声学模型已成为目前主流的声学建模技术。

3、语音合成:将任意输入的文本转换成自然流畅的语音输出

语音合成(TextToSpeech,TTS)是一种将文本转换为语音的技术,赋予机器像人一样自如说话的能力,是人机语音交互中重要的一环。语音合成系统分为文本前端和声学后端两个部分。文本前端主要负责在语言层、语法层、语义层对输入文本进行预处理,如为文本添加韵律信息,并将文本词面转化为语言学特征序列。声学后端可以分为声学特征生成网络和声码器。声学特征生成网络根据文本前端输出的信息产生声学特征。声码器利用频谱等声学特征,生成语音样本点并重建时域波形。近年来出现的端到端语音合成系统则将声学后端合并为一个整体,可直接将语言学特征序列,甚至字符直接合成语音。

目前,语音合成技术已经广泛应用于银行、医院信息播报系统、自动应答呼叫中心等领域。这些应用场景需要机器能够快速、准确地将大量的文本信息转化为语音,以提供更好的用户体验。随着技术的不断发展,语音合成系统的语音质量和性能也在不断提高,未来将会有更多的应用场景涌现。

六、知识图谱:利用图模型来描述知识和建模万物关系的语义网络

知识图谱是一种结构化描述客观世界中概念、实体之间关系的方式,旨在提高搜索引擎的能力,提高用户搜索质量,改善用户搜索体验。其最常见的表示形式是RDF(三元组),即“实体x关系x另一实体”或“实体x属性x属性值”集合,其中节点代表实体或概念,边代表实体/概念之间的各种语义关系。知识图谱的构建过程旨在让计算机更好地理解各行业领域信息,使其具备人的认知能力。基本构建流程包括知识抽取(如实体抽取、关系抽取)、知识融合(如数据整合、实体对齐)、知识加工(如知识推理)等。由于图数据相对于传统的关系型数据具有更强大的表达能力,善于处理大量、复杂、互联、多变的网状数据,因此图数据的计算与推理逐渐成为知识图谱的重要研究任务之一。

THE END
1.网络化发展趋势:重塑未来社会的力量随着网络化的不断发展,数字化生活将成为主流。人们将更多地依赖互联网进行信息获取、社交娱乐、购物消费等活动。同时,数字化生活也将推动相关产业的发展和创新,如在线教育、在线医疗等领域将迎来更多的机遇和挑战。 智能社会的构建 网络化的发展将推动智能社会的构建。通过人工智能、物联网等技术的广泛应用,我们可以实现https://pbids.com/aboutUs/pbidsNews/1861295392194400256
2.把握时代发展主题构建安全数字未来民生网在这样的大背景下,亚信安全为实现“安全数字世界”的美好愿景,践行“护航产业互联网”的使命,提出了聚焦、融合、创新三大策略,在产品研发层面遵循标准化、组件化、各产品线可集成、可共享、可联动的目标。与此同时,亚信安全积极建立安全生态圈,以求在不同主体之间、不同厂商之间,在产业链的上中下游之间形成覆盖政府https://www.msweekly.com/show.html?id=164878
3.人工智能和网络安全:一把双刃剑数字经济观察网21世纪初:机器学习占据主导地位 机器学习开始进入网络安全领域,提供更复杂的方法来识别风险。异常检测成为重点,使工具能够识别异常模式。然而,这些早期的系统远非完美,经常产生误报,浪费宝贵的时间。到本世纪末,行为分析工具出现,提供了更好的方法来监控网络流量。 https://www.szw.org.cn/20241223/68511.html
4.智能传播时代网络舆情治理研究生成式人工智能可以实时读取互联网上的网页、文件,从而获得有关舆情事件的最新信息,这增加了舆情反转的发生概率。生成式人工智能对舆情事件信息的持续更新与不断问答,会将舆情事件复杂化,如果用户对生成式人工智能过度信任,就会过早产生对于事件的结论性判断。https://wxb.xzdw.gov.cn/wlzl/202412/t20241222_536081.html
5.试论人工智能技术对网络主流意识形态传播力的作用互联网是意识形态斗争的主战场, 也是争夺意识形态话语权的主阵地。以人工智能技术提升网络主流意识形态传播力,抢占网络舆论高地,扩大“红色地带”的影响力,是新时代营造天朗气清的网络环境、维护网络意识形态安全的题中之意。 一、以智能生成优化网络主流意识形态内容供给https://my.wust.edu.cn/info/1422/89022.htm
6.优质试题21世纪是信息大爆炸的时代随着互联网和移动智能设备21世纪是信息大爆炸的时代,随着互联网和移动智能设备的普及,人们获得信息越来越多,越来越容易。有理由相信,这样的条件为我们提供了更多了解真相的机会,也表示我们离事物的真相越来越近。上述推论最可能基于的假设是()。 A.过多的信息会对人们的生活造成干扰B.信息加工过程对每个人来说存在差别C.互联网上充斥着大量https://m.12tiku.com/newtiku/919885/41250908.html
7.网络营销注意与客户的双向信息沟通,提供增值服务。充分利用各种体验营销方式在网络上进行品牌传播,不但可以大范围随着网络技术的发展,特别是互联网网络(Internetwork)的建立以及企业内部网络系统形成建立,网络经济逐渐在因此这些企业就借助21世纪时代网络的潮流,与一些大型的知名网站如;腾讯、网易、百度、淘宝等寻求合作,https://www.ruiwen.com/w/468223.html
8.从宇宙大爆炸到元宇宙51CTO博客从宇宙大爆炸到元宇宙 摘要: 从“我在”到“我思” 元宇宙是创意协作网(中期) 交通网->电网->信息互联网->价值互联网->意识和生命的互联网(长期看元宇宙) 奇点-大爆炸-奇点和共形循环宇宙学(CCC) 元宇宙的网络基础Web 3.0 元宇宙是多维共创互信网(近期)https://blog.51cto.com/48480/5197026
9.国人观影变迁史,你的观影记忆印在哪个年代?界面·财经号现今,一个信息集中爆炸的时代,人们的周边充斥着先进的智能设备。小到智能手机,大到智能电视,我们的生活在这些智能产物的影响下更加舒适和精准。 智能化时代还改变了人们的观影习惯,蹭公司网络往移动硬盘里下片,忙碌生活没时间追剧,不看蓝光、高清会死病等,这些都是发生在互联网时代的故事,人们真正感受到智能了吗?电https://m.jiemian.com/article/422915.html
10.奇点更近(库兹韦尔60年人工智能研究集大成之作)最新章节因此,达到通过图灵测试的水平时,AI在大多数领域的能力将远超最优秀的人类。 如今,人类正生活在第四个时代,我们的技术已经在某些任务上产生了超越人类理解力的成果。因此,对于图灵测试中AI尚未掌握的方面,我们正在快速取得进展。我一直期待着AI在2029年通过图灵测试,这将带领我们进入第五个时代。 21世纪30年代的https://m.zhangyue.com/readbook/13193129/3
11.IT桔子2013年度中国互联网创业投资盘点(简版):群雄逐鹿中,你还在这里有人说,2013年是手机游戏大爆炸的一年;有人说,2013年是互联网对传统行业冲击最大的一年;有人说,2013年是硬件和创客的一年;还有人说,2013年是TO B企业服务蓬勃发展的一年……从这里你可以看出,2013年的互联网创业是百花齐放、竞相角逐,只要你还在这里坚持,这就好了。IT桔子结合创业公司数据库的细分行业,列出了20https://blog.csdn.net/whgggg/article/details/18728857
12.引领21世纪科技大爆炸的十大核心科技,将改变未来人类发展从远古时代到如今万物互联网时代,人类自诞生之日起,每一个影响到世界的颠覆性变革,其背后的核心驱动力都是科技大爆发。 我们正站在科技大爆发的节点,未来不止是想象而已。小到纳米级机器人,大到4D打印创新工厂,新科技将渗透到我们生活的方方面面。 1.人工智能 https://cloud.tencent.com/developer/news/605468
13.深度伪造与国家安全:基于总体国家安全观的视角人工智能与大数据技术的发展和普及,使得有心者制作各种深度伪造作品的门槛大大降低,导致互联网和各种社交媒体充斥着各式各样的深度伪造作品。深度伪造技术既有造福于人类社会的正面功能,也有给国家安全带来风险与挑战的负面作用。它不仅给国际形势和国际安全环境带来了巨大的冲击,让国际社会本就存在的“信任赤字”更为https://www.secrss.com/articles/41981
14.信息大爆炸时代,我们离真相越来越近辩论赛材料开宗明义,所谓“信息爆炸”是对信息既有互联网技术发展之后,信息的泛滥无序、管理乏力、良莠不齐的一种非正常发展的状态的描述。而“真相”指的是事情的真实情况,它区别于表像和假相。我们今天的讨论应该建立在信息爆炸程度的进一步加深使我们离真相越远还是越近的基础上。我方观点为:信息爆炸使我们离真相越来越远https://www.renrendoc.com/paper/132243468.html
15.计算机调研报告(通用12篇)尤其是IPv6出现以后,它的安全性、服务质量会有更大提高,在将来一段时间针对IPv6的网络安全问题也会出现。我们希望网络信息要人为本,尤其是今年互联网大会的一个主题是构建一个繁荣诚信的互联网,互联网作为一个信息平台它的用户主流50%以上是30岁以下青少年,那么为青少年建设的网络应该是一个可信、健康的网络,它https://www.oh100.com/a/202303/6298022.html
16.元宇宙的“42条共识”元宇宙融合了信息技术(5G/6G)、互联网时代(web3.0)、人工智能、云算力、大数据、区块链以及虚拟现实技术的成果。 它将引发基础数学(算法)、信息学(编程、信息熵)、生命科学(脑机接入)、区块链(加密金融)、量子计算(算力)等学科的深入研究和交叉互动。 https://36kr.com/p/1868070763303687
17.人工智能快速发展趋势下,中国该如何应对?人工智能已成为推动产业发展的主流趋势,其产品形态和应用边界不断拓宽,包括软件服务、云服务、硬件基础设施等形式,应用场景涵盖消费、制造业、互联网、金融、元宇宙和数字孪生等领域。据艾瑞预测,到2022年,我国人工智能产业规模将达到1958亿元,同时,人工智能产学研界在通用大模型、行业大模型等方向上取得了一定突破,促进技https://developer.aliyun.com/article/1179745
18.探索与争鸣·新刊速递2023.07思享汇【关键词】 网络时代 侮辱、诽谤罪 法益 司法适用 预设公诉程序 【作 者】金泽刚,同济大学法学院教授;张涛,同济大学法学院博士研究生。 社会 王文 刘锦涛|碳中和引发的大国博弈规则重塑 ——基于碳约束下的生产转型与国力升级视角 【内容摘要】 实现碳中和已成为21世纪全球应对气候变化的核心举措与国际政治的中心议题https://www.ishaanxi.com/c/2023/1116/3001881.shtml