人工智能芯片相关2篇政策与技术跟踪专题文章摘录决策咨询研究

广义上所有面向人工智能(AI)应用的芯片都可以称为AI芯片,一般认为是针对AI算法做了特殊加速设计的芯片。按设计思路主要分为三大类:专用于机器学习尤其是深度神经网络算法的训练和推理的加速芯片、受生物脑启发设计的类脑仿生芯片、可高效计算各类人工智能算法的通用AI芯片。

二、AI芯片功能

1.训练。在平台上,通过对大量的数据进行学习,形成具备特定功能的神经网络模型。该功能对AI芯片有高算力、高容量和访问速率、高传输速率、通用性的要求。

2.推理。利用已经训练好的模型,通过计算,对输入的数据得到各种结论。该功能的芯片主要注重算力功耗比、时延、价格成本的综合能力。实验证明低精度运算(如float16,int8)可达到几乎和float32同等的推理效果,所以AI推理芯片也有低精度算力的要求。

三、AI芯片类型

目前AI芯片主要包括图形处理器(GPU)、现场可编程门阵列(FPGA)、数字信号处理(DSP)、专用集成电路(ASIC)、众核处理器、类脑仿生芯片和通用AI芯片等。

(一)图形处理器(GPU)

GPU是一种由大量核心组成的大规模并行计算架构,专为同时处理多重任务而设计,原本的功能是帮助CPU处理图形显示的任务,尤其是3D图形显示。为了执行复杂的并行计算,快速进行图形渲染,GPU的核数远超CPU,但每个核拥有的缓存相对较小,数字逻辑运算单元也更简单,适合计算密集型的任务。

深度神经网络的训练过程中计算量极大,而且数据和运算是可以高度并行的。由于GPU与深度学习的需求不谋而合,最先被引入运行深度学习算法,成为高性能计算领域的主力芯片之一。但由于GPU不能支持复杂程序逻辑控制,仍然需要使用高性能CPU配合来构成完整的计算系统。

(二)现场可编程门阵列(FPGA)

作为专用集成电路领域中的一种半定制电路出现,既解决了定制电路灵活性上的不足,又克服了原有可编程器件门电路数量有限的缺点。FPGA利用门电路直接运算,速度快,用户可以自由定义这些门电路和存储器之间的布线,改变执行方案,以期得到最佳效果。FPGA可以集成重要的控制功能,整合系统模块,提高了应用的灵活性。与GPU相比,FPGA具备更强的计算能力和更低的功耗。

目前,FPGA的主要厂商Xilinx和Altera推出了专门针对AI加速的FPGA硬件和软件工具。各个主要的云服务厂商,比如亚马逊、微软、阿里云、华为云等推出了专门的云端FPGA实例来支持AI应用。

(三)数字信号处理(DSP)

DSP是一种由大规模集成电路芯片组成的用来完成某种信号处理任务的处理器,善于测量、计算、过滤或压缩连续的真实模拟信号。针对滤波、矩阵运算、FFT(快速傅里叶变换)等需要大量乘加法运算的特点,DSP内部配有独立的乘法器和加法器,从而大大提高了运算速率。

目前应用于AI领域的DSP主要用于处理图像、视频等视觉系统方面的任务。这些DSP中加入了专为深度神经网络定制的加速部件,如矩阵乘和累加器、全连接的激活层和池化层等。

(四)专用集成电路(ASIC)

ASIC是一种为专用目的设计的,面向特定用户需求的定制芯片,在大规模量产的情况下具备性能更强、体积更小、功耗更低、成本更低、可靠性更髙等优点。ASIC分为全定制和半定制。全定制一般比半定制的ASIC芯片运行速度更快,但开发效率低。半定制使用库中标准逻辑单元,设计时可以从标准逻辑单元库中选择门电路、加法器、比较器、数据通路、存储器甚至系统级模块和IP核,从而提高系统设计效率。

采用ASIC芯片进行深度学习算法加速,表现最为突出的是Google的TPU。TPU比同时期的GPU或CPU平均提速15~30倍,能效比提升30~80倍。

(五)众核处理器

众核处理器采用将多个处理核心整合在一起的处理器架构,主要面向高性能计算领域,作为CPU的协处理器存在。众核处理器适合处理并行程度高的计算密集型任务,如基因测序、气象模拟等。比起GPU,众核处理器支持的计算任务的控制逻辑和数据类型要更加复杂。Intel的至强融核处理器(XeonPhi)是典型的众核处理器。众核处理器的结构能有效地利用现代网络和服务器等应用中较高的线程并行度,适用于数据中心部署的各类AI训练和推理任务。

(六)类脑仿生芯片

类脑仿生芯片的主流理念是采用神经拟态工程设计的神经拟态芯片。神经拟态芯片采用电子技术模拟已经被证明的生物脑的运作规则,从而构建类似于生物脑的电子芯片,即“仿生电子脑”。神经拟态主要指用包括模拟、数字或模数混合超大规模集成电路VLSI(也包括神经元或者神经突触模型的新型材料或者电子元器件)和软件系统实现神经网络模型,并在此之上构建智能系统的研究。受到脑结构研究的成果启发,复杂神经网络在计算上具有低功耗、低延迟、高速处理、时空联合等特点。

(七)通用AI芯片

AI芯片的最终成果将是通用AI芯片,并且最好是淡化人工干预的自学习、自适应芯片。目前尚没有真正意义上的通用AI芯片诞生,而基于可重构计算架构的软件定义芯片或许是通用AI芯片的出路。软件定义芯片是将软件通过不同的管道输送到硬件中来执行功能,使芯片能够实时地根据软件、产品、应用场景的需求改变架构和功能,实现更加灵活的芯片设计。清华大学微电子学研究所设计的AI芯片Thinker,采用可重构计算架构,支持多种AI算法。(科技导报《人工智能芯片发展的现状及趋势》)

人工智能芯片的发展及应用

一、发展现状

人工智能(AI)芯片技术领域的国外代表性企业包括Google、NVIDIA、Intel和SAMSUNG等公司,国内则呈现出百花齐放的态势,主要包括中科寒武纪、地平线机器人、深鉴科技、百度、华为、平头哥等。其中寒武纪在2016年发布的AI处理器是世界首款商用深度学习专用处理器。2019年9月25日,阿里巴巴旗下的芯片研发公司平头哥发布了首颗云端超大型AI推理芯片——含光800,在业务测试中,一颗该芯片的计算能力相当于十颗GPU(通用AI处理器)。该芯片目前已经部署在阿里云平台,供阿里内部的多个视觉业务场景大规模使用,未来还将应用到医疗影像、自动驾驶等场景。

全球各大芯片公司和科技公司都在积极进行AI芯片的布局。就目前来看,AI芯片领域逐渐呈现出三股势力:第一股势力是致力于通用AI芯片的专业芯片厂商,比如NVIDIA、Intel、AMD等;第二股势力是致力于定制化AI芯片的新兴AI独角兽企业,比如商汤科技、旷视科技、依图科技;第三股势力是致力于云端AI芯片的互联网公司,比如谷歌、百度、阿里巴巴等。

二、应用场景

目前人工智能芯片主要应用于云端训练、云端推理、终端推理领域,在云计算、ADAS、智能终端、智能安防等领域已实现了较为广泛的应用。

(一)云计算

用于云端训练和推理,大多数的训练工作都在云端完成。移动互联网的视频内容审核、个性化推荐等都是典型的云端推理应用。目前GPU因其通用性好、性能强、编程环境优良、生态成熟等因素在云端训练市场占据主流,但GPU存在投资研发成本较高、生态构建较难等问题,谷歌、微软、华为、百度等国内外科技公司开始尝试布局云端专用芯片以提高效率、抢占市场。云端主要的代表芯片有谷歌TPU、NvidiaTESLAV100、华为昇腾910、NvidiaTESLAT4、寒武纪MLU270等。

(二)ADAS

(三)智能终端

华为在2017年9月推出包含专用AI模块的麒麟970芯片,并成功应用在随后推出的Mate10系列的智能手机上。该款芯片搭载了寒武纪的NPU(Neural-networkProcessingUnit,嵌入式神经网络处理器),成为“全球首款智能手机终端AI芯片”。紧跟其后,Apple公司发布了A11Bionic芯片并应用在iPhoneX系列的手机终端。A11Bionic芯片中应用了双核架构神经网络处理引擎,提升了用户在拍照等方面的使用体验。在智能手机终端上应用AI芯片可以让其具备更强的深度学习和推断能力,让各类基于深度神经网络图像处理技术的应用能够为用户提供更完美的使用体验。

除了在智能手机上,AI芯片在其他智能终端上也有广泛的应用,比如智能家居、无人机领域。在AI芯片的帮助下,扫地机器人可以敏捷地躲避障碍物,较脏的地方重点清扫,无人机的图像处理功能也变得更加强劲。

(四)智能安防

安防领域现在正处于“智能化”升级阶段,边缘推理芯片使得安防摄像头具有了推理、筛选功能,而不是只具备之前单纯的影像记录功能。比如安装在家里的AI智能监控系统,可以对陌生面孔进行识别,并且通过WiFi将安装在家里的视频、音频、监控门窗损坏的传感器等连接起来,使用AI技术进行筛选,将有用信息发送到手机、笔记本电脑等终端,紧急时刻还可以主动向出门在外的主人进行报警提醒。智慧安防监控系统将使用边缘推理芯片的安防摄像头所采集到的信息传递到云端,并且在IT系统所在的云端引入人工智能、大数据等技术,有效降低了传统安防领域过度依赖人力的问题。除此之外,AI技术可以用在商店客流量监控器、入侵者检测器等设备中,采用图像识别技术,过滤掉监控视频中的无用信息,自动识别不同物体,使得统计结果更为可靠。

(五)VR设备

VR(VirtualReality,虚拟现实)是指利用计算机图形系统和多种控制的接口设备,在计算机上生成的可交互的三维环境,并给用户提供沉浸感觉的一种技术。现在VR设备主要用在游戏体验和电影电视方面。微软为自身VR设备研制的HPU芯片,可同时处理来自多个摄像头和多种运动传感器的数据,并具有CNN(卷积神经网络)运算的加速功能,能够充分满足VR设备实现功能的计算需求。

三、AI芯片的关键技术

AI芯片是基于新工艺、新器件,从工具到架构都有所优化的新型芯片,加上不断迭代的算法和超前、多样化的应用,才形成了AI芯片的核心竞争力。AI芯片涉及的关键技术众多,其中主要分为五大类:工艺、器件、芯片架构、算法、应用这五大类,以下重点对其中几点进行介绍。

(一)新型工艺与器件的突破

基于CMOS工艺节点(16nm,7nm,5nm)的不断突破,器件的集成度越来越高。一些新兴器件,比如3DNAND、FlashTunningFETs、FeFET、FinFET,应用的越来越广泛。3DNAND通过堆叠内存颗粒来扩展2DNAND闪存的存储容量,可满足移动消费端AI芯片的存储要求。FeFET(FerroelectricGateField-effectTransistors)虽然与现有逻辑晶体管的结构相同,但是具有可拓展、非易失、低功率等优点。高带宽片外存储器技术,如HBM、高速GDDR、LPDDR、STT-MRAM的应用也可以大大提升芯片的存储和运算能力,STT-MRAM为自旋转移矩磁阻内存,其第一代产品是基于40nm制造工艺,容量只有32MB。第二代产品基于28nm制造工艺,容量已增加到了128MB。LPDDR(LowPowerDoubleDataRateSDRAM)作为第二代低功耗内存技术,由于功耗低、体积小的特点,可以用于移动终端的AI芯片中。

除了器件工艺的突破,封装技术的提升也能大大提高微系统的性能,3D堆叠技术是将不同功能的芯片通过层间孔互联工艺堆叠起来的系统级封装工艺技术,可以减小微系统外形尺寸,降低功耗,提高芯片速度。

(二)算法的迭代和创新

算法是AI技术的灵魂,目前AI云端芯片主要以训练、学习为主,AI终端芯片以推理、应用为主。但无论是类脑芯片的自我学习功能,还是终端芯片的推理功能,都是基于神经网络算法和机器学习算法。神经网络算法又是基于神经网络互联结构(比如卷积神经网络CNN、循环神经网络RNN、长短时记忆LSTM等)以及深度神经网络系统结构(如AlexNet、GoogleNet、VGGNet等)的一类算法。可见AI算法是一门很大的学问,AI芯片必须与AI算法相互迭代升级,才能得到更广泛的应用。

深度学习算法是人工神经网络算法的拓展,多基于半监督式学习算法,通过输入数据的分类和回归,进而进行预测。常见的深度学习算法有:受限玻尔兹曼机RBN、堆栈式自动编码器等。深度学习算法相比以前的神经网络算法相比,拥有更多的“神经元”、更复杂的连接层、更强大的计算能力来训练,所以基于深度学习的AI技术有更强的推理能力和迁移学习的能力。AI算法的突破和创新,能让AI技术更上一层楼。

(三)芯片系统级结构的优化

为了满足云计算和边缘计算AI芯片的性能和功耗的要求,需要优化人工智能芯片的系统架构。比如,神经网络芯片的卷积神经网络吞吐量和功耗之间的平衡,就需要架构师在芯片系统级架构上给出优化方案。AI芯片多采用多核、众核的系统级架构,以突破在提高芯片性能时遇到的三个限制(互联时延、设计复杂度、功耗)。设计这些系统级架构是将AI芯片中各个处理器分别设计和优化,从而降低整体设计的复杂度;单个处理器中的互联减小了传输的距离,降低了互联时延;多核结构在满足性能提高的同时,减小晶体管整体翻转的频率,从而降低功耗,解决了单核结构高频率、高功耗的老问题。AI芯片的结构优化方法还有很多,比如SIMD(SingleInstructionMultipleData,单指令多数据流)技术,用于数据密集型的运算上,能让多媒体应用芯片如虎添翼。片上网络NoC是片上集成系统SoC发展来的新的通信方法,常用于多核架构中。除此之外,存储器结构、内存接口结构的优化也是AI芯片的关键技术。

四、AI芯片产业的发展趋势

当今AI芯片的研发方向基本还是基于冯·诺依曼架构,但随着深度学习加速器的不断增加,原有的架构并不能有效地解决带宽的问题,架构的创新是AI芯片产业发展面临的一个不可回避的问题。目前,模仿人类脑部神经元结构设计的“脑类芯片”和“神经形态芯片”已经在研发的初期阶段。

AI算法与AI芯片开发的一体化发展也将是AI芯片产业的趋势。首先算法公司和芯片公司分别专注各自的领域,硬件性能的提升很快会被软件消化掉。而且目前算法公司和芯片公司不能实现倾囊相授的合作,传统的合作模式无法解决芯片迭代速度慢和AI算法更新速度快之间的矛盾。所以现在有一些公司开始将算法和芯片作为一个整体进行开发、迭代,最终构建一个完整的人工智能平台,这种开发方式将具有明显优势。

除此之外,广阔的移动终端消费市场决定了应用在移动终端上的AI芯片将会是开发重点。击败世界围棋冠军的谷歌智能机器人AlphaGo其实是基于谷歌的云端AI处理器,所以击败世界冠军是一个很大的云端人工智能平台,而不是一个小小的机器人。阿里巴巴的含光800也是基于云平台。应用在移动终端的AI芯片要求体积小,集成度高、功能定制化程度高,需要芯片公司的职能集中化。现在许多公司都成立的自己专门的芯片部门,比如中兴微电子、华为海思、阿里平头哥等等,都体现了各大公司对核心芯片自主可控的追求,以及芯片研发的部门化和战略化。(电子技术与软件工程《AI芯片的发展及应用》)

THE END
1.神经网络算法BP 神经网络算法在理论上可以逼近任意函数,基本的结构由非线性变化单元组成,具有很强的非线性映射能力。而且网络的中间层数、各层的处理单元数及网络的学习系数等参数可根据具体情况设定,灵活性很大,在优化、信号处理与模式识别、智能控制、故障诊断等许 多领域都有着广泛的应用前景。工作原理 人工神经元的研究起https://baike.baidu.com/item/%E7%A5%9E%E7%BB%8F%E7%BD%91%E7%BB%9C%E7%AE%97%E6%B3%95/1252235
2.人工神经网络是什么,其应用有哪些?人工神经网络应用人工神经网络是什么,其应用有哪些? 当你阅读这篇文章时,你身体的哪个器官正在考虑它?当然是大脑!但是你知道大脑是如何工作的吗?嗯,它有神经元或神经细胞,它们是大脑和神经系统的主要单位。这些神经元接收来自外部世界的感觉输入,它们对其进行处理,然后提供输出,这些输出可能充当下一个神经元的输入。 https://blog.csdn.net/2401_85782938/article/details/140009671
3.深度学习:从人工神经网络的基础原理到循环神经网络的先进技术本文将深入探讨深度学习中的三种主要神经网络架构:基础人工神经网络(ANN)、卷积神经网络(Convolutional Neural Network, CNN)和循环神经网络(Recurrent Neural Network, RNN)。我们将通过大量的Python代码示例,展示如何构建和训练这些模型,并应用于不同的任务,包括图像分类、文本生成和时间序列预测。https://cloud.tencent.com/developer/article/2471196
4.人工智能与深度学习科研项目:卷积神经网络算法及其在NLP等人工智能领域项目将首先回顾包含分类与回归的传统机器学习算法及初步神经网络,而后教授将会介绍用于优化神经网络的数学原理及代码技术。在确保学生具备扎实的理论及编程基础后,项目将进入到关于卷积神经网络原理、架构、优化及应用的核心阶段,学生将根据自身兴趣选择个性化研究课题进行深入研究,在项目结束时提交项目报告,进行成果展示。 https://www.eol.cn/waiyu/news/2022122099527.html
5.粒子群改进算法及在混合神经网络中的应用研究粒子群改进算法及在混合神经网络中的应用研究,粒子群,混合算法,模拟退火,人工神经网络,混沌自适应,外贸出口,随着学科间的相互交叉、相互渗透和相互促进,研究者开始将各类智能优化算法应用于人工神经网络(ANN)训练。其中,粒子群优化(PShttps://wap.cnki.net/lunwen-1014264041.html
6.基于人工鱼群BP神经网络算法的压力传感器温度补偿研究AET摘要:为实现压力传感器的温度补偿,采用BP神经网络作为压力传感器软件补偿系统的核心算法,但由于BP神经网络算法易陷入局部极值,因此采用具有全局搜索能力的算法—人工鱼群算法(AFSA)进行优化,得到的结果是压力传感器的线性度提升1个数量级,温度灵敏度系数降低2个数量级,得到了很好的补偿效果。 http://www.chinaaet.com/article/3000019793
7.进化算法在人工神经网络中的应用研究会议进化算法在人工神经网络中的应用研究 万琼姚望舒王金根陈世福谢俊元 南京大学计算机软件新技术国家重点实验室 210093 引用 收藏 分享 打印 摘要:本文综述了进化算法与人工神经络结合技术现状的研究,主要包括优化网络设计、输入数据预处理、网络集成等方面内容,并对研究过程中出现的主要问题及未来发展趋势进行了讨论。https://d.wanfangdata.com.cn/Conference/6737541
8.人工神经网络:模型算法及应用PPT课件(全)(406页)人工神经网络:模型、算法及应用-PPT课件(全).pptx,人工神经网络: 模型、算法及应用;2;3;4;1.1 人工神经网络的概念 ;6;1.2 人工神经网络的发展 ;8;1.3 人脑;1.3 人脑;11;1.4 Hebb法则;13;1.5 神经元模型;15;1.6 神经网络的拓扑结构;1.6 神经网络的拓扑结构;18;1.7 知识表https://m.book118.com/html/2022/1222/6140135132005031.shtm
9.大数据在审计中的应用——基于人工神经网络的财务报告舞弊识别因此本文旨在利用大数据技术与人工神经网络算法捕获与目标企业舞弊相关的财务信息和非财务信息,梳理基于数据挖掘的舞弊识别框架,为资本市场注入信心。 1.2 研究意义 大数据在财务领域较多地应用于财务共享服务中心的构建、风险预警、管理决策等方面,并取得了较为丰富的研究成果,但是大数据在财务报告舞弊识别方面的应用研究还处https://www.fx361.com/page/2021/0624/11343477.shtml
10.人工智能心得体会(精选13篇)由于网络技术特别是国际互连网的技术发展,人工智能开始由单个智能主体研究转向基于网络环境下的分布式人工智能研究。不仅研究基于同一目标的分布式问题求解,而且研究多个智能主体的多目标问题求解,将人工智能更面向实用。另外,由于hopfield多层神经网络模型的提出,使人工神经网络研究与应用出现了欣欣向荣的景象。人工智能已深入到https://www.oh100.com/a/202212/5696010.html
11.现代工学院郝玉峰课题组:利用人工神经网络算法识别和表征原子级厚度材料现代工学院郝玉峰教授课题组近期将人工神经网络算法与二维材料研究相结合,实现了仅通过光学显微镜照片即可对二维材料的类型、层数、异质结构、缺陷浓度进行快速识别和表征,为二维材料提供了一种高效、无损的检测分析技术。 二维材料是一类仅有原子级厚度的新型薄膜材料。目前二维材料成员已多达几百种,并且各种二维材料会组合https://www.nju.edu.cn/info/3201/116731.htm
12.人工智能论文人工智能;电气工程;自动化控制;应用 当前是一个科学技术时代,电气工程发展要与时俱进,跟上时代前进的脚步。电气工程行业要想有效实现电气自动化控制和管理,就必须充分发挥出人工智能技术的作用。人工智能的研究范围不仅涵盖了图像语言识别和自动化控制,还包括了专家系统和人工神经网络等内容。因此,电力企业必须通过合理利https://www.ruiwen.com/lunwen/6395408.html
13.JeffDean撰文:谷歌AI2018研究成果汇总我们也探讨了强化学习如何应用于神经网络架构搜索之外的其他问题,我们的研究证明它可用于1)自动生成图像变换序列,以提高各种图像模型的准确性。 以及寻找新的符号优化表达式,比常用的优化更新规则更有效。我们在AdaNet上的工作展示了如何得到具有学习能力的快速灵活的AutoML算法。 https://36kr.com/p/1723150434305
14.2022年度陕西省重点研发计划项目申报指南目录2.1 超大规模复数稠密矩阵方程直接求解算法库 2.2 超大规模复数稀疏矩阵方程直接求解算法库 2.3 工业仿真软件架构关键技术 2.4 三维几何建模技术研究 2.5 面网格生成技术 2.6 体网格生成技术 2.7 高性能三维图形渲染技术 2.8 航空大规模并行 CFD 计算技术及应用示范 http://www.kt180.com/html/sxs/9889.html
15.人工智能学习心得(通用28篇)在大多数数学科中存在着几个不同的研究领域,每个领域都有着特有的感兴趣的研究课题、研究技术和术语。在人工智能中,这样的领域包括自然语言处理、自动定理证明、自动程序设计、智能检索、智能调度、机器学习、专家系统、机器人学、智能控制、模式识别、视觉系统、神经网络、agent、计算智能、问题求解、人工生命、人工智能https://www.yjbys.com/xindetihui/fanwen/3342600.html
16.第三代神经网络模型:面向AI应用的脉冲神经网络澎湃号·湃客在这篇文章中,我想从四个方向对生物启发SNN设计的一些实例和思想进行介绍,包括神经元模型、编码方式、学习算法、网络结构,最后总结并展望类脑启发对于面向AI应用的SNN研究的意义。 1. 神经元模型 为了模拟生物神经元的活动模式,计算神经科学提出了一系列脉冲神经元模型。与使用激活函数的人工神经元相比,脉冲神经元普遍https://www.thepaper.cn/newsDetail_forward_27289221