如何利用AI加速边缘计算?

人工智能正被设计到越来越多的边缘芯片和系统中,用于加快海量数据的处理速度,并通过划分和优先级来降低功耗。反过来,这使得系统能够更快地处理这些数据。

在边缘而不是在云中处理数据提供了许多有充分说明的好处。因为生成数据的地方和处理数据的地方之间的物理距离更短,所以延迟大大减少了。这也减少了移动数据所需的基础设施的数量,因为在初始处理之后路由的数据更少了。它还减少了移动数据所需的电量,以及存储数据的成本。然而,所有这些好处都可以通过利用某种形式的人工智能来扩展。

英飞凌互联安全系统部门总裁ThomasRostock表示:“云肯定会发挥作用。“但必须有某种智能来减少进入云计算的数据量,并将其集中起来,然后得到答案。这是一个架构问题。”

人工智能是边缘设计的一个相对较新的转折点,它被用于识别芯片和系统级别的资源并确定资源的优先级。因此,虽然边缘计算已经广泛部署在许多不同的领域——包括多层处理,它可以跨越从传感器内部到内部和外部服务器层的所有内容——但人们认识到,可以从数据和处理数据的系统中提取更多的价值。

图1:边缘计算应用的细分市场。

其中一些支出将包括AI/ML,这有助于优化边缘计算系统,特别是在推理方面。虽然大多数专家认为训练将继续在大型数据中心使用庞大的数据集进行,但推理可以使用各种处理元素在本地完成,包括GPU、FPGA、eFPGA、NPU和加速器/协处理器。这种本地多样性对于带宽有限或不一致以及处理受电池大小或类型限制的广泛应用非常重要。

图2:边缘计算和云计算的比较

从上图我们可以看到,边缘计算在延时、带宽要求、能耗、安全性以及成本等方面都有着明显优势。

“我们已经看到我们的客户将MIPI用于为智能设备(如安全摄像头或其他依赖视频和音频输入的物联网设备)供电的SoC。SoC需要与外部源(视频和音频)连接,并将数据发送到预处理单元,以使图像和音频更适用于神经网络,”Takla说。“神经网络集群和SRAM是主要处理发生的地方,包括分割、识别、推理以及其他功能发生的地方。”

这些设备中的许多设备可以在本地对数据进行分区和优先级排序,并且它们可以使用非常少的功耗来做到这一点。但它们的设计和制造难度更大,成本更高。

弗劳恩霍夫IIS自适应系统工程部设计方法论负责人RolandJancke说:“需要进行多层次的模拟。”“你有一个反映所有功能的复杂模型,对于模型的不同部分,你需要更深入地研究细节。如果你只是引入数据或查看它如何与其他部分连接,你不需要这种细节,但你需要决定哪些部分需要详细建模。”

人工智能架构通常是围绕高数据吞吐量设计的,其中有大量并行工作的处理元素,通常使用较小的本地化内存。对于复杂的边缘设备,包括从汽车到智能手机的任何东西,设计工具利用AI来创造更好的AI芯片,这些芯片通常与其他芯片结合在一起。

一般来说,精度越高,实现它所需的计算资源和能量就越多。这在汽车行业尤其明显,设计团队经常面临相互冲突的目标。西门子数字工业软件公司汽车和mil/aero混合物理和虚拟系统副总裁DavidFritz说:“真正的问题是要满足欧洲、美国和日本的环境要求,因为它们都有不同的排放目标。”“与此同时,随着这些汽车变得更加智能,芯片制造商需要降低功耗,增加更多的计算能力。所以你必须平衡这两件事。但如何在不消耗更多能量的情况下让它更智能呢”

其中许多系统具有固定的功率预算,这可以确定设备的使用方式,甚至可以确定使用哪种电池。

人工智能可以在所有这些情况下提供帮助。问题是,训练人工智能做你想做的事情是非常耗时的。大量预先训练的模型简化了这一过程,即使它们并没有完全针对特定设备进行优化。集成一个预先训练的模型比从头开始的ML训练更划算。例如,对于一个零售应用来说,边缘设备需要经过广泛的视觉训练,才能学习人类的长相,以及如何在人类移动时计数。对于ML来说,通过浏览数百万张图像来进行准确的预测并不罕见。此外,编程gpu可能也需要经历一个学习曲线。通过使用对YOLOv4对象检测进行预先训练的模型,开发人员可能可以绕过大部分训练过程。YOLOv4是一个灵活的、最先进的框架,使用底层语言编写,用于检测实时对象。FlexLogix推理营销高级总监SamFuller说:“基于人工智能的边缘设备开发人员经常会遇到一个挑战,即想出一种具有成本效益的方法来训练设备。”“通过预先训练的模型,开发人员可以缩短设计周期,更快地进行测试。使用预训练的EasyVision平台与X1M芯片(50FPS的YOLOv4检测),ML可以产生很好的结果。作为一个粗略的比较,这种组合将产生80倍的性能,在英特尔i5处理器上运行相同的算法,而不需要加速。”

对于设计团队来说,最大的挑战之一是找出特定设计的各种可能性和权衡,并理解设备将如何使用。与过去不同的是,芯片主要是按照某种规格设计的,即使是无晶圆厂设计团队也常常很好地理解芯片将如何以及在哪里使用。在某些情况下,他们会直接与制造商合作,对解决方案进行微调。Cadence公司TensilicaAI产品营销总监SuhasMitra表示:“边缘部署场景可以产生各种潜在的解决方案。“要决定哪种硬件解决方案更适合应用,很大程度上取决于在设计阶段对关键功能、性能和面积(PPA)需求的理解。这可能导致许多不同的可能性或变体。例如,电池驱动的微型边缘设备(可听或可穿戴)可能需要非常低的功率和能量,但可能不需要高吞吐量。一个调优的AI加速器、DSP或MCU硬件都可以满足要求,但最终的选择可能取决于SoC的面积和功率预算。”

基于人工智能的边缘设计过程很复杂,因为它有很多活动部件。它包括机器学习、训练、推理和选择最佳AI芯片/解决方案和传感器。此外,从定义上看,AI系统应该是适应和优化的。在设计周期的早期选择正确的测试方法和模型以减少错误是至关重要的。

“从设计阶段开始,我们如何将这些硅内显示器添加到芯片本身——无论是单模还是多模系统——然后在从生产到现场操作的过程中收集数据Synopsys公司硅变现集团高级副总裁巴里·比斯瓦斯问道。“这属于软件定义硬件的领域,我们不仅会监控,还会优化。我们用EDA设计软件做了类似的优化。有自主设计系统可以优化设计创造过程。现在想象一下,这些系统在现场运行,然后优化变量,允许配置gpu和cpu。”

随着芯片的边缘计算和人工智能功能越来越多,减少设计过程中的误差就变得非常重要。目前,寄存器传输电平(RTL)仍然是设计SoC、FPGA和ASIC时最常用的语言。无论是单纯的边缘设计还是基于人工智能的边缘设计,最终目标都是实现性能、功率和面积(PPA)优化。如果能够在设计周期的早期发现错误,就意味着可以节省大量的成本。

数字硬件设计已经从门级转向寄存器传输级。如今,高级合成(High-LevelSynthesis,HLS)被用来将c++或SystemC代码中的算法设计合成为RTL。在系统设计中,当功能验证在RTL成功完成时,错误率将会降到绝对的最低。

边缘计算有很多好处,包括低延迟、减少云流量、本地决策和降低总体成本。虽然嵌入式AI将增强边缘计算性能,但其部署提出了一些挑战。现在,使用预训练模型、基于标准的模型和集成IP有助于实施ML训练和推理。优先考虑安全性并使用最新的基于人工智能的边缘设计测试方法也将有所帮助。

因此,人工智能有望成为边缘计算越来越不可或缺的一部分。

THE END
1.边缘AI计算平台是什么?了解AI边缘计算平台的优势及应用嘲边缘AI计算平台是一种在边缘计算环境中实现人工智能技术的平台。所谓边缘计算,是一种分布式计算框架,它将计算和数据存储更接近实际设备,从而优化了数据处理和传输的速度和响应时间。边缘AI则在此基础上,通过集成机器学习、深度学习等人工智能技术,使边缘设备能够自主地感知、理解和响应数据,实现实时的智能决策、智能控制和https://www.iotdt.com/news/chanpingxunxi/634.html
2.智汇奇策申请一种基于边缘计算的智能制造方法及系统专利,提高数据处理金融界2024年12月21日消息,国家知识产权局信息显示,深圳市智汇奇策科技有限公司申请一项名为“一种基于边缘计算的智能制造方法及系统”的专利,公开号 CN 119151221 A,申请日期为 2024 年 8 月。 专利摘要显示,本发明适用于智能制造技术领域,提供了一种基于边缘计算的智能制造方法及系统。本发明通过确定本地服务器,https://www.163.com/dy/article/JJUR9UR90519QIKK.html
3.从现场总线技术的角度探索万物互联边缘运算的优势与挑战在自动驾驶和万物互联的浪潮中,边缘运算成为了一个关键概念。它指的是将数据处理从云端转移到更接近用户或设备的地方。这一技术对于解决自动驾驶汽车产生的大量数据是非常有益的。 传统上,所有数据都通过云端进行处理。但是,这种方式存在一些问题。首先,网络延迟可能会影响实时性。其次,即使使用最新的5G网络,也可能无法https://www.hsr3sniea.cn/zi-xun/390180.html
4.端侧智能新纪元:AIPC与智能手机的融合创新报告精读端侧智能指的是在设备端进行数据处理和智能决策的技术,它能够提供更快的响应速度、降低对云端的依赖,并增强数据隐私保护。在这一领域,AI PC和智能手机是两个最具代表性的应用场景。AI PC通过集成高性能AI芯片,实现了从传统计算设备到智能助理的转变;而智能手机则通过集成NPU(神经网络处理单元),在端侧执行复杂的AIhttps://www.vzkoo.com/read/2024121978cbd873e27f01f385dfa82f.html
5.现场总线技术自动驾驶与万物互联边缘运算的新纪元在科技的高速发展下,自动驾驶和万物互联的概念正逐渐成为现实。这些曾经只存在于科幻电影中的场景,如今有望变为现实。Google母公司Alphabet旗下的Waymo、沃尔沃、福特、大众等传统汽车企业,以及新兴互联网企业,都在积极推进自动驾驶技术的研发。 边缘运算是将数据处理从云端转移到终端设备或较近的运算设备上的一种技术。https://www.9e80wtu09.cn/ke-ji/393714.html
6.TensorFlowLite,MLKit和Flutter移动深度学习:1~5微软开发的 Seeing AI 是一款智能相机应用,它使用计算机视觉来听觉上帮助盲人和视障人士了解周围的环境。 它具有一些功能,例如为用户读取简短的文本和文档,提供有关人的描述,使用设备的相机识别其他应用中的货币,颜色,笔迹,光线甚至图像。 为了使该应用具有先进的实时响应能力,开发人员采用了使服务器与 Microsoft Cognitihttps://developer.aliyun.com/article/1427017
7.你以为边缘AI只是技术噱头?绝非如此,它正在推动行业创新!边缘设备的互联互通:不同边缘设备之间需要通过高速网络进行数据和状态同步,形成智能协同工作,尤其是在智能制造和自动驾驶中需要大量设备进行实时通信。 边缘设备的实时操作系统 边缘AI要求设备能够实时响应,这需要支持高效的实时操作系统(RTOS)。这些系统能够保证在严格的时间限制内执行任务,尤其在自动驾驶、工业机器人等对https://t.10jqka.com.cn/pid_389326326.shtml
8.5米识别,0.1秒响应,探境科技亮出四款语音AI芯片(探境鲁勇:破局存储墙,打造首款通用AI芯片 | GTIC2019) 而探境科技认为,其存储优先架构(SFA)的的一大突破就是将存储作为调度核心,使数据在存储器之间传递的过程中就得到计算,这种简单快速有效的方式特别适合边缘计算场景来使用,在同等条件下相对于传统的类CPU架构,存储优先架构的芯片产品可将数据访问降低10-100倍https://zhidx.com/p/145750.html
9.奇绩创坛路演日:基础软件元宇宙医疗ESG芯片…54个项目看FedML.ai 借助Open MLOps和Web3 Marketplace,随时随地构建开放、协作的Al。 FedML.ai是一个创新性的平台,可以从各种用户/孤岛/边缘节点的分散数据中进行机器学习,用户无需在它们之间或将任何数据移动到云端,从而最大程度保护用户隐私,遵守数据使用法规并减少开发成本。FedML.ai为去中心化和协作式AI创建了一个MLOpshttps://m.36kr.com/p/1783186930585220
10.AI芯片和传统芯片有何区别?在AI 产业应用大规模兴起之前,使用 FPGA 这类适合并行计算的通用芯片来实现加速,可以避免研发 ASIC 这种定制芯片的高投入和风险。 但就像我们刚才说到的,由于通用芯片的设计初衷并非专门针对深度学习,因此 FPGA 难免存在性能、功耗等方面的瓶颈。随着人工智能应用规模的扩大,这类问题将日益突出。换句话说,我们对人工智https://www.zhihu.com/question/285202403
11.AI芯片全面发展!从训练到推理从云端到边缘从GPU到ASIC边缘AI芯片市场规模将超过云端芯片 同时AI芯片正在从云端向边缘端发展,IDC&浪潮日前发布的《2021-2022中国人工智能计算力发展评估报告》显示,在新技术的驱动下,5G 等连接技术降低了数据的传输和处理速度,为了分担数据中心的计算压力并且也能提高实时响应速度,人工智能在边缘侧的处理将成为企业的一个关键增长领域。 https://maimai.cn/article/detail?fid=1714614484&efid=aybPcqVYnbirZbbFAx5chA
12.芯片领涨第三子浪,神经网络芯片的王者横空出世AI芯片可以根据其部5.安全与隐私保护:AI SoC芯片通常包含硬件级别的安全功能,如加密引擎和安全存储,以保护设备免受黑客攻击,并保护用户数据的隐私。 6.低功耗运行:边缘AI芯片的功耗比云端AI芯片低得多,适合电池供电的设备,如可穿戴设备和移动设备。 7.实时响应:利用边缘AI芯片直接在设备上执行AI处理可以将数据延迟降低至纳秒级,这对https://xueqiu.com/1320842253/308803540
13.边缘AI对数据量大的应用将至关重要腾讯云开发者社区到2020年,我们预计将有超过7.5亿的边缘人工智能芯片(执行或加速机器学习任务的芯片或芯片部件,不是在远程数据中心里)被售出,这意味着26亿美元的收入。此外,边缘AI芯片市场的增长速度将远远快于整个芯片市场。我们预计,到2024年,边缘人工智能芯片的销量将超过15亿。这意味着年销量至少增长20%,是整个半导体行业9%年复https://cloud.tencent.com/developer/news/588292
14.智能安防三大硬核技术:智能感知图像/视频处理AI计算可重构芯片应用于图像信号处理有如下优势:快速在芯片上实现最新的图像算法、更加强大的图像处理性能、为客户提供自己定制ISP算法的可能,并可延长产品的生命周期。 在产品形态上,添加AI能力的边缘计算载体包括智能安防摄像头、智能网关、盒子、微型数据中心等。这些设备和应用对于多种连接和数据移动性、实时决策、本地化计https://mp.ofweek.com/im/a656714229187
15.产研:集成化趋势下,DSP芯片会被取消吗?未来,DSP与CPU、GPU以及AI专用芯片的融合将成为主流,这种趋势将进一步推动DSP芯片在诸如AI、智能控制等领域的广泛应用。通过多核架构和高度集成的设计,DSP芯片能够更好地适应复杂应用场景,尤其是在需要大规模数据处理和实时响应的应用中。 个性化定制与差异化 https://www.eefocus.com/article/1757379.html
16.从“谁是你”到“你是谁”,AI深度改造安防行业而从另一角度来看,前端计算可以大大节省带宽,把服务器端的负载大大降低,让更多场景下的实时计算成为可能,从而大大提升未来城市居民的生活质量。 2018安博会上,地平线首次展出了XForce边缘AI计算平台。XForce是基于地平线BPU2.0处理器架构的FPGA边缘AI计算平台。通过算法与芯片深度结合的软硬件联合优化,XForce具备强大https://www.esmchina.com/news/20190225164401.html
17.芯趋势2022边缘AI最新5大趋势看点边缘AI的新兴趋势远不止于此。但他们的应用泛化可能还需要我们推进相关关键技术的变革。NVIDIA预测边缘AI管理将成为IT的日常工作,可能会使用Kubernetes。Gartner报告说,使用IT资源而不是让业务人员管理边缘解决方案可以优化成本。 关于酷芯微电子 上海酷芯微电子有限公司成立于2011年7月,致力于成为全球智能芯片领导者。公司https://laoyaoba.com/n/833849
18.一图知悉AI芯片规格性能差异图注:云端AI芯片,边缘终端AI芯片(不完全统计) ChatGPT加速生成式AI应用,其综合运用算法、预训练模型和多模态机器学习等,搜索现有数据或批量信息中的模式,高效输出适合数据收集分析、社交互动、文案等场景内容。 目前市场上已经有许多由生成式AI驱动的应用程序,常见输出类型包括文本、图像、音乐和软件代码https://www.xcc.com/news/detail/5483255
19.ai芯片概念(4)边缘计算 边缘计算是指将数据处理和分析推向网络边缘设备,减少数据传输和存储需求,并提供实时响应。AI芯片在边缘设备上使用可以实现快速响应、保护数据隐私、节省带宽等优势。例如,在智能手机、智能摄像头、无人机等设备上搭载AI芯片可以实现本地图像识别、语音识别等功能。 3. 应用 AI芯片的应用范围广泛,几乎涵盖https://wenku.baidu.com/view/af142e6e2179168884868762caaedd3382c4b514.html
20.Ready的多协议无线芯片实现AI/ML边缘设备应用这款芯片最受关注的地方是内部集成了一个AI/ML硬件加速器,采用优化的矩阵处理器来帮助ML推理、为CPU卸载,实现计算周期(Cycle)大幅减少的同时降低功耗。 “相比Cortex-M,我们的处理速度提升了2~4倍,处理功耗则降低了6倍。“周巍介绍到,在边缘设备应用方面主要包括传感器ADC或GPIO上的数据传输,例如加速、温度、电流/https://www.eet-china.com/news/202205301104.html
21.了解AI芯片概况AI芯片部署的位置有两种:云端、终端。所以根据部署的位置不同,AI芯片可以分为:云AI芯片、端AI芯片。 云端,即数据中心,在深度学习的训练阶段需要极大的数据量和大运算量,单一处理器无法独立完成,因此训练环节只能在云端实现。 终端,即手机、安防摄像头、汽车、智能家居设备、各种IoT设备等执行边缘计算的智能设备。终端https://www.jianshu.com/p/4b4c403820b6
22.云天励飞董事长兼CEO陈宁:大模型落地嘲,好用适用比“堆参数”更大模型训练、推理、调用、部署均在云端完成,对算力(集群)规模、网络稳定性、能效等方面都提出极高要求,但未来要落地千行百业,走到线下物理世界,面对大量突发状况及时响应,就要求所有分析处理都在本地完成。目前,业内已经出现越来越多AI大模型迈向边缘、越来越多AI芯片向边缘设备扩展的趋势。https://m.cls.cn/detail/1726863
23.FPGA适合AI边缘计算吗?雷峰网FPGA适合AI边缘计算吗? 导语:FPGA要在边缘AI计算中应用,高成本和开发难度大是两个问题。 新一轮的AI热潮对芯片提出了更高要求,不过,AI芯片的定义还没有严格和公认的标准。因此,可以运行深度学习算法的CPU、GPU以及FPGA和ASIC都可以被称为AI芯片。虽然都称为AI芯片,但在2019年AI落地的大背景下,AI芯片的效率更https://www.leiphone.com/news/201912/ugckm1Vjn3N0v5g3.html