AI芯片上下游技术与产业链吴建明wujianming

WNEVC作为新能源汽车领域最高规格、最具影响力的年度大会,2022年大会在规模和规格上均再创新高。本次大会包含20多场会议、13,000平米技术展览及多场同期活动预计将有1,000多名全球新能源汽车领域高层参与其中。

其中,在静态展区,寒武纪的云端思元370芯片及加速卡、思元270芯片及加速卡、思元290芯片及加速卡、边缘端思元220芯片及加速卡、寒武纪行歌自动驾驶域控制器悉数亮相,以其强大的性能吸引展会观众纷纷驻足围观。

当前,自动驾驶技术已经从SAEL2级辅助驾驶向L3级及以上的高阶自动驾驶演进,先进的感知及计算平台技术、应用场景及商业模式创新、法律法规突破等都将成为自动驾驶实现大规模商业化的重要因素,与此同时,智能座舱作为驾驶员、乘客车内交互体验的关键要素,将致力于打造更加舒适的第三空间,实现智能互联的创新服务。

正如寒武纪行歌执行总裁王平所说:随着电动化、智能化、网联化、共享化的技术发展,汽车不再是单一的交通工具,而是成为下一代移动智能终端,甚至成为智能机器人。智能汽车将成为人与空间的共同延伸,带动一个全新的智能汽车产业新生态。

谈及未来5年的自动驾驶的趋势时,王平分析称:“看到四大趋势,首先是L2+的自动驾驶系统的装备率将会迅速普及并将长期存在,未来五年L2+及以上的总体渗透率可能超过50%,受限场景L4自动驾驶开始落地,L2+~L4并行存在。第二个趋势是,自动驾驶的算法更为复杂,处理的数据量指数级上升,算力需求不断攀升。第三个趋势是,车路云端的闭环协同,将会进一步推动驾乘体验持续升级。第四个趋势是,为满足消费者个性化的需求,增强厂商差异化竞争力,车端训练将会得到发展。”

同时,王平认为:智能驾驶系统规模化落地、车路云协同的方案均面临着多重挑战。

“首先,单车智能面临以下挑战:第一,目前单片SOC的处理能力普遍不足,因此需要2片甚至更多片来实现,使得系统复杂度指数级上升,量产困难;第二,多片SOC还造成域控制器功耗很大,必须采用风冷甚至液冷,增加了系统成本,从而使得智能驾驶系统在燃油车及10万元以下车型都很难普及;”王平进一步指出,“而车路云协同的方案,海量数据的闭环需要大规模AI集群的支撑,根据特斯拉的数据,每一辆智能车上路,就需要增加价值500美金的云端AI计算资源来支撑,成本压力巨大,目前云端统一运营数据的模式还不能有效满足车主个性化的需求。”

因此,寒武纪于2021年成立寒武纪行歌,致力于成为安全可靠的智能车载芯片引领者,用AI芯片支撑自动驾驶更快升级。作为寒武纪设立的控股子公司,寒武纪行歌专注于智能驾驶芯片的研发和产品化工作,核心研发团队来自行业领先的芯片公司和领先的科研机构,并进行了独立融资,引入了蔚来、上汽及宁德时代旗下基金等战略投资人。此外,寒武纪还与中国一汽签署了战略合作协议,双方共同推进大算力芯片研发和量产落地。

对于产品的研发进程和规划,王平提到:“今年内,将发布面向L2+芯片及计算平台,以及自动驾驶软件平台及开发工具箱;明年将发布国内首颗7nm、面向L4自动驾驶的芯片及计算平台。”

面向L2+的SD5223芯片推动自动驾驶覆盖10-15万元入门级车型

在谈到2022年内将发布的面向L2+市场的SD5223芯片的时候,王平表示,针对L2+级别市场,当前的域控制器方案一般采用两颗甚至三颗SOC来实现L2+级别的行车+泊车功能,系统复杂,功耗高,无法采用自然散热,成本也相应水涨船高,较难在10万元以下车型应用。

而寒武纪行歌将在年内发布L2+行泊一体芯片解决方案,采用先进工艺,最大算力16TOPS,更高DDR带宽、车规级图像处理单元;目前,行歌已经和领先的Tier1公司、算法公司开展合作研发,SD5223将支持8MIFC、5V5R、10V10R三种产品形态;其中5V5R方案单颗SOC实现行泊一体功能,并可采用自然散热,推动自动驾驶系统向10-15万元的入门级车型覆盖。

面向L4的SD5226系列产品算力大幅提升至超过400TOPS

预计2023年发布的面向L4市场、可支持车端训练的SD5226高端智驾芯片系列产品,则会将汽车带入高智能汽车2.0时代。王平指出,当前面向L4级别的自动驾驶域控制器都采用2颗甚至4颗SOC的解决方案,带来了系统复杂、板级带宽受限、功耗超标、量产周期长等风险和挑战。

去年寒武纪曾宣布正在研发一颗7nm工艺、算力超过200TOPS的芯片,即为SD5226高端智驾芯片系列产品。而在本次研讨会上,王平强调:“因应市场的需求,将SD5226的人工智能算力进一步提高到超过400TOPS,CPU最大算力超300KDMIPS,依旧采用7nm工艺,独立安全岛设计,率先提供基于单颗SOC的L4级别的自动驾驶解决方案。此外,这颗芯片还可以支撑车端自学习架构的落地量产。”

当前已有的车端芯片以推理架构为主,算法模型的更新和训练需要在云端完成。而寒武纪行歌则采用了端云一体,训推一体的AI处理器架构,可以支持车端训练,使得智能汽车真正具有自进化自成长的能力,从而迈入高智能汽车2.0时代,使汽车成为人类的真正伙伴。

从车企和车主来说,车端自学习能力优势包括:第一,能够真正满足用户个性化需求,实现“千车千面”,比如不同的驾驶习惯,不同的车人交互等等;第二,能够按客户意愿选择是否将单车数据上传云端;第三,能够使数据实现闭环分布,有效降低了云端AI集群的造价,车企可以更有效的开展服务运营。

支持车云协同、深度定制与高效开发

由此可见,为了满足智能汽车市场不同的算力需求,寒武纪行歌致力于推出全面覆盖不同级别的智能驾驶芯片产品,全系列芯片组合,覆盖10T~1000T不同算力需求,为不同客户提供强大而灵活的算力选择。

另外,十分具有优势的是,寒武纪行歌拥有车云统一的处理器架构、指令集和平台级基础软件,支持高效地进行数据闭环和AI调优,将精度损失降到最低;在云端提供训练板卡和集群,处理车端手机的海量数据,通过训练生成先进的自动驾驶模型,经过OTA推送到车端。在车端提供大算力接口丰富的自动驾驶推理芯片。支持复杂模型大算力需求,支持算法模型的持续迭代。通过数据存储产品以及数据传输链路,将车端推理场景的CornerCase数据回传到云端,在云端进行AI模型重新训练,并将新模型更新至车端。

不仅如此,寒武纪行歌还能针对车端场景深度定制MLU等关键IP,同等功耗下最大限度提升驾乘体验。特别是寒武纪还将与Tier1公司、传感器公司、算法公司等一起与OEM密切协同,形成网状的合作关系。王平讲到:“将主动“攒局”,联合合作伙伴构建成熟的算法及软件解决方案,提供多层级可裁剪的货架化解决方案交付,全面满足车企对质量、进度,客户体验差异化等多重需求,提升终端用户的驾乘体验。”

寒武纪行歌还为用户准备了灵活易用的开发工具箱、友好可继承的软件接口,支持开发差异化的需求,提高开发效率。比如:一套高效易用的AI工具链,用户在其他AI平台上训练好的模型,通过行歌的AI工具链,可以快速迁移部署到行歌的硬件平台上。这套工具链经过多家头部算法公司和车厂评估,获得普遍认可。

这场高规格产业会议由芯东西与智东西公开课联合主办,以“不负芯光智算未来”为主题,汇集了来自国内外AI芯片领域的产学研专家及创业先锋代表,畅谈前沿技术创新与最新落地进展。

开幕致辞:聚焦集成电路与人工智能有机结合的最前领域

在开幕式上,深圳市南山区科技创新局党组书记、局长曹环发表致辞:“AI芯片峰会交流聚焦的边缘计算、存算一体芯片等主题代表着集成电路和人工智能有机结合的最前领域,与深圳市南山区的战略新兴产业的布局高度契合。”

曹环谈道,南山区在具有雄厚的集成电路产业基础和突出的创立优势,2021年南山区的集成电路企业超过200家,年销售额超过700亿元,同比增长逾68%,培育了中兴微电子、国微集团、奥比中光等一批行业领军企业。未来,南山区将继续全力推动集成电路产业集群的高质量发展。

创新需要良好的产业环境,这也是今年AI芯片峰会选址深圳南山的重要考量。深圳是创新之都,南山则是深圳这片创新热土的核心区,在研发投入、硬科技数量、独角兽和投资机构数量等方面都居深圳之首。龚伦常希望AI芯片峰会成为前沿技术交流和产业落地对接的重要平台。

北京大学蔡一茂:新型存储器是AI芯片的重要助推器

基于存算分离架构的传统智能芯片受制于器件、架构、能耗瓶颈,存在低效率、高功耗的问题,而存算一体芯片能消除数据搬运造成的算力瓶颈,显著降低功耗,提高计算能效。

上海交大梁晓峣:推出通用智能算力芯片平台,宣布首个开源GPU架构

上海交通大学计算机科学与工程系教授梁晓峣在会上宣布,正式推出开源通用智能算力芯片平台,将第一代GPU架构“青花瓷”免费开源,“做人人都用得起的GPU”。“青花瓷”的架构和指令兼容(或二进制转译或兼容)NVIDIA,支持SIMT为主体的可扩展性架构以保证强大可编程性,并支持超薄的软件栈设计,通过极简的API封装将硬件细节暴露给程序员,降低软件开发难度。

▲上海交通大学计算机科学与工程系教授梁晓峣

围绕AI芯片的趋势变化,智一科技联合创始人、总编辑张国仁,与临芯投资董事李亚军、和利资本董事总经理肖鹏、天数智芯CTO吕坚平进行了一场以“创新与存,AI芯的现在和未来”为主题的巅峰对话。

临芯投资董事李亚军曾参投过许多半导体项目,但对AI芯片项目一向谨慎,直至观察到AI芯片走到了创新发展“S曲线”的第二波小高峰,才开始出手,陆续投资黑芝麻智能、昆仑芯等知名AI芯片独角兽企业。

突破云端AI芯片算力瓶颈!架构创新、全栈能力、落地心经

2017年,NVIDIA(英伟达)发布TeslaV100领衔炸场,掀起了全球AI芯片的创新狂澜。如今五年过去,NVIDIAGPU始终是云端AI训练芯片的“标杆”,与此同时,国内外多家创企摩拳擦掌,基于不同架构路线向云端AI芯片市场发起冲锋。今天,来自NVIDIA、壁仞科技、Graphcore、墨芯人工智能、昆仑芯科技、鲲云科技等知名云端AI芯片企业以及EDA新秀芯行纪、Chiplet创企奇异摩尔的技术专家及创业领袖,联袂奉上了从技术创新、量产落地到生态构建的深度见解。1、NVIDIA赖俊杰:揭秘英伟达最强Hopper架构今年3月,全球AI计算巨头NVIDIA在GTC大会上重磅推出基于全新Hopper架构的新一代旗舰GPU计算芯片H100,将多种精度下的AI算力最高提升至上一代A100的3~6倍。NVIDIA中国区工程及解决方案高级总监赖俊杰对Hopper架构进行了详细解析。实现性能提升的关键是新一代流式多处理器(SM)和新型线程块集群技术。

▲NVIDIA中国区工程及解决方案高级总监赖俊杰

BR100采用7nm制程,容纳近800亿颗晶体管,在BF16精度下达到1024TFLOPS性能,在INT8数据精度下支持2048TOPS算力。这款芯片在国内率先采用Chiplet技术、PCIe5.0接口和CXL互连协议,创下了国内GPU互连带宽纪录。

大规模AI计算的发展有三大趋势,分别是通过优化硅技术实现专业化变得更难、对越来越大的模型的需求并未放缓、计算系统和软件提升的空间仍然很大。

▲昆仑芯科技芯片研发总监漆维

漆维说,昆仑芯2代AI芯片是国内唯一款经过互联网大规模核心算法考验的云端AI芯片,目前已落地搜索、Onlinelearning(在线学习系统)、自智慧交通、智算中心等众多领域。下一步,对标业界最前沿产品的昆仑芯3代AI芯片将在不久之后面世。6、鲲云科技蔡权雄:定制数据流架构,实现更优算力性价比鲲云科技联合创始人&CTO蔡权雄谈道,数据流将成为解决性能瓶颈的关键技术。数据流芯片就是依托数据流流动次序控制计算次序,把数据的运算和搬运重叠起来,消除空闲计算单元。

▲鲲云科技联合创始人&CTO蔡权雄

AI算法在设计前期就可以预测芯片的性能,并能实现5~10%的PPA提升。用AI帮助EDA工具更自动化方面,当客户在反复跑某一个设计时,AI能基于此前参数的性能进行参数推荐。国际EDA巨头在探索这些应用,其效果已优于人工调参。

祝俊东谈道,3DICChiplet常被比喻成“积木”,但“拆”和“拼”也面临着不少工程化挑战。为此,奇异摩尔面向芯片开发者提供2个硬件:3DICChiplet通用底座和高速接口芯粒;1个软件:Chiplet专用设计工具,从而帮助客户实现从芯片设计到实现量产的全流程。

助攻智联汽车,AI芯片新势力崛起

▲地平线联合创始人&CTO黄畅

“具有天生优势的存算一体,就成为了解锁算力和功耗难题的金钥匙。”吴强说。存算一体的实现可类比为厨师炒菜,为了压缩厨师在厨房和仓库之间拿菜、切菜、炒制的过程,要让仓库和厨房变成一个整体。对应到计算机系统架构中,就是将运算步骤和参数一起集成在内存上,这种架构能用低成本方式实现大算力、能效比、低延时,同时对先进工艺依赖较弱,能够用成熟制程做出先进制程的性能效果。

高通公司构建了“统一的技术路线图”,基于此打造了一系列面向AI的IP和技术,助力终端侧AI能力实现规模化扩展,覆盖智能网联边缘。硬件方面,基于第七代高通AI引擎,高通公司为智能手机带来了业界领先的终端侧AI体验,同时也构成了面向高通汽车、物联网、XR等所有不同业务AI扩展能力的真正核心。

结语:峰会首日圆满举行,第二天精彩继续!

峰会首日,来自产学研投界的17位重磅嘉宾,在AI芯片高峰论坛与云端AI芯片专题论坛上,围绕技术创新、生态建设等AI芯片核心议题,输出了丰富的产业干货。第二天,GTIC2022全球AI芯片峰会精彩继续,边缘端AI芯片专题论坛、存算一体芯片专题论坛、新型计算技术专题论坛将带来更多攻克AI芯片技术壁垒和落地难关的思想碰撞,期间还将公布“2022中国AI芯片50强”榜单。

1998年,五名麻省理工学院的学生观察到了这一点,并有了一个简单的想法:让把这些文件分发到世界各地的许多数据中心,与电信供应商合作,使用网络。就这样,所谓的内容分发网络(CDN)的想法诞生了。CDN不仅开始存储图像,还开始存储视频文件和任何能想到的要储存的数据。顺便说一下,这些网点(PoPs)就是边缘。是分布在世界各地的服务器——有时这些成百上千服务器的所有目的就是存储那些常被访问的数据的副本。因为CDN最初的重点就只是提供正常的基础设施,而且目标也“只是正常运转起来”,所以这么多年来,其实一直很难使用。2014年,一场关于CDN的开发者经验(DX)革命开始了。网站文件和CDN文件被直接打包捆绑在一起使用,于是,人们就不再需要手动上传网站文件,然后再用CDN进行链接这么麻烦了。用CDN连接起来,这两个部分被打包在一起。自动部署化工具像surge.sh,Netlify,Vercel(如今叫fkaNow)诞生了。到目前为止,通过CDN分发静态网站已经成为一个绝对的行业标准。所以现在将静态资产移到了边缘。但是关于计算呢?还有那些存储在数据库中的动态数据呢?是否可以通过放在离用户更接近的地方来降低延迟呢?如果可以,那该怎么做呢?

欢迎来到边缘让来看看边缘的两个优势:①计算②数据在这两个领域,都看到发生了难以置信的创新,这将完全改变未来应用程序的工作方式。

WebAssembly于2017年首次面世,如今正在高速增长;像Mozilla、亚马逊云科技、ARM、谷歌这些大公司都在大量使用,还有微软和英特尔都在大量投资。WebAssembly允许用任何语言编写代码,并将其编译成一个可移植的二进制文件。无论是在浏览器中,还是在各种服务器环境中,都能够在任何地方运行。WebAssembly毫无疑问是过去20年来Web最重要的发展之一。已经在浏览器中驱动了国际象棋引擎和设计工具,在区块链上运行,并很可能取代Docker。

数据虽然已经有了一些边缘计算产品,但边缘革命的最大阻碍是如何把数据带到边缘。如果数据存储在一个遥远的数据中心,即便把电脑移到用户身边,也毫无所得——因为那些“遥远”的数据仍是瓶颈。为了实现边缘的主要承诺和提升用户速度,也无法同时找到数据分发的解决方案。可能会想,“就不能把地球上的数据通通复制到500个数据中心,并时刻保持最新状态?”虽然在世界各地都有一些新的方法复制数据,比如Litestream,最近加入了fly.io。不幸的是,这并不是那么容易的。假设有100TB的数据需要在多台机器的分片集群中运行,那么将这些数据复制500次根本不划算。真正需要的方法是既能够存储“成吨”的数据,同时还能将其带到边缘。换句话说,在资源受限的情况下,如何智能的、高效地分发数据,使得在边缘仍能快速地获取这些数据?囿于资源有限,业内正在使用两种方法(并且已使用了几十年):切片和缓存。

是否要切片切片会根据特定条件将数据分割为多个数据集。例如,选择用户的国家/地区作为分割数据的一种方式,这样就可以把数据存储在不同的地理位置。实现一个适用于所有应用程序的通用切片框架是相当具有挑战性的。过去几年来,在这一领域涌现出许多研究。例如,Facebook提出了切片框架,称为碎片管理器,但即使这样,也只能在某些特定条件下工作,还需要许多研究人员来运行。仍然将在这个领域看到很多创新,但这并不是将数据带到边缘的唯一解决方案。

相信,碎片还有缓存都要更多地去适应这些新需求,没有一家公司能够“解决数据问题”,需要整个行业都为此努力。关于这个话题还有太多话要说,但现在,觉得这个领域前景光明。对未来即将发生的事,感到兴奋。

未来:在这里,就是现在伴随着所有的技术进步和技术瓶颈,让来展望未来。但如果不提到凯文·凯利,那未免显得过于无礼。与此同时,承认,不可能精准地预测技术革命的未来走势,也无从得知哪些具体的产品或公司将会在未来25年成为领军人物。甚至,可能会有一家全新的公司,在边缘云领域异军突起。然而,有一些趋势是可以预测到的,因为已经在发生了。凯文·凯利在2016年出版了《不可避免》一书。在书中,讨论了十二种将会塑造未来的科技势力。正如书名说的那样,这些都是在未来必定会发生的,以下摘取了其中八种:认知:对事物的认知,也就是让事物更智能化。要实现这一点,需要直接在需要计算的地方提供越来越多的算力。例如,让自动驾驶汽车在云端去进行道路分类就不太实际,对吧?流动:将有越来越多的实时信息流,人们对这些实时信息流十分依赖。延迟的问题在这就显得至关重要的:让想象一下,如果要控制一个机器人来完成一项任务。如果非必需,应该不会想把控制信号跨越半个地球传送过去吧?然而,对于,持续不断的信息流、聊天应用程序、实时仪表板或在线游戏来说,不能有延迟是至关重要的,因此,需要使用边缘。

跟踪:不可避免地,会被更多地跟踪着。所有事物上都会装有更多传感器,都会收集到海量的数据。但这些数据并不能总是被传输到中央数据中心。因此,现实世界中的应用程序需要快速地做出实时决策。开始:很讽刺的是,最后但同样重要的是,这是“开始”的因素。过去的25年是一个至关重要的平台期。然而,不要指望初窥的那些趋势。让去拥抱,这样就能创造出最大的利益。这不仅是为了这些开发者,也是为了整个人类。

预测在未来的25年里,如今的“胡说八道”都将会变成现实。这就是为什么说边缘正在“吞噬”这个世界。正如之前提到的,程序员面临的问题不是某个公司的利益问题,而是需要整个行业的帮助。

自古以来都是得人才者得天下。

在半导体领域,从世界上第一个集成电路诞生开始,无数人才前赴后继,堆砌起了一幢幢芯片帝国大厦,这其中,台积电作为如今芯片代工市场当之无愧的龙头,烙刻在其三十多年发展史上的灵魂人物,可不是仅有张忠谋一位。

无人阻挡的台积电

从1987年成立时的1座6英寸厂,到现在官网显示,台积电已经拥有四座12英寸超大晶圆厂、四座8英寸晶圆厂和一座6英寸晶圆厂,并拥有一家百分之百持有之海外子公司—台积电(南京)有限公司之12英寸晶圆厂及二家百分之百持有之海外子公司—WaferTech美国子公司、台积电(中国)有限公司之8英寸晶圆厂产能支援。

图源:必应

霸主背后的六骑士

2003年台积电旧照,图源:今周刊,从左往右:林本坚、杨光磊、蒋尚义、孙元成、梁孟松、余振华

总体来看,六骑士技能各有千秋:

林本坚,图源:网络

在加入台积电后,林本坚于2002年开始推动浸润式微影技术,这对于当时专注于研发干式微影技术,并为此已经投入数十亿美元进行研发的众多半导体设备厂商来说,无疑是一记重磅炸弹。在林本坚的坚持下,2004年台积电与ASML成功完成开发全球第一台浸润式微影机台。这一场漂亮的翻身仗,不仅让台积电首次主导了业界规格,也让ASML一跃成为如今的光刻机龙头。或许也正是因为这样的“过命交情”,目前台积电拥有全球数量最多、最先进的EUV光刻机,这也为其定增扩产如虎添翼。此后,林本坚还不断突破半导体微影技术限制,让微影技术从28nm的极限成功驶向20nm,并引领着浸润式进入10nm,甚至7nm、5nm制程世代!如果说林本坚是光学高手,那么梁孟松就是在半导体先进制程模块开发的一流高手,师承FinFET和UTB-SOI技术发明人胡正明。

或许人们开始更多地了解梁孟松是从2011年台积电的泄密诉讼开始,作为台积电近五百个专利的发明人,同时也是“新制程设备遴选委员会”的一员,梁孟松对台积电的重要性不言而喻,曾有人表示,梁孟松对于台积电先进制程掌握的广度与深度,以及从研发到制造整合的熟悉度,在公司少人能及。《天下杂志》对梁孟松的评价则是,“以一人的去留,能左右两地半导体业的消长。”足以说明梁孟松对台积电的重要性。

在台积电间,蒋尚义将研发团队从400人扩编到7600人规模,培养成世界级的研发团队,研发经费也从数十亿元扩大到百亿元,堪称是台积电很重要的灵魂人物。张忠谋曾称赞蒋尚义,认可是将台积电水平“从二军拉到一军”的重要推手。

余振华于1994年加入台积电研发部门之制程模块开发单位,负责开发关键技术,从1997年起开始台积电铜制程研发工作,建立台湾第一座铜制程实验室。在0.13微米战役中,余振华负责的业务转为铜导线与低介电物质,归类于“后段”制程,曾一度被人忽视,直到摩尔定律开始逐渐放缓,人们才开始意识到封装对于降低成本的重要性。

孙元成则于1997年加入台积电,任先进模块技术发展处处长,之后转任逻辑技术发展处处长,2000年被升任协理、资深处长,2006年擢升为研究发展副总经理,在2019年从台积电技术长及副总经理退休,目前担任阳明交大创新研究院总院长。

孙元成,图源:经济日报

结语毫无疑问,六位传奇人物成就了台积电如今的霸主地位,但从人才扩散角度来看,台积电也确实是培养晶圆制造人才的大本营,上述每一位都着世界级的影响力,从三星、英特尔,到中芯,都有着身影。

随着半导体应用范围越来越广,制程微缩或将不再是提升芯片性能的唯一出路,台积电的未来,或者说是全球半导体的未来,又将会由谁来创造?

THE END
1.数算岛开源智算平台(SSDPAI)数算岛 开源 智算平台 (SSD-PAI) 数算岛 智算平台 (SSD-PAI) 产品概述 智能时代一体化算力服务平台解决方案 · 提供统一、灵活、易用、全面的算力资源管理与调度策略,解决传统算力使用场景中算力资源碎片化、用户需求多样化、运维管理工作量大等问题。https://blog.csdn.net/Roinli/article/details/141109565
2.SiliconCloud公测上线,每人免费送3亿Token生成式AI加速发展,开发者渴求更快、更便宜的推理算力,SiliconCloud将帮助开发者更低成本地使用大模型,降低大模型应用开发的门槛。 未来,我们将全方位支持大模型应用生态发展,推进主流开源大模型的可及性:一方面,免费送巨量token助力个人开发者打造创新应用,另一方面,助力大模型公司、AI应用公司实现推理的降本增效,进而促https://hub.baai.ac.cn/view/37566
3.异构算力开源社区HAMi举办首届沙龙,将发布新版本,效能全面提升近日,AI异构算力开源社区 HAMi 首届线下沙龙成功举办,并宣布将于25年1月正式发布 HAMi 2.5.0版本。新版本将支持mig、mps等多种算力切分模式,并优化WebUI管理能力及易用性。HAMi 是基于第四范式 vGPU 等异构算力技术打造,并与睿思智联、道客联合发起的一款异构算力管理开源工具,实现对硬件集群平台化管理、算力资源共https://tech.china.com/article/20241206/122024_1612934.html
4.国家数据局系统布局培育壮大数据产业贵州总算力规模40Eflops从上海市经信委和市通信管理局获悉,2024 年长三角生态绿色一体化发展示范区联合招商活动近日在江苏省苏州市吴江区举行,会上启动了长三角(上海)算力互联互通平台建设工作暨长三角枢纽算力平台互联互通。 长三角算力枢纽是中国 " 东数西算 " 工程规划的八大算力枢纽之一,规划设立了长三角一体化示范区和芜湖两大数据中心集群http://www.myzaker.com/article/66cef3a98e9f090aab70fec0
5.汽车行业车载智能计算平台深度研究:架构趋势格局2.2.2 趋势:集成化、高算力、先进制程、开放化 自动驾驶芯片是硬件部分核心,也是自动驾驶方案竞争的制高点,目前技术快速迭代背景下存在三点趋势: 第一点,集成化,MCU 加速走向 SoC。伴随整车电子 E/E 架构集中度提升(分布式→域集中式→中央集 中式),起决策作用的单元由 ECU→DCU→中央计算平台,ECU 数量大幅精简https://www.dongchedi.com/article/7131900552548139560
6.免费人工智能算力OpenI启智开源社区旗下的一站式AI开发协作平台,汇聚人工智能开源项目;提供代码托管、数据共享、模型训练等AI开发流水线功能;用户可在线使用鹏城实验室搭建的鹏城云脑、中国算力网的普惠算力,包含GPU、NPU等多样化加速资源。 启智AI协作平台,简称 启智社区 ,是一个开源在线Web应用,旨在为人工智能算法、模型开发提供在线协http://gitlab.c8hr.com/site/8845
7.行业翘楚论道未来想象2023开放原子全球开源峰会云原生分论坛圆满杨奕在题为《Sermant开源社区加速云原生微服务治理技术朝无代理架构的演进》的演讲中介绍了微服务架构演进历程,微服务架构从SOA到SDK再到Service Mesh的演进历程,以及各阶段所遇到的问题。 腾讯星辰算力平台技术专家陈显鹭 陈显鹭发表了题为《腾讯大规模云原生计算平台构建》的演讲,介绍了腾讯星辰算力平台发展历程。他表示:星https://www.openatom.cn/journalism/detail/ADwB2xUm22dc
8.打造最具活力的操作系统开源社区,全产业链共享多样性算力创新价值开源社区“共建、共享、共治”,打造协作创新平台 在以数字科技创新为引擎的经济发展新阶段,打造协同共生的计算产业生态尤为重要。为了加快多样性算力生态建设,华为计算确定“硬件开放、软件开源、使能合作伙伴”的生态战略。开源社区是社会高效协作打造软件生态的重要模式,华为把多年实践积累的软件能力开源开放出来,例如,将https://m.cls.cn/detail/648232
9.“息壤”引领首个算力互联互通验证平台建设,天翼云开启算力互联网6月21日,“2023算力互联互通大会”在北京召开。天翼云基于自主研发的云操作系统、紫金DPU、算力分发网络平台“息壤”等能力,作为算力互联互通验证平台的设计方、核心建设者、资源提供者与标准制定者,充分展现了跨服务商、跨架构、跨地域的算力互联互通能力,作为开源社区首批成员与核心贡献者推进国产开源社区体系构建,致力https://www.jiemian.com/article/9627289.html
10.“鹏城?脑海”通用AI大模型发布:2000亿参数,国产算力平台本次发布的是以中文为核心的“鹏城?脑海”基础版,将在 OpenI 启智社区向全社会开源。 ▲ 图源鹏城实验室公众号,下同 高文主任强调,鹏城实验室正同步研制“中国算力网”(China Computing Network,C2Net)全国一体化算力协同计算调度平台,以深圳为总调度中心,已汇聚全国协同算力达 3E 规模。“鹏城?脑海”大模https://www.ithome.com/0/720/661.htm
11.上海人工智能实验室华东师范大学上海智能教育研究院全球联合国际一流的开源、数据、算力平台 依托上海人工智能实验室与华东师范大学,并协同相关科研机构,建立国际一流的科研平台,为科研任务提供资源支持。 联合招聘研究领域 人工智能基础理论与方法:包括深度学习、可解释学习、因果学习、优化与决策、知识计算、情感计算、鲁棒与可信计算等方向。 https://maimai.cn/article/detail?fid=1696704512&efid=FWAZWMiNNQBgC9H0MotDFA
12.复旦大学与上海人工智能实验室全球联合招聘国际一流的开源、数据、算力平台 建立国际一流的科研平台,为科研任务提供资源支持,联合一流高校及研究机构搭建全球化团队。支持招募优秀研究和工程人员,给予一流高校博士生及博士后招收名额。 科研人员双聘和职称互认机制 上海人工智能实验室与复旦大学签订了战略合作框架协议,建立科研人员双聘和职称互认机制。 https://web.shobserver.com/sgh/detail?id=614846
13.算力调度平台人工智能大模型平台灵雀云AML赋能企业级人工智能落地,提供全栈开箱即用的GPU算力调度、AI任务管理、模型管理以及智能体开发能力,为企业提供端到端的智算中心平台。https://www.alauda.cn/solutions/ai
14.一场双向奔赴的招聘!上海人工智能实验室招聘管理支撑类岗国际一流的开源、数据、算力平台 建立国际一流的科研平台,为科研任务提供资源支持。 科技发展部负责人 岗位职责: 1.负责科研制度的制定与完善、科技发展规划、相关领域科研项目的全过程管理; 2.负责研发平台、科研装备平台的管理; 3.负责实验室重大科技项目、科技成果、创新平台等工作的策划、组织与协调; https://www.jfdaily.com/sgh/detail?id=659195
15.中共中央政治局:要坚持把科技创新作为主动力,积极开辟发展新领域华为云推出业界首个大模型混合云,华为云Stack 8.3在业界率先实现大模型能力基于混合云部署,提供算力平台、云服务、开发套件和专业服务等完整AI生产链,一站式建立专属大模型能力。基于原生混合云能力,用户可以将大模型从本地延伸到边缘和公有云;通过软硬协同实现算子融合与混合精度的优化,模型训练性能提升45%。 https://www.tmtpost.com/6819084.html