一线专家解读AIPC产业趋势及近期变化20240604
会议要点
1、AIPC概念与定义
·AIPC(AIPowerComputing)是指主要由AI驱动的计算设备,尤其是由NPU(神经处理单元)驱动的计算设备。NPU的独立架构在设备中起关键作用,尤其是在进行张量计算时。
2、NPU与GPU的对比
·GPU的能耗较高,不适合常规应用如写作、创作等。相比之下,NPU在低功耗情况下进行专用计算,更适合普及AIPC。
·当前NPU的算力没有明显的阶梯区分,功耗较低,适合集成显卡的普及应用。
·目前端测计算规模和生态尚未完全成熟,独立NPU卡的推行还未开始。
3、功耗与电池问题
·目前AIPC的功耗在5瓦到10瓦之间,相对较低,不会显著增加笔记本的供电需求。
·短期内通过制程及先进封装优化性能,电池和散热需求不会显著增加。但随着算力提升,电池需求可能增加。
5、端侧与云端模型的应用
·PC厂商倾向于在端侧部署大模型,因PC设备具备足够算力。端侧模型通常在百亿级参数左右,经过量化优化以提升推理速度。
·端侧模型主要用于人机交互、语音识别、语义解析等应用,而复杂应用如视频生成则依赖云端算力。
6、隐私与成本问题
·端侧计算在隐私保护和速度上具有优势,用户数据不需要上传到云端,减少延迟和隐私泄露风险。
·云端API价格下降不会显著削弱端侧计算的成本优势,因端侧计算无需额外耗电,且用户体验更好。
8、AIPC的售价与毛利率
·AIPC设备的售价预计会比传统PC高,例如从6000元提升到8000元。尽管售价提高,但由于PC市场的充分竞争,毛利率不会有显著变化。
9、用户换机动因
·行业内的转变将推动消费者自然换机,而不是某个特定功能吸引用户换机。对于特定行业如编程、设计等,AIPC能显著提升工作效率,可能会促使这些行业用户换机。
Q&A
A:从泛化意义上来讲,AIPC并不是简单的AI加PC,而是AIpowercomputing,即主要由AI驱动我们未来的应用解决问题的场景。在我们所处的行业,更加狭义的AIPC定义上,主要是看这个产品是不是主要由NPU来驱动计算。具备张量计算特征的设备,我们称之为AIPC。
Q:是否可以理解为,使用独显和使用集成显卡的区别就像使用GPU和NPU的区别,更多的是性能和成本的权衡?
A:主要是功耗上的权衡。今天大家在发NPU的时候,它的算力没有做阶梯上的区分。NPU的功耗足够低,可以理解为集成显卡更加普及。如果我们要更大的算力,也可以考虑后续搞成NPU卡。
Q:在使用AI功能的时候,比如在使用个人知识库做RAG的时候,功耗会增加多少?
A:我们还没有具体测过,但是可以提供一个数据来支撑,就是我们发的阿特尔的芯片,在这一部分的功耗是极低的,一般在从定性的角度来讲,也就是几瓦的功耗,就是不会超过十瓦,也就是5瓦到10瓦之间。我们今天的笔记本上,你看供电并没有大幅增加。
Q:对于AIPC的功耗增加,是否会对电池的大小和电视技术有所影响?
A:短期内,功耗增加主要通过制程和先进封装进行优化,对散热和电池方面没有更大的要求。但是,随着集成度的提高和算力规模化,例如内存封装在芯片边上,空间可以腾出来给电池,同时需要的功耗会更高,这都会导致电池的增加。
Q:在PC设计层面,有什么因素限制了轻薄本电池容量的提升?
A:在考虑电池大小时,主要考虑两个因素。一是平均使用时长,比如是否足够一天的使用,这与设备的定位有关。二是设备的便携性,轻薄本笔记本需要可携带,因此电池的大小会受到便携性的影响。
Q:联想在AI模型的布局上是如何进行的?他们是自研模型还是基于开源模型进行微调?他们在这方面投入了多大的研发能力?
A:联想的策略是做端侧大模型,因为PC厂商有足够的算力来支持。像联想这样的品牌厂商会做端侧大模型,但不会做云端的大模型,因为他们没有那个能力或实力去做云端的千亿级或万亿级的大模型。他们能做的是训练一些百亿级的大模型,这在端侧更常见。例如,联想已经有了天启大模型,实际上背后有好几个模型。
Q:联想的Yoga系列的小天模型可以选择使用端侧或云端,那么这个端侧的模型具体有多大?
A:端侧的模型大约在百亿级左右,我们知道的是一个是70亿的,一个是130亿的。
Q:联想的模型是否进行了参数量化?因为如果不进行量化,对于显存和内存和硬盘的占用会比较大。
A:的确进行了参数量化,因为不做也没办法,目前的算力的状态就是这样,所以做了三次优化。
Q:模型能力是限制现在很多AI应用的一个要素,那么一个可能打了水分,能力也不满血的小模型,真的能在端侧满足用户的功能需求吗?
A:这个问题需要具体分析,因为端侧模型的选择是品牌厂商能力和场景交集下来的最好选择。虽然端侧模型可能在性能上有一些短板,但是在特定的场景和条件下,它仍然可以满足用户的需求。
Q:在AIPC产业中,功耗和算力的变化有哪些趋势?
A:在AIPC产业中,我们可以看到功耗和算力有两个主要的变化趋势。首先,我们可以看到功耗在15瓦到65瓦之间,典型的应该是45瓦的。在这种功耗的情况下,我们可以看到算力会提升到40tops,这是相比于目前10tops的算力提升了三倍。其次,随着算力的增加,我们预计算力最终应该会超过80tops。
Q:AI应用在笔记本上的使用情况如何,有多少是用本地的算力在推理的,有多少的还是在用云端的在推理?
Q:云端模型的价格降低,会不会对端侧的成本优势产生影响?
A:我认为云端模型价格的降低对端侧的成本优势的影响有限。首先,谁掌握了入口,谁就有话语权。其次,云端模型的使用会增加延迟,影响用户体验。再者,用户的隐私数据在端侧更加安全。最后,端侧的算力应该是更便宜的,因为它不需要耗电。
Q:消费者对于隐私的需求有多大?
A:消费者对于隐私的需求是非常大的。因为没有人愿意把自己的数据全部都交到云端去。同时,端侧的数据处理可以提供更好的速度体验,也不需要花更多的钱。
Q:未来AI助手在不同终端之间的数据迁移需求如何实现?
A:未来的AI助手需要在不同终端之间实现数据迁移,这涉及到上云的过程。用户希望AI助手在PC、手机、手表等设备上无缝工作,这要求数据能够在不同终端之间自由迁移。
Q:为什么用户更倾向于使用iCloud而不是其他云盘服务?
A:用户选择iCloud主要是因为其依赖于iPhone。iCloud作为iPhone的附属服务,用户在使用iPhone时自然会选择iCloud,而不是其他云盘服务。这是因为谁掌握了设备入口,谁就能引导用户选择相应的云服务。
Q:不同云服务之间的数据共享存在什么问题?
Q:品牌厂商在AI能力上是否存在短板?如果存在,他们如何应对?
Q:当前PC厂商处于什么样的竞争状态?
Q:哪些PC厂商在软件方面的布局比较积极?
A:从我观察来看,头部的PC厂商在软件方面的布局更加积极,因为他们的投入产出能力更强。这是因为他们的硬件规模更大,可以支持更多的投入。
A:我们确实与国内某些公司有深度合作,但具体公司不便透露。
A:目前模型开发尚未形成统一标准,各公司仍在各自定义和探索。国内厂商在标准化制定和合作意识上不如海外,因此最终可能取决于谁的技术更强。
Q:未来AIPC的售价和毛利率会有怎样的变化?
A:AIPC的售价预计会从目前的6000元提升至8000元以上,主要由于增加了算力和应用,提升了用户效率。然而,由于PC产业是一个充分竞争的市场,毛利率预计不会有太大变化。
Q:未来AIPC中哪些功能最能吸引消费者换机?
A:消费者换机更多是行业转变的结果,而非某个具体功能的吸引。对于行业从业者,如程序员、设计师、媒体从业者等,AIPC能显著提升工作效率,因此他们更有可能因为这些提升而换机。大众消费者对AIPC的感知不明显,主要取决于AI在各领域的发展程度。