资讯-虎嗅网 ( ) • 2024-05-08 14:05

本文来自微信公众号:未尽研究 (ID:Weijin_Research),原标题《苹果M4芯片,争夺主导AI用户体验》,作者:未尽研究,题图来自:视觉中国

苹果在新版本的iPad Pro发布会上推出了一款M4芯片,展现了其在AI领域的雄心壮志。

• 💡 M4芯片采用第二代3纳米工艺,拥有10个CPU内核和10个GPU内核,具备强大的“神经网络引擎”性能

• 🚀 苹果将在今年推出的A18芯片和M4芯片突出其NPU优势,提供持续丰富的产品差异化机会

• 💭 苹果通过M4芯片的发布,展示了对端侧算力和大模型部署的重视,为AI用户体验提供了新的可能性

苹果在新版本的iPad Pro发布会上,推出了一款M4芯片,让库克可以宣称胜过当下任何所谓的AI PC。

他话中有话。或许是指微软,可能将于两周后在其Build开发者大会上推出的Surface笔记本电脑,可能搭载了高通的骁龙X Elite芯片。

不止于此。M4的发布,是苹果今年AI策略打响的第一枪。

争夺端侧算力TOPS

M4芯片采用了第二代3纳米工艺,拥有10个CPU内核和10个GPU内核。苹果最想强调的,是它的16核38TOPS的“神经网络引擎” (即业内俗称的NPU)性能。苹果还指出,M芯片是业内最早具备NPU的芯片。而在以往,苹果并不怎么突出这一点。

发布的时机相当不寻常。苹果首次在iPad而不是Mac的发布会上发布M系列芯片。M3芯片仅仅发布了7个月,但它很快被高通发布的骁龙X Elite和Plus系统芯片超过。M3的NPU功能仅有18 TOPS,而骁龙X Elite的NPU功能达到45 TOPS。

TOPS的意思是万亿次浮点运算,它决定着端侧的生成式AI计算力。M4的38TOPS,仍低于业内逐渐公认的AI PC配置40 TOPS NPU的标准。尽管M4比骁龙 X 的NPU拥有更高的精度,实际应用起来在深度学习的许多方面表现出优势,但从营销的角度考虑,苹果芯片中的NPU,可能需要更多的TOPS。

大模型向端侧部署,不仅是生成式AI最大的应用场景,而且也是端侧设备最重要的创新点——个人AI终将落地于个人设备。

AI正在席卷所有的端侧设备,从PC、手机、平板到汽车。在这样一个技术和产品变革中,苹果已经被市场认为行动有些迟缓。苹果既然放弃了汽车,而Vision Pro仍然需要一个成熟的过程,在现有的设备上能否引领AI用户体验,成为今年苹果面临的最大挑战。

苹果最大的底气,仍然是其软硬件结合的技艺。芯片、操作系统、产品设计所构成的精良制作和用户体验,在当下的问题就是如何把大模型完美地集成进去。

苹果在为其设备上能跑本地大模型做准备。在下个月举行的苹果开发者大会上,苹果将会推出iOS18及iPadOS18。

但最重要的,仍然是芯片。M4与今年秋季即将推出的A18芯片,都将突出其的NPU优势。拥有芯片,就能在系统层面产生持续的、丰富的产品差异化机会。

但在AI时代,仅有端侧的芯片能力是不够的。最终在设备上所有的AI应用、所有的运行的大模型的用户体验,仅仅有端侧芯片还不够。

端到端的AI用户体验

就在苹果发布M4芯片的头一天,传出了苹果在做数据中心推理芯片的消息,这个内部项目代号AC/DC(Apple Chips in Data Center)。苹果一如既往地保密,据说已经和台积电偷偷搞了好几年了。(但也有消息指出该消息不实,彭博社记者Mark Gurman对此表示:“这个项目已被取消,苹果不会制造自己的AI服务器芯片,因为成本原因与缺乏差异化。”)

M4和A18可能已经解决了端侧部署模型的异构算力问题。但这还不够,因为用户仍然需要云计算,需要由本地计算与云计算的结合,才能获得生成式AI的完整体验。苹果需要在云和端混合的神经网络计算,才能提供让用户期待的推理。

苹果需要在数据中心的层面开始,建立起推理引擎。从芯片设计开始建立推理引擎服务,已经出现了类似Groq这样的公司,它从推理芯片做起,以数据中心为基础提供了最快速的推理引擎,SOTA的开源大模型,都能在这样一个推理引擎上跑出最快的速度。速度对于视频,对于在建立起AI代理的工作流中特别重要。

在速度与准确之间存在着矛盾,如何做到速度与准确性兼得,这需要在推理服务与具体的应用场景结合起来,关键是性价比、总拥有成本(TCO)、与用户体验的“最优解”。这是苹果需要解决的问题。用端到端的方法,把服务器芯片、端侧芯片、大模型的部署与适配、操作系统结合起来,才能解决AI用户体验最基本的推理问题。

巨头要做AI,必须加入AI军备竞赛:芯片,算力集群,基础设施。苹果正在逐步认清这个道理。

在生成式AI时代,在这个快速变化、技术曲线陡峭上升的阶段,苹果需要成为这条曲线的一部分,否则,它将被这条曲线抛弃,失去它自己的下一条曲线。

这条曲线的最底层逻辑,是AI计算。在技术变革期,苹果必须象它最初做PC一样,像做个人计算一样,只有垂直整合,才能最后建立起真正的AI用户体验。

不向英伟达交税

在科技巨头中,最牛的就是能“收税”的。苹果凭借其生态系统,成功地从其开发者和生态合作伙伴那里收取了高额的费用——最高如谷歌搜索引擎的每年高达200亿美元的费用,达到其广告收入的36%。

现在又来了个比苹果更能收税的,就是英伟达,它的毛利率在80%左右,如果算上H100短缺在市场上的加价,它的毛利率可以达到90%。

处于食物链金字塔顶端的苹果,不会接受向英伟达直接交税。苹果生态用的数十亿设备及其用户,可能是世界上最大的推理算力的需求方,它必须为自己建立起推理的数据中心,这就需要推理AI芯片做起,建立起自己的算力集群。

苹果有一个顶尖的芯片设计团队,但是因为苹果不做AI服务器芯片,技术人才在流失,许多人跳槽或者创业去了。最知名的如跳槽到高通的Gerard Williams III。高通一直在试图进入数据中心领域。

除了英伟达之外,M7中的5家,都已经在自研GPU应用芯片,只剩下苹果了。

本文来自微信公众号:未尽研究 (ID:Weijin_Research),作者:未尽研究