芝能智芯出品
在2025年COMPUTEX台北国际电脑展上,高通CEO克里斯蒂亚诺·阿蒙展开了一场紧拥AI所有热点的主题演讲,形成清晰方向:
◎ 高通正由移动端向远端、PC和服务器应用全面扩张,将ARM开发者经济推向极致。
◎ 既要采用异构性经济模型,也要在硬件和经济池全链路里进行基础设施级之战。
◎ 核心的筹码是过定制化Oryon核心、NVLink Fusion兼容的服务器CPU和AI加速器。
Part 1
重新定位PC和边端端AI:
从成本优势转向能效展示
高通的PC策略改变正在2025年全面显现。
采用自己定制Oryon核心的高通高级SoC,既有手机级能效,又拥有足以支撑大模型本地运行的45TOPS NPU。
把Copilot+ PC带入ARM模型的这一上升,正是高通试图从功能力量、能效性能和数据隔线三个方面重绘端AI运算位置的试点。
当前已有超过85款基于高通X系列平台的Windows 11 AI PC正在开发或已量产,包括微软主播全线OEM商。
前所未有的是,高通将AI PC价格降到600美元级别,让AI能力真正治愈中位最大量。
基于ARM的高效能应用展示正在逐步散发:高通分别打通了左右两边,一边是提升大模型系统本地算力,另一边则是跨平台环境下实现多模态达成。
思考到应用兼容性问题,尤其是在游戏组件应用和需要操作系统优化支持的软件基础上,高通仍然不充分成熟。但一旦操作系统原生ARM化进程加速,完善兼容和虚拟化工具链,就有望与Apple M系列引发硬核对冲。
Part 2
远端的反攻:
重返服务器CPU市场,
展示边端到数据中心的全基底连接
在终端侧,高通通过集成高达45 TOPS算力的NPU,使设备能够在本地运行大型语言模型(如Llama 2)。
实现文档摘要、图像生成等功能,从而提升响应速度和隐私保护。
这种终端AI的“基础设施”建设,为高通在数据中心市场的布局提供了重要借鉴。
阿蒙在演讲中提到,高通正在开发一款兼容NVIDIA NVLink Fusion的服务器CPU。
数据中心战略不仅关注性能,还强调与现有AI生态的互联互通。
通过与NVIDIA的合作,高通能够利用NVLink Fusion的高带宽互连技术,将其定制CPU与NVIDIA的GPU架构无缝整合,满足AI推理和训练对高性能计算的需求。
高通在能效上的专注是其差异化竞争的关键。
无论是骁龙X系列处理器在PC市场的低功耗表现,还是即将推出的服务器CPU,高通都试图通过ARM架构的天然优势,挑战英特尔和AMD在数据中心市场的传统霸主地位。
尤其是在全球数据中心对能效日益重视的背景下,高通的低功耗设计可能成为其突围的关键。
ARM架构在服务器市场的普及仍面临生态适配的挑战,例如软件兼容性和开发工具链的完善程度,这将是高通需要克服的首要障碍。
比起PC,高通在服务器领域的旋弯更倾向于经济和设备模型的重塑。
这不是第一次高通规划进军服务器行业,上一次Cloud AI 100推理加速器有限流行,且就在成本和速效之间被英特尔、AMD低价拥止。
既然ARM有效能、零部件结构灵活等致命优势,高通重返远端市场展示了最大经济性时代下的新力量重构冲动。
进一步使用与NVIDIA共同开发的NVLink Fusion接口把小柱大柱打通。
这一把实际上是把数据中心和边端端AI把成一个软硬件通用平台,带来不仅是性能性价比的合理性,更有模型通用和互联网连通的未来规划力量。
这次高通水面上放出X2000P服务器级SoC战略,有望成为它所谓“重逢服务器”的正式发展线。依托ARM和Oryon专属核心,它正完成从手机、PC到云端的“全基底”结构。
采用ARM核心与性能重构策略,高通正在重写自身在计算行业的地位。
高通不再是简单的手机硬件供应商,而是一个与时代同步,采用ARM内核重构计算网络平台的全步骤运算公司。
从Copilot+ PC到数据中心,从端运算到分布式AI服务,高通正展现出一端到云端的全基底连接网。软件兼容性、经济性与应用经验的突破需要时间。
小结
阿蒙在演讲里提到:如果能拥有“独特且颇有频道性”的产品,高通就有够的空间重写分布式计算的规划杆。现在的竞争都不单纯。
原文标题 : COMPUTEX 2025|高通采用ARM主核重推AI PC和服务器市场