老黄不想大家离开英伟达。
从供应商到全球AI工厂
5月19日消息,黄仁勋在亚洲最大的电子科技展会之一Computex 2025电脑展进行首场主题演讲,发布全新NVIDIA GB300 NVL72平台、NVIDIA NVLink Fusion半定制专用AI芯片、RTX PRO Server企业级AI计算平台等众多产品,重新定位为AI基础设施建设公司。
NVIDIA GB300 NVL72
这次黄仁勋提出了“AI工厂"的全新概念,并详细阐述了Grace Blackwell系统的技术优势与升级路线图。相比2024年侧重于硬件性能的提升,2025年更加强调AI技术路线的演进,从感知型AI到推理型AI再到物理AI的发展路径,同时深入布局电信、量子计算等新兴领域。
黄仁勋称,基于NVIDIA产品测算,未来AI计算能力每10年提升大约100万倍。在黄仁勋看来,从Agentic AI到物理 AI,是AGI路程的关键一步,而通用机器人将开启下一个万亿美元产业。
看上去老黄又画大饼了,而且是前所未有的巨大。但谁让黄仁勋是马斯克都低头求见的男人呢?英伟达不仅是AI设备供应商更是AI造梦师,离开了强有力的算力,谁讲任何AI故事都显得底气不足。
从数据来看,英伟达产品并没有出现滞销。2024年英伟达数据中心的 GPU 出货量总计约 376 万台,较之上一年的 264 万台增长 100 多万台,并成为历史上规模增长最快的硬件公司。据估计,2025 年英伟达销量将达到 650 万至 700 万块 GPU。
美银甚至认为人工智能(AI)芯片是“新货币”,在地缘政治谈判中起到了至关重要的作用,且近期中东地区的大型项目也突显出对人工智能计算的长期需求。而最大的芯片供应商就是英伟达,可以说大部分AI公司都绕不开英伟达。所以我们不需要担心英伟达没有故事可讲,但讲好一个故事也并不容易。
最有想象力和低门槛的还得是能够部署大模型的DGX Spark。在这次大会上黄仁勋宣布全球最小 AI 超级计算机 DGX Spark 已全面投产,将于数周内就绪。黄仁勋甚至乐观的说:“今天,每个人都能拥有自己的AI超算,而且……能插在厨房插座上。”
随着生成式 AI 应用爆发,开发者对本地化算力的需求激增。据广发证券测算,2025 年全球 AI 推理算力需求将是训练算力的 3 倍以上,而传统云端部署面临数据隐私、延迟和成本压力。DGX Spark 的出现,使中小型企业和个人开发者能够以消费级成本获得超算级算力,大幅降低 AI 创新门槛。
此外,英伟达正在快速转向量子计算市场,老黄为数不多的承认自己判断错误。今年1月,黄仁勋表示,量子计算投入使用至少还需要20年时间,但3月份又公开表示对量子计算应用时间的预测言论是错误的。此次演讲中黄仁勋表示,英伟达正在开发量子经典或量子GPU计算平台,他预测未来所有超级计算机都有量子加速部分,超级计算机将拥有GPU、QPU(量子处理单元)和CPU。
量子计算层面,英伟达宣布开设量子 AI 技术全球商业研发中心 (G-QuAT),该中心拥有世界上最大的专用于量子计算的研究超级计算机 ABCI-Q,有望增强AI 超级计算机,解决医疗保健、能源和金融等行业中一些全球最复杂的挑战,并且朝着实现实用化加速量子系统迈出重要的一步。
想脱离英伟达生态?老黄喊“别走”
这几年英伟达芯片的暴利有目共睹,你花了十倍溢价还要来感谢黄仁勋卖芯片之恩,长期来看没人受得了。所以Meta 用 ASIC 取代了英伟达处理其一些最大的 DLRM 工作负载,谷歌也用同样的方法处理了 YouTube 的关键视频编码工作负载。亚马逊早在 2012 年就用 Nitro 取代了虚拟机管理程序,并用 Graviton 取代了大量英特尔 CPU。云巨头以及 Marvell、Broadcom、Astera、Arista 和 AIchip 等主要设计合作伙伴已经投入了大量资金和工程人才,以削弱英伟达的垄断。
如今,许多巨头依赖于内部解决方案:谷歌的 Pathways 比其他解决方案在边缘情况和故障类型方面表现更优,同时能够灵活处理同步和异步数据流。Pathways 还擅长检测和修复几乎无法察觉的、绕过 ECC 的 GPU 内存问题,而英伟达的诊断工具 (DCGM) 可靠性要低得多。英伟达也难以提供具有竞争力的分区和集群管理软件,其 BaseCommand 系统(基于 Kubernetes 构建)旨在实现跨平台,并兼容异构系统。
既然封闭的英伟达生态让大客户离心离德,那么不如直接半开放,可以买英伟达芯片,也可以自己的定制芯片用英伟达的CUDA。
黄仁勋正在将“AI工厂”视为下一个5年的关键。在这场产业变革中,每家“AI工厂”的任务各不相同,所需AI基础设施的最优配置,也可能略有不同。英伟达决定适度开放,允许客户“半定制”自己的“AI工厂”,选择将自己的CPU与英伟达的GPU一起使用,或将英伟达的GPU与其他定制AI芯片一起使用。甚至,定制AI芯片都不一定非得是用来加速transformer架构模型的。
NVLink Fusion为新玩家打开了AI生态系统,尤其是要在ASIC芯片市场中要占有一席之地。不过,英伟达可能也要冒着降低市场对其产品需求的风险。对于正在抓紧研发定制AI芯片的云服务商,以及联手支持竞争方案UAlink的英特尔与AMD而言,这是英伟达的一次主动出击。理论上,它可以让谷歌TPU、亚马逊Trainium、微软Maia和META的MTIA,无缝融入自己的“AI工厂”,包括CUDA生态以及更多软硬件技术栈。
NVLink Fusion
对于欧美大厂完全脱离英伟达并不是明智选择,但要是面临“英伟达税”什么都不做那也不对。黄仁勋的“半开放策略”正是大厂所需要的过渡性最佳选择,进可攻退可守,老黄也要掂量一下芯片有没有卖得太贵了。
英伟达不想缺席中国市场
在本次演讲中,黄仁勋没有太多提及中国大陆地区业务。但演讲结束后,黄仁勋在与科技博客Stratechery作者Ben Thompson对谈中称,最近,特朗普政府废除AI扩散禁令,重新开放,着手“收复”中东市场,但这只是过去市场10%左右的修复,如果不进入中国市场,另外90%都将无从实现。
当外界都在把目光放在英伟达台湾省新中心的时候,出人意料的是,最近有媒体爆料英伟达计划在上海建立一个研究中心。英伟达首席执行官黄仁勋4月访华期间与上海市政府讨论了该计划,且已经在上海租赁了新的办公空间。
伴随着老黄半年来两次访华又有新的投入动作,不难看出英伟达不能失去中国市场,哪怕在地缘冲突中左右为难,这生意也不能放弃。
英伟达财报显示,在截至1月的2024自然年中,英伟达中国区年营收171.08亿美元(约合人民币1235亿元),为史上最高,比前一年103.06亿美元增长66%。同时,英伟达2025财年中,53%的收入占比来自美国以外的地区,中国大陆地区是英伟达的第二大销售额地区:美国占比47%排第一,中国大陆占比13%排第二。
全世界范围内,中美两国是最积极、也最舍得在算力上投资的国家,根据国际市场调研机构Omdia的数据,2024年英伟达Hopper系列芯片全球前五大买家分别是微软(48.5万枚)、字节跳动(23万枚)、腾讯(23万枚)、Meta(22.4万枚)、亚马逊(19.6万枚)。
2024年四季度,腾讯、阿里的资本支出增速分别高达386%、258%,在全球主要科技公司中排名第一和第二。另据《财经杂志》统计,2025年字节跳动、阿里、腾讯的资本支出总额预计将增长约69%,而亚马逊、微软、谷歌、Meta、Oracle今年的资本支出总额预计只增长大约29%。
所以黄仁勋表示,如果无法进入中国市场将会是企业“巨大的损失”。他预估,未来两到三年,中国 AI 市场规模可能达到500亿美元。
那么英伟达想留在中国市场,又可以做什么呢?
第一需要适当技术妥协:晶体管数量从原版B200的2080亿削减至约1500亿,HBM容量或提升至120GB以弥补算力缺陷,采用多芯片互联技术(NVLink)拼接算力单元。第二合规进一步收紧:通过GDDR7替代HBM,并限制互连带宽至500GB/s以下,符合美国“性能密度”指标。第三定制化生产:预计2025年晚些季度推出,目标在合规前提下保持对华为昇腾等本土芯片的代差优势。
简单来说,英伟达在大陆市场目前只能提供中低端芯片,继续“魔改和大修”也是不得不为之。有些专家认为未来英伟达也可以通过“云服务和算力租赁”的方式,继续为中国企业提供算力服务。笔者认为想法很美好,但是目前美国BIS部门直接提出了“如何防止美国的AI芯片被用来帮助训练中国大模型”这样的指导意见,那么英伟达的“调整空间”必然会非常有限。
写在最后
对于本次英伟达发布这一系列新品,黄仁勋还特意改变了促销口号。从“买的越多,省得越多”,变成了“买的越多,创造的越多”。看来老黄也意识到了现阶段大家更关心AI如何落地,能否帮企业和个人赚到钱。英伟达可以有各种各样的故事,但企业更需要降本增效,英伟达需要告诉大家眼下应该怎么办。
参考资料:
一文读懂老黄ComputeX演讲 来源:华尔街见闻
英伟达兼容国产芯片的想象 来源:未尽研究
中国市场对英伟达到底有多重要 来源:市值观察
英伟达为什么离不开中国 来源:和讯
原文标题 : 英伟达“变身了”,更加需要中国市场了