OpenAI,自研芯片!

OFweek电子工程网 中字

引言

一场价值5000亿美元的豪赌,OpenAI会赢么?

2月10日,当全球科技巨头仍在为争夺英伟达H100芯片挤破头时,OpenAI突然曝光,首款自研AI芯片设计即将完成。

3nm工艺+高带宽内存

据内部消息,该芯片采用台积电3纳米制程,配备与英伟达同级的HBM(高带宽内存),脉动阵列架构使其在训练大模型时效率提升40%以上。这意味着未来训练GPT-5的时间或缩短一半。  

技术细节:脉动阵列通过数据流水线化处理,可最大限度减少内存访问延迟,而HBM则让芯片在单位时间内吞吐量暴增,这正是大模型训练的命门所在。

“谷歌大脑”团队操刀

该芯片的设计团队由前谷歌TPU核心成员Richard Ho领衔,过去半年团队规模翻倍至40人,并获博通技术支持。

这种“硅谷顶尖工程师+芯片巨头”的组合,让OpenAI仅用18个月就走完其他公司5年的研发路。

该芯片单次流片成本约数千万美元,但行业人士估算,包含软件生态构建的总投入或达5亿美元。这相当于微软2025年AI预算的0.6%,不过却可能撬动千亿美元市场。

英伟达"算力霸权"正被瓦解

OpenAI自研芯片最直接的目标,是摆脱对英伟达80%的供应依赖。若2026年量产成功,其数据中心采购成本将直降30%,这对每年烧钱数十亿美元训练模型的OpenAI堪称救命稻草。  

微软、Meta等巨头自研芯片屡屡受挫,OpenAI若成功将刺激更多企业加入混战,英伟达“一家独大”格局或终结。

就在OpenAI亮剑之际,中国AI公司DeepSeek此前凭借算法优化,用1/10算力跑出同等性能模型,轰动全球

芯片行业和市场陷入深思:未来究竟需要更多芯片,还是更聪明的算法?

有分析师指出,算法优化可能让全球AI芯片需求减少20%,但OpenAI的选择表明,顶级玩家仍在押注“硬件军备竞赛”。

“芯片-模型”协同进化论

OpenAI工程师透露,该芯片将支持模型参数规模突破百万亿级,且计划每12个月迭代一次。这意味着未来的GPT-6可能直接运行在专为其定制的“大脑”上,形成“芯片设计→模型升级→芯片再设计”的正向循环。

芯片量产时间点(2026年)恰与拜登政府“国家AI基础设施计划”重合。值得玩味的是,OpenAI已参与特朗普提出的5000亿“星际之门”计划,这场跨越党派的AI霸权争夺,正在芯片制造环节悄然升级。

不过当OpenAI用芯片重新定义AI生产力时,很多人早已通过DeepSeek嗅到机会——用AI工具批量生成爆文、视频脚本、商业运营、代码生成,解放生产力,甚至开始变现。

「维科网电子」有清华博士后团队撰写的《DeepSeek从入门到精通》使用手册,可关注「维科网电子」公众号,跳到下面文章链接进行免费领取:清华DeepSeek使用手册,太强!免费领!


声明: 本网站所刊载信息,不代表OFweek观点。刊用本站稿件,务经书面授权。未经授权禁止转载、摘编、复制、翻译及建立镜像,违者将依法追究法律责任。
侵权投诉

下载OFweek,一手掌握高科技全行业资讯

还不是OFweek会员,马上注册
打开app,查看更多精彩资讯 >
  • 长按识别二维码
  • 进入OFweek阅读全文
长按图片进行保存