AI爆火,英伟达GPU芯片利润高达1000%,还供不应求

互联网乱侃秀
关注

2023年最火的当然是ChatGPT这种AI大模型。

不仅在国外火,在国内也火,按照机构的统计,仅国内的AI大模型就高达上百个,而全球已经有超过500个AI大模型在推进。

而AI大模型背后,需要的就是GPU显卡,且主要就是英伟达的GPU,特别是A100、H100这些。

按照说法,GPT-4可能在大约10000-25000张A100上进行了训练,而根据马斯克的说法,GPT-5可能需要30000-50000个H100。

之前有机构表示,OpenAI一天的花费就是70万美元,也就是500万1天,如果融不到钱,也许2024年就得倒闭,可见搞AI大模型到底有多烧钱。

而AI大模型有多烧钱,就代表着英伟达有多赚钱。

目前在市场上,像A100是一卡难求,而在国内由于A100被美国禁售,只有阉割版的A800,但也是一卡难求,涨价涨至天际。

而最新的H100,更是火爆的不得了,据称目前价格已经被炒至3万美元左右,而实际上其物料成本预计只有3000美元,也就是说利润高达10倍,利润率高达1000%!

当然,这么简单粗暴的直接按物料成本来算利润,是不合理的,毕竟像H100被研发出来,还要考虑研发成本,研发人员的工资等等这些物料之外的成本。但不可否认的是,英伟达的利润是真的高。

这也是为什么,像intel、AMD等厂商,在今年亏的这么惨,而英伟达则业绩飙涨,原因就是GPU芯片太火爆了,目前nvidia的市值超过1万亿美元,也是全球唯一一家市值过万亿美元的芯片企业。

不过也有人表示,目前别看AI大模型这么火,但最终能够活下来的可能不会超过10%,另外的90%都会倒掉,到时候全球的GPU芯片都会过剩,然后整个GPU市场都会雪崩。

未来会不会是这样,谁也不清楚,但这并不重要,不管市场雪崩不雪崩,英伟达的钱已经赚到手了,崩了又如何,不崩又如何呢?

       原文标题 : AI爆火,英伟达GPU芯片利润高达1000%,还供不应求

声明: 本文由入驻OFweek维科号的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。
侵权投诉

下载OFweek,一手掌握高科技全行业资讯

还不是OFweek会员,马上注册
打开app,查看更多精彩资讯 >
  • 长按识别二维码
  • 进入OFweek阅读全文
长按图片进行保存