在接下来的几年里,芯片制造商巨头和资金雄厚的创业公司将瓜分专业AI芯片的市场份额。
在计算密集型的人工智能领域,硬件供应商正在以摩尔定律高峰期的性能提升速度不断推陈出新。这种提升来自于针对深度学习等人工智能应用的新一代专用芯片。但是,人工智能芯片市场正在出现的支离破碎化将让开发商面临一些艰难抉择。
将芯片专门针对人工智能应用而定制的新时代始于最初为游戏应用开发的图形处理单元被部署用于深度学习等应用。让GPU渲染逼真图像的同一个架构可以比中央处理单元(CPU)更为有效地处理矢量数据。2007年,英伟达发布了CUDA,这是一个支持GPU以通用方式编程的工具包,这是GPU发展过程中的重要一步。
在处理深度学习这种前所未有的高性能计算要求时,人工智能研究人员需要利用力所能及的所有优势。在人工智能的推动下,GPU的处理能力迅速发展,最初设计用来渲染图像的GPU反过来又成为了推动可以改变世界的人工智能研究和开发的主要力量。为了让Fortnite这种图像渲染工具可以以每秒120帧的速度运行,需要实现诸多线性代数运算,现在,同样这些运算被部署在了计算机视觉、自动语言识别和自然语言处理等前沿应用核心的神经网络中。
现在,人工智能芯片专业化的趋势正在演变成一场军备竞赛。据Gartner预计,人工智能专用芯片的销售额将在2019年翻一番,达到80亿美元,到2023年时这一数字将增长到340亿美元。在英伟达的内部预测中,到2023年时数据中心GPU市场(几乎全部用于深度学习)规模将达到500亿美元。在接下来的五年中,亚马逊、ARM、苹果、IBM、英特尔、微软、英伟达和高通将在人工智能专用芯片上展开大量投资。参加军备竞赛的除了这些芯片巨头外,还包括一些创业型公司。据CrunchBase估计,包括Cerebras,Graphcore,Groq,Mythic AI,SambaNova Systems和Wave Computing在内的AI芯片公司已经筹集了超过10亿美元的投资。
需要说明的是,专用AI芯片是将前沿AI研究迅速转化成实际应用的催化剂,所以它很重要,也颇受欢迎。但是,大量新出现的AI芯片,一个比一个快,一个比一个专业,似乎会限制企业软件的崛起。我们可以预计,这些AI芯片公司会进行低价促销,并进行软件的专业化,以将开发人员锁定在只跟一家供应商合作。
试想一下,如果说15年前,云服务AWS,Azure,Box,Dropbox和GCP都会在一年到一年半之内上市,它们各自的任务就是锁定尽可能多的企业客户,所谓锁定是指你一旦选定了一个平台,就很难将自己的技术投资切换到另一个平台上。这种情况将发生在AI专用芯片领域,从而使得大量投入了巨资的研究都受到威胁,因为客户很难从别的平台转移到你的平台上来。
芯片制造商们肯定会向开发人员做出一些美好的承诺,而且基本上可以兑现。但是,对于AI开发人员来说,重要的是,即使其它供应商搭载了新架构的新芯片的性能更快,也很有可能会拖慢自己将产品推向市场的速度。在大多数情况下,AI模型无法在不同的芯片制造商的器件之间进行移植。所以,开发人员必须将供应商通过专用AI芯片和专业软件将自己锁牢的风险牢记在心,在过去,实际的计算引擎都已经标准化而且同质化,所以移植很方便,可以自由地在不同供应商之间切换。但是现在,在人工智能开发领域,这种情况将发生巨大变化。
将来的芯片产业很可能有超过一半营收都来自于人工智能和深度学习等应用,就像软件能够产生更多的软件一样,AI也会催生更多的AI。我们已经多次看到了这种衍生效应:公司一开始专注在一个问题上,但是最终却解决了很多问题。比如,大型汽车制造商们正在努力实现自主驾驶,他们在深度学习和计算机视觉方面开展的前沿性工作产生了连锁效应,其研究成果可以应用在福特的送货机器人等分支性项目中。
随着专用AI芯片陆续上市,目前的芯片制造商巨头和大型云服务公司可能会锁定一些客户,和他们达成独家协议,或者由于很难争取客户而只能收购那些表现出色的创业公司。AI芯片专用化的趋势将会让AI市场变得支离破碎,而不是使之趋于大一统。对于人工智能开发人员来说,现在可以做的就是,了解这个行业的发展趋势,并做些规划,权衡更快的芯片带来哪些好处,同时又带来多大的开发难度,以及在新架构上设计自己的产品的成本如何。