具备大算力又低功耗的高能效比芯片,正是当下市场中所“缺失”的版图。
AI应用版图不断扩大,算力需求缺口犹在
依据艾瑞咨询所统计的数据,预计到2022年,国内AI赋能实体经济的市场规模将达到1573亿,约是2018年的6.3倍,足以可见AI应用落地的速度之快、范围之广。
而在应用增长的背后,我们看到的是市场对于AI算力需求的增长。
此前OpenAI曾发布一份报告,提到自2012年至2018年,AI算力需求在6年期间增长了30万倍,3.5个月就会翻一倍,远远快过摩尔定律“18个月”的周期。
随着5G商用和云计算需求的迅猛增长,物联网得以快速发展,更是引发了新的算力需求。
目前智能计算芯片的市场规模有多大?仅从赛道玩家的角度来看,除了英特尔、AMD等传统芯片企业,包括Facebook、亚马逊、谷歌以及国内的BAT等互联网科技企业也正在不断涌入,另外还有数量更为庞大的初创企业。
而大算力带来的过高功耗,使得大量场景无法普及应用。场景对于“能效比”越来越敏感,致使“大算力又低功耗的高能效比芯片”的市场呼声也越来越高涨。
高能效比芯片的背后:大算力与低功耗是相悖命题
观察市场上的智能计算芯片公司,可以看到他们也一直探寻大算力、低功耗的智能芯片解决方案。然而大算力与低功耗就存在性而言,一直都是相悖的。
就具体产品而言,有的厂商会选择做专用芯片,但这也意味着通用性差,应用场景受限。有的厂商主打芯片低功耗,但是算力往往不尽人意,不能满足大场景需求。
目前智能计算芯片厂商大多采用优化芯片制程工艺(7nm、5nm、3nm等),来提升芯片性能。但在摩尔定律下,晶体管微缩越来越难,面临各种物理极限挑战,3nm被公认为已经达到摩尔定律的物理极限。提升算力兼具降低功耗这条路已经越走越艰难。
大算力、低功耗如何实现质的飞跃?厂商们在想办法
当前芯片主要采用冯·诺依曼架构,存储和计算物理上是分离的。有数据显示,过去二十年,处理器性能以每年大约55%的速度提升,内存性能的提升速度每年只有10%左右。结果长期下来,不均衡的发展速度造成了当前的存储速度严重滞后于处理器的计算速度,出现了“存储墙”问题,最终导致芯片性能难以跟上需求。
英伟达提出的“黄氏定律”,预测GPU将推动AI性能实现逐年翻倍,采用新技术协调并控制通过设备的信息流,最大限度减少数据传输,来避免“存储墙”问题。
不同于英伟达的做法,还有一部分芯片玩家将突破点放在冯·诺依曼架构上,比如近期完成天使轮融资的南京后摩智能科技有限公司。
他们打破传统的冯·诺依曼架构,创新计算范式,基于全球领先的存算一体技术和存储工艺,突破智能计算性能及功耗瓶颈,可将芯片每瓦功耗的算力提升5-10倍。正如阿里达摩院在发布的技术报告所言,AI的出现与存算一体格外匹配,这一技术也将大大改善现有的AI算力瓶颈。
另外在他们看来,全栈的团队才能快速达成芯片产品的快速落地及商业化应用,因此,后摩智能创立之初就组建了一支由多位国际顶尖学者和芯片工业界资深专家组成的明星级创始团队,对于GPU/CPU等高性能计算芯片及其软件生态建设有深厚的积累。创始人吴强博士在普林斯顿大学期间博士的论文,即为高能效比计算芯片及编译器,获计算机体系架构顶会MICRO时年最佳论文。他先后工作于AMD、Facebook,回国后加入地平线担任CTO,在体系架构和软件方面积累深厚,对边缘端和云端应用场景都有深刻理解和工程实践。
团队成员来自美国普林斯顿大学、美国Penn State大学、新加坡国立大学、加州大学、清华大学、北京大学、电子科技大学等国内外知名高校和AMD、Nvidia、华为海思等一线芯片企业,他们既有业内领先的全栈的存算一体技术,又有大算力芯片量产经验,他们有能力做出产品级高能效比芯片。
此前,GSMA Intelligence发布报告称,到2025年,全球将有13亿5G设备连接入网,这一可预见的现实正逼迫着芯片向着大算力、低功耗、低时延的方向进行升级,带动云计算平台和边缘端设备的智能升级。
此时,真正提高能效比,实现芯片的大算力、低功耗,并普及开来,已然成为芯片领域,尤其是智能计算领域一个新制高点。
作者:韩璐