如今已经被研发出来的AI芯片有哪些?

OFweek电子工程网 中字

人工智能是未来数年的主流和趋势,它是由算法、算力和数据组成,而算力的决定性因素就是AI芯片。目前全球从事AI芯片研究的企业接近百家,未来可能会更多,因为AI芯片分很多种,应用场景的多样化决定其芯片不一样。以云端和终端的芯片最多,其中大概有二三十家能成为主流的芯片,看看它们是哪些吧!

如今已经被研发出来的AI芯片有哪些?

一、高通

高通一直在和Yann LeCun在Facebook AI研究机构的团队保持合作,共同开发用于实时推理的新型芯片。高通一直专注于智能手机、汽车和机器人等终端侧人工智能的研究。高通的骁龙AI芯片,在高度集成的系统级芯片中提供异构计算的能力,成为目前众多AI手机的标配。。

二、英伟达

英伟达发布了一块新型芯片,极大的推动了机器学习的极限。这款特斯拉P100 GPU可以执行深度学习神经网络任务,速度是英伟达之前高端系统的12倍。据英伟达表示,P100是英伟达倾力之作,研发费用高达20亿美元,在一个芯片上有1500亿个晶体管,使得它成为世界上最大的芯片。除了机器学习,P100还能进行各种高性能的计算任务,英伟达只是想让你们知道这款芯片非常擅长机器学习。

三、苹果

苹果正在研发一款专门处理人工智能相关任务的芯片,他们内部将其称为苹果神经引擎。据称,这块芯片将能够改进苹果设备在处理需要人工智能的任务时的表现,如面部识别和语音识别等,新A11 Bionic神经引擎采用多核设计,实时处理速度最高每秒可以达到6000亿次。

四、谷歌

谷歌的人工智能相关芯片就是TPU,也就是Tensor Processing Unit。TPU是专门为机器学习应用而设计的专用芯片,通过降低芯片的计算精度,减少实现每个计算操作所需的晶体管数量,从而能让芯片的每秒运行的操作个数更高,这样经过精细调优的机器学习模型就能在芯片上运行的更快,进而更快的让用户得到更智能的结果。

五、微软

微软蛰伏六年,打造出了一个迎接AI世代的芯片。那就是Project Catapult。这个FPGA目前已支持微软Bing,未来它们将会驱动基于深度神经网络——以人类大脑结构为基础建模的人工智能——的新搜索算法,在执行这个人工智能的几个命令时,速度比普通芯片快上几个数量级。

六、IBM

百年巨人IBM,在很早以前就发布过wtson,现在他的人工智能机器早就投入了很多的研制和研发中去。而在去年,他也按捺不住,投入到类人脑芯片的研发,那就是TrueNorth,邮票大小、重量只有几克,但却集成了54亿个硅晶体管,内置了4096个内核,100万个“神经元”、2.56亿个“突触”,能力相当于一台超级计算机,功耗却只有65毫瓦。

七、三星

看到苹果和华为在AI芯片上投入巨大,三星自然不甘落后。近日,据韩国媒体报道,三星将在今年推出一款NPU,它们已经完成第一款神经处理单元的开发工作,这款芯片将用在自己的手机上。除了这款芯片,它们也在研发新的AI服务器芯片,准备将这款芯片卖给其它服务器厂商。

八、寒武纪

寒武纪于2016年发布全球首款商用深度学习专用处理器IP——寒武纪1A处理器打破了多项记录,入选了第三届世界互联网大会评选的十五项“世界互联网领先科技成果”。这款处理器基于寒武纪科技所发明的国际首个人工智能专用指令集,具有完全自主知识产权,在若干关键人工智能应用上实测,寒武纪1A达到了传统的四核通用CPU 25倍以上的性能和50倍以上的能效。

九、中星微

中星微电子推出量产的“NPU”芯片。对于企业而言,实现量产是定义‘首款’NPU芯片的标准。中星微CTO张韵东博士介绍,“星光智能一号”VC0758可以支持Caffe、TensorFlow等多种神经网络框架,支持AlexNet、GoogleNet等各类神经网络。每个NPU具有4个内核,每个内核有两个数据流处理器,每个流处理器具有8个长位宽或16个长位宽的SIMD运算单元。

十、紫光展锐

紫光展锐作为国内出货量最大的芯片厂商之一,其中低端芯片在非常占有率很高。对于AI芯片这块蓝海,它们也不会放过的,2018年,紫光展锐发布了首款支持人工智能应用的8核LTE SoC芯片平台—紫光展锐SC9863。面向全球主流市场,可实现AI运算与应用,提升移动终端的智能化体验。据悉,紫光展锐SC9863集成了LTE芯片,采用Cortex-A55架构,八核心设计,主频1.6GHz。相比A53,性能提升了20%,AI处理能力提升了6倍。

十一、思必驰

本来可以安心的做语音,可是语音进展慢,AI芯成为它们推向市场的一款杀手锏。2019年,思必驰发布AI芯片——深聪TAIHANG芯片(TH1520),据介绍,TH1520是一款聚焦于语音应用场景下的AI专用芯片,主要面向智能家居、智能终端、车载、手机、可穿戴设备等各类终端设备。TH1520进行了算法硬件优化,基于双DSP架构,内部集成codec编解码器以及大容量的内置存储单元,TH1520采用了AI指令集扩展和算法硬件加速的方式,使其相较于传统通用芯片具有10X以上的效率提升。

十二、云知声

2018年,云知声在北京召开新品发布会,正式推出全球首款面向物联网的AI芯片——UniOne。该芯片由云知声自主设计研发,采用云知声自主AI指令集,拥有具备自主知识产权的DeepNet、uDSP(数字信号处理器),支持DNN/LSTM/CNN等多种深度神经网络模型,性能较通用方案提升超50倍。

十三、深鉴科技

据悉,深鉴推出过六款AI产品,分别是人脸检测识别模组、人脸分析解决方案、视频结构化解决方案、ARISTOTLE架构平台,深度学习SDK DNNDK、双目深度视觉套件。芯片方面,公布了最新的芯片计划,由深鉴自主研发的芯片“听涛”、“观海”已经面市。

十四、比特大陆

2017年,比特大陆发布了全球首款公开发售的TPU(Tensor Processing Unit张量计算单元)芯片BM1680,专门用于人工智能中的深度学习加速。2018年,比特大陆又推出其第二款TPU芯片BM1682,BM1682是一块专门用于图像/视频处理方向的人工智能芯片。

十五、华为

2018年10月10日,在第三届HUAWEI CONNECT 2018(华为全联接大会)上,华为轮值董事长徐直军公布了华为自主研发的全球首个覆盖全场景人工智能的Ascend系列芯片。徐直军正式宣布了华为自研的人工智能昇腾芯片(Ascend)的存在,并同时公布了其中的两款——昇腾910和昇腾310,其中昇腾910(Ascend 910)是目前全球已发布的单芯片计算密度最大的AI芯片,昇腾310(Ascend 310)则是目前面向计算场景最强算力的AI SoC。

十六、百度

百度在2018年百度AI开发者大会上宣布推出云端全功能AI芯片“昆仑”,“昆仑”是中国第一款云端全功能AI(人工智能)芯片,也是业内设计算力最高的AI芯片。它的运算能力比最新基于FPGA的AI加速器,性能提升了近30倍。

总结

AI芯片也被称为AI加速器或计算卡,即专门用于处理人工智能应用中的大量计算任务的模块(其他非计算任务仍由CPU负责)。当前,AI芯片主要分为 GPU 、FPGA 、ASIC。AI的许多数据处理涉及矩阵乘法和加法,大量并行工作的GPU提供了一种廉价的方法,但缺点是更高的功率。

AI芯片该使用什么方法原理去实现,目前没定论,而人们的研究主要集中在如何更好的适应已有的数据流式处理模式进行的芯片优化设计。很多的AI芯片包括现成的CPU,GPU,FPGA和DSP的各种组合,未来AI芯片的趋势是怎样,还没有一个明确的定论。


声明: 本网站所刊载信息,不代表OFweek观点。刊用本站稿件,务经书面授权。未经授权禁止转载、摘编、复制、翻译及建立镜像,违者将依法追究法律责任。
侵权投诉

下载OFweek,一手掌握高科技全行业资讯

还不是OFweek会员,马上注册
打开app,查看更多精彩资讯 >
  • 长按识别二维码
  • 进入OFweek阅读全文
长按图片进行保存