今年8月,有个消息轰动了中国科技界,尤其是AI圈。由中国科研团队研发的“天机”芯片登上了《自然》杂志封面。相关文章展示了清华大学施路平团队研发的世界首款异构融合类脑芯片,它既可支持脉冲神经网络又支持人工神经网路,并且公布了利用“天机芯片”完成自行车自动驾驶的实验视频。
这件事给投资界、产业界的直接影响,是在近段时间“类脑芯片”和“类脑计算”相关的投融资、并购与创业公司突然多了起来。“类脑”相关的会议活动也突然增加。虽然说“类脑热”还远远谈不上,但这个领域的突然升温却是真实可见的。
如果我们把目光放得更远一点,类脑芯片确实在这几年有了大规模的爆发。各大学实验室以及科技巨头纷纷拿出了类脑芯片产品,也有不少专家学者认为,人工智能要经历简单人工智能、深度人工智能、通用人工智能三个阶段。而今天的深度学习代表了第二阶段的开始,类脑计算则是通用智能大门的钥匙。
事已至此,可能给大众的感觉是,类脑芯片已经是注定的未来,人类已经借由它找到了通向强人工智能的门径。
然而果真如此吗?类脑芯片是否就是AI的终极答案,今天还埋藏着太多不确定性。而想要客观认识类脑芯片的未来,我们可能必须要把时间倒回一些,先理解它的过去。
一段人类认识神经与大脑的过去。
神经行为学:AI之外的另一条路
从人类的大脑和智慧中,抽取提炼某种技术,是一件源远流长的工作。能不能让机械像人类一样识别、判断和思考,最终发展出了今天的AI。
而在另一项“兄弟研究”里,却一步步发展出了今天的类脑芯片——换言之,类脑芯片的起点某种程度上来说跟AI没啥关系。因为它类的是青蛙的脑。
早在16世纪,达芬奇就在手稿中分析过无头青蛙也能活的现象,某种程度上来说他发现了生物电和中枢神经系统的秘密。但是我们知道达芬奇手稿近世才被披露,所以这个发现就像他很多惊天发明一样变成了“达芬奇的秘密”。
1786年,伽格尼发现了青蛙挂在金属栅栏上腿会抽动的现象,继而一步步建立了早期生物电学。沿着青蛙们以高贵牺牲精神开拓的道路,人类逐渐发现了生物电和神经系统的奥秘。即生物的神经运转,是依靠生物电刺激神经元节点,最终实现了大脑控制机体的网状神经结构。
由这个结构开始,神经学界很自然就会思考另一个问题:既然动物是依靠神经元来传递信息、进行控制的,那么这种控制是如何发生的呢?
围绕这个问题,人类在20世纪开始漫长的,对神经传递、神经动力的研究,并在1963年完成了神经行为学的术语概念确认。这个学科中,研究者从生物、解剖、神经反射等多个角度提出了关于神经元的行为学模型。其中很多关于神经元计算的讨论,甚至早于AI概念的提出。
我们知道,今天人工神经网络是AI的基石,但人工神经网络的提出,其实只是上世纪70年代,AI和计算机学界对神经元研究的一次借鉴,主要是模仿了神经元分层处理的特征。它的基础还是坐落在统计学和控制论的概念上。
但随着AI和现代计算的不断发展,作为“兄弟学科”的神经行为学自身也在进步。于是就有人联想到了,能不能直接整体移植神经元系统,在现实世界里,把类似动物大脑中神经元行为的动力机制变成一种运算机制?
之所以要这么干,主要还是临近21世纪,人类发现冯诺依曼架构不断抵近极限。一种从根儿上不同于经典计算的计算架构,或许是最一劳永逸的解决办法。量子计算是一种解决方式,而全仿生神经元行为学的解决方案则是另一种——这一种在大部分时候就被简称为类脑计算。
事实上,类脑计算中除了神经元行为学的仿生计算,也还要其他计算方式。但今天,毫无疑问模仿神经元行为是最成功的一种,于是我们今天看到的二者大体是可以划等号的。
毕竟人脑肯定是最好的计算机,加上想发展AI,那么类似人脑结构的计算方式显然极具魅惑。于是类脑计算在众多新计算形式中天然占据着加分项,而又过了几十年,摩尔定律的极限愈发明显的今天,类脑计算也确实拿出了一些成绩。
类脑计算:比特之外的另一条路
想要了解芯片化的类脑计算之前,我们还要先了解两个东西:SNN和人造突触。
上面咱们说过了,人工神经网络(ANN),本质上还是一种基于统计学递归原理所构建的计算架构。那么想要搞类脑计算,就需要一种更仿生大脑神经元运作的计算架构。这种架构应该体现出人脑计算的高效、精准和连续性,从而对存储分离的冯诺依曼架构提出挑战。
是不是有这种东西呢?还真有。
这就是今天类脑芯片们的基础检验标准:脉冲神经网络SNN。1952年,发现了神经学的功能的离子学说和突触电位的诺贝尔医学奖得主,艾伦·劳埃德·霍奇金爵士提出了脉冲神经网络这种神经行为学模型。
SNN的价值在于,它描述了神经元之间的电位是如何产生和流动的,它认为神经元之间的交换主要靠“神经递质”来产生化学放电,从而在神经网络中实现复杂和可变的神经系统交互。
这一发明来到了计算世界,就变成了一种高度模仿神经元的计算架构。它用发生脉冲的仿生来模拟神经元电位,构成了一种独特的网络结构。 今天,SNN已经在很多领域,比如低功耗和通用处理能力证明了自己的优秀。
但是对于很多说SNN一定是ANN的进化,是下一代神经网络,这个说法有失偏颇。事实上,SNN的出现并不比ANN晚。说白了要有用早就用了,真正让它停留在实验室中的,还是缺乏实际的任务处理能力。但就像大规模并行计算重新激活了沉睡几十年的ANN一样,SNN的未来谁又说得准呢?
类脑计算的另一个关键点,是计算节点的问题。我们知道,比特计算的节点是晶体管的导电开关。而类脑计算则要求模拟出与人类神经元相似的计算节点,来实现非比特计算的另一条路。这也就是说,我们需要人造神经突触。
今天关于如何模拟,或者制造人工突触,已经有相当多的探索。但整体而言新材料还有这样那样的问题,能够量产的类脑芯片,基本还是用电路模拟人造突触的方式来实现类脑计算。这样做对工艺要求很高,生产效率地下,其实并非长久之计。
沿着这两条路,人类慢慢就摸到了类脑芯片的大门。
2011年,IBM发布了TrueNorth芯片,这也是人类用电路模拟神经行为学的开端。2014年TrueNorth更新了第二代,功耗达到了平方厘米消耗 20 毫瓦,印证了类脑芯片的低功耗价值,也在一些AI任务上印证了类脑芯片的实际工作能力。
而紧随其后的,想想也知道应该是英特尔。2017年,英特尔发布了类脑芯片Loihi,其拥有13万个人造突触。今年7月,英特尔发布了号称业界首个大规模神经形态计算系统Pohoiki Beach。这个系统由64块Loihi组合而成,已经可以在自动导航、陆续规划等需要高效执行的AI任务中带来高于GPU的功耗和处理能力。
除此之外,业界比较出名的类脑芯片还有高通的Zeroth,以及一些高校实验室和创业公司发明的芯片。吃瓜群众一致表示,这个场子现在就缺谷歌了。
事实上,某种程度上看2019年是类脑芯片爆发应用潜力的一年。无论是中国的天机,还是英特尔和IBM的类脑芯片,都已经在今天被证明了在低功耗和超高速反应上,具有值得期待的效果。这可能给AI领域的一些相关任务,比如非监督学习、快速定位、路径规划上带来帮助。
但是客观来说,类脑芯片并不是完全成熟的。虽然主流科技公司纷纷布局,中国浙大的“达尔文”芯片、清华的“天机”芯片都已经在路上。但类脑芯片距离真正确立产业价值,从实验室步入现实世界,还有很长的路要走。