第3节 类脑芯片:人工智能的终极解答
芯片是计算机的大脑。随着人工智能的研究从云端延伸向终端,模仿人脑的芯片技术横空出世。这种类脑芯片被业界视为走向“强人工智能”的重要途径。全球知名大学实验室以及科技巨头们纷纷拿出了类脑芯片产品。
从技术本身与应用前景的角度看,类脑芯片究竟给智能时代增添了一个怎样的注脚?
走出“功耗墙”之困
芯片的性能与功耗是一对相生相克的指标,性能好,功耗必然大。
为了实现极致的性能,芯片对能耗的需求不断水涨船高。以我们熟知的人工智能围棋选手AlphaGo为例,每局棋需要电费近3000美元。
早在2001年的国际固态电子电路会议上,专家们就指出:芯片功耗正在以指数级的速度增长。如果这一路径得不到改善,未来芯片功耗密度甚至可以比肩太阳表面。现在看来,专家们的言论可能过于危言耸听,但芯片功耗确实比20年前翻了许多倍。
我们当前所使用的计算机多采用“冯·诺依曼架构”, CPU负责运算工作,内存负责存储工作。每次计算机的运算都需要在CPU和内存两个部件之间反复调用数据。当CPU的算力越来越强,内存存储的空间越来越大,数据调用量也逐渐增大。
为了防止数据调用造成巨大的能源消耗,芯片制造厂商不得不设置一堵虚拟“功耗墙”,限制处理器的最大功耗,从而实现算力和调用之间的动态平衡。但随着前沿技术对算力需求的扩张,这种权宜之计已经难以维持。
目前,减少功耗有两条路可走:一条路是缩小晶体管尺寸,降低电路的负载电容,制造制程更小的芯片;另一条路是摆脱“冯·诺依曼架构”,寻找新的解决方案。前者已经被光刻机实现,但也呈现出边际效用递减的疲态。于是,科学家们开始将目光投向后者。
脑科学研究成果的出现,为芯片领域提供了新的思路。
作为人体的“控制芯片”,大脑每天所需要的功耗仅有20瓦左右,并且不会因为任务架构复杂而出现功耗激增的情况。与此同时,大脑是“存算一体”的芯片,不存在数据调用的问题,也就无须设置所谓的“功耗墙”。
结合人脑的特性,科学家们开发出了全新的类脑芯片体系。类脑芯片既适用于处理复杂环境下的任务,还能开发出自主学习机制,甚至有望模拟出大脑的创造行为,实现类脑智能。
人造神经元的魔力
想要模仿人脑,并不是一件容易的事。
大脑主要是由水和蛋白质构成的器官组织。根据热量换算,它每天仅需0.48度电就能完成图像识别、声音处理、记忆存储和躯体控制等各项复杂的任务。实现这些功能的核心,来源于人脑中的860亿个神经元。
大脑神经元在受到刺激后,细胞内外便会形成电位差。当该电信号传递到突触时,突触前神经元将释放神经递质(如多巴胺、肾上腺素),由突触后神经元接受神经递质产生兴奋(该过程单向传递),进而向下传递作用于人体反应器并发生反应。
不同于计算机简单的“0、1”代码传递,神经细胞间的信号形式比计算机复杂得多。不同的神经递质和不同的作用浓度都代表着完全不同的信息含义。这种多维度的信号传递方式大大减轻了计算压力,也提高了信息传递的准确性。
因此,所谓的类脑芯片就是参考人脑神经元结构和人脑感知方式与认知方式所诞生的产物。“神经形态芯片”是类脑芯片研究的主要方向,它侧重于参照人脑神经元模型及其组织结构来设计芯片。
2011年8月,IBM首先在类脑芯片领域取得了进展。在模拟人脑结构的基础上,IBM的类脑芯片虫脑(TrueNorth)包含256个处理器(神经元)、256个存储器(轴突)和6.4万个电路(突触结构)。随后的验证显示,将48枚虫脑芯片进行组建,它的“智力”水平可以与普通老鼠相媲美。
我们所熟知的芯片巨头高通,也在紧锣密鼓地进行类脑芯片的研发。2013年,高通曾公布一款名为零号(Zeroth)的芯片。它无须通过代码进行预编程,而是利用类似神经传导递质完成信息传递。不仅如此,高通还开发了一套算法工具,使搭载零号芯片的玩具车实现自动导航、障碍躲避等功能。
类脑芯片并不是国外的专属,国内许多科研机构和高校也开始了类脑芯片的研究。
如果你看过2020年出版的《解码智能时代:刷新未来认知》一书,一定记得人工智能章节中提到过清华大学“天机芯”骑自行车的案例。这一全球首款异构融合类脑芯片,可以让无人自行车自动平衡控制与躲避障碍。如今,一年多过去,我国的类脑芯片研究已经有了大幅进展。
2020年9月,浙江大学与之江实验室发布了全国首台基于自主知识产权的“达尔文二代”类脑芯片计算机,这是继2015年浙江大学发布“达尔文一代”芯片后的又一重大突破。“达尔文二代”芯片拥有576个处理内核,神经突触超过1000万个,功耗却仅有此前的一半左右。目前,该芯片已经可以完成手势、图像、语音和脑电波识别,准确率高达95%以上,基本上可以实现简单的人脑功能。
尽管以上几款类脑芯片还暂时无法与传统芯片比拼算力,但它们已经具备了人脑仿生的雏形。或许随着技术研发的不断深入,实现真正的“类脑”只是时间问题。
野望与失望
既然类脑芯片已经问世,那么它会成为人工智能的终极答案吗?
答案是不会,或者暂时不会。
如火如荼的类脑芯片产业收获的不只是鲜花与掌声,也有悲观和质疑。实际上,类脑芯片发展到今天为止,依旧存在很大的不确定性,尤其是在基础层面。以IBM开发的虫脑芯片为例,直到今天,它依旧无法处理有价值的工作指令,完全比不上传统的芯片架构。
从材料方面来看,用现有的电子元器件模仿人类神经元是一个非常不经济的行为。往往花费了极高的技术与工艺成本,却只能实现低等动物级别的神经元模拟。在当前的技术条件下,大多数由非晶材料制成的人造神经元,极易出现量子隧穿效应。传递信息的粒子究竟是走哪一条电路,科学家们不得而知。
因此,业内普遍认为,只有找到可以高效替代硅晶体管的材料,类脑芯片才有继续研究的价值。至于答案是什么,之前提到的碳基芯片可能是一个不错的选项。
脑科学的研究进展,同样限制着类脑芯片技术的发展。如前文所说,类脑芯片的架构是模拟人脑神经元架构设计的。但人脑由140亿个脑细胞组成,每个脑细胞可生长出2万个树枝状的树突用来计算信息,其每秒可完成信息传递和交换次数达1000亿次。这一过程是如何有序进行的,出错后又是如何纠正的,诸多细节层面的问题目前依旧不得而知。所以,基于脑科学“有限研究”之下的类脑芯片,注定是一个残缺的半成品。
除了以上问题之外,类脑芯片的配套也是一大棘手问题。一款芯片的顺利面市需要架构、算法和编程方案的帮助。如果没有这些辅助条件,那么这款芯片就永远只能停留在实验室中。当前的类脑芯片便处于这样的尴尬境遇,它就像一个工程项目,有方案、有规划、有资金,但建筑工人却不知道在哪里。
另一方面的问题源于类脑芯片概念过度火热。近几年来,我们看到越来越多的类脑芯片项目登上头版头条,除了少数几家具有实力的科研院所和企业之外,其他的多停留在概念炒作阶段。
我国芯片产业发展基础依旧薄弱,尤其是在基础研究和制造应用环节。正因如此,我们需要正视类脑芯片所带来的机遇和挑战,避免浮躁之风,拿出更多的时间和耐心走稳走强。