随着人工智能时代的到来,人类对计算能力的要求越来越高。由于人工智能算法普遍涉及大量数据迁移,与现有存算分离的计算机架构并不匹配。目前算力的实现依赖于应用超级计算机。例如,下围棋的AlphaGo(图1)和许多高级人工智能任务都需要在大规模超级计算机或云服务器上执行。
图1 用于围棋对战的AlphaGo(图片来自于网络)。
算力成为了制约人工智能应用的一个瓶颈。特别是对于具有时效性的任务,例如高速运动目标的实时追踪与识别等,该局限性表现得尤为突出。另一个亟待解决的问题是人工智能硬件终端的能效。朝向智能社会的发展必然需要大量具备边缘计算能力的智能终端,能量的利用效率变得极为重要,绿色低能耗、高效应是其“标配”。
可移动性也是非常必要的。回想半个多世纪以来,大规模集成电路的发展使电子计算机从房间大小变成可以放进牛仔裤口袋的智能手机,我们是否也可以期待将来随身携带一个AlphaGo或与之相当的“智能大脑”呢?
解决上述关键问题必须突破现有的冯诺依曼的计算机架构,发展类脑计算和随机计算等新型计算方案。类脑计算的核心是将人脑神经网络的概念应用于计算机系统的设计,计算和存储单元合二为一,利用神经网络内在的高密集互联与自然的并行化计算实现智能计算,从而同时满足算力、能效和可移动性的需求。近年来科研人员提出了包括阻变、相变和铁电铁磁等新材料和新器件来发展类脑计算芯片的方案。其中自旋电子学器件(见图2)具有非易失性、高集成度、读写速度快、低功耗、耐用性强等优点,用于实现类脑芯片存在天然的优势。自旋类脑计算是一种重要的可行性方案。
图2 磁性隧道结构成的人工神经网络示意图(右上),由磁矩翻转引起的电阻值的变化可用来模拟类脑计算过程(右下)(图片来源:左图来自pixabay,右图为文章配图,由作者绘制)。
最近,北京师范大学研究团队在SCIENCE CHINA Physics, Mechanics & Astronomy发表观点文章,对自旋类脑器件的相关问题进行了简要介绍、分析和展望。北京师范大学博士研究生张亚君为文章第一作者,袁喆教授和夏钶教授共同担任通讯作者,该研究得到了国家自然科学基金重点项目的支持。
文章介绍了自旋类脑器件的研究现状,及多种自旋电子学器件实现人工神经元和突触的方案。作者指出,作为神经网络的基本单元,神经元和突触并不存在普适的性能标准。因此对类脑计算硬件性能的优化与提高,需要在神经网络的整体层面分析其实现的功能和运行性能。
同时,文章提到一类自旋电子学非线性器件,可将储层计算在时间维度编码,因此可使用单个器件实现循环神经网络(典型的循环神经网络如图3所示)。已有实验证明,这类器件可以显著提高语音识别的准确性[1],也可以直接用于图像识别[2],并有望很快实现应用。
(c)
图3 使用磁性隧道结作为神经元的循环神经网络,以及训练后按笔顺写汉字(图片来自Zheng et al. AIP Advances, 2020, 10, 025116)。
自旋电子学器件过去多用于存储器,但必须抑制其随机性。而在类脑计算中,随机性恰是实现一些智能任务和学习过程的基础,并已在玻尔兹曼机、贝叶斯网络和脉冲神经网络等领域成功应用。这种随机过程可以通过所谓的概率比特来编码信息,替代量子比特,实现量子算法以及量子神经网络。如此一来,便有望实现基于自旋电子学器件的量子计算,以及通过量子算法加速神经网络的训练,提高运行效率。
如何推动自旋类脑计算的研究?文章作者认为关键在于需求引导、从算法到硬件、协同创新。当前的类脑和随机计算的优势在于完成特定的功能任务,暂时没有能力也没有必要去挑战替代现有通用计算机。需求引导意味着应当专注于现有计算无法完成的重要任务,例如因数分解、无监督学习等。
充分利用计算机科学与神经科学的研究成果和技术积累,发展突破现有计算极限的算法,针对特定算法再去选择合适的自旋电子学器件来高效、低能耗地执行。硬件开发可能还需要根据磁性材料性质进一步调整优化算法,反复迭代。这种多学科协同创新的特点决定了必须打破不同学科之间的壁垒,促进计算机学、神经科学、物理学、材料科学和微电子学等领域的充分交流,实现类脑计算和随机计算硬件的创新。
参考文献
[1] Torrejon et al., Nature 547, 428 (2017).
[2] Jiang et al., Appl. Phys. Lett.115, 192403 (2019).