2016年对于仿人脑计算来说意义重大。IBM的TrueNorth团队在《针对快速、高能效神经形态计算的卷积网络》(“Convolutional networks for fast, energy-efficient neuromorphic computing”)论文中证明了,仿人脑计算可以用前所未有的超低能耗执行神经网络推理。简单地说,TrueNorth芯片并没有采用冯诺依曼架构,而是模仿了人类大脑的神经元结构,它的计算效率和可扩展性都远胜今天的计算机。

加载了神经网络模型的TrueNorth芯片,可作为实时感知流推理引擎使用,而且能够在快速、准确分类的同时保持超低功耗。TrueNorth拥有100万个神经元,邮票大小,能力相当于一台集成了“神经突触”的超级计算机,然而功耗却只有70mW,用手机的电池就够跑它跑一个星期了。

最近,IBM刚刚联合劳伦斯·利物莫国家实验室、美国空军研究实验室、美国陆军研究实验室,共同在享有盛誉的2016 IEEE超级计算会议上发表了关于TrueNorth的第五篇论文。在论文中,IBM总结了12年半以来的成果。

201612220064TrueNorth

IBM的三个合作伙伴:美国陆军研究实验室,美国空军研究实验室,以及劳伦斯·利物莫国家实验室,分别在论文展示了不同的TrueNorth系统。

美国陆军研究实验室展示了数据传输方案模型,TrueNorth的低功耗特性使得在收集数据的同时能够进行计算。该模型使用了单芯片的NS1e主板和一台安卓平板,美国陆军研究实验室的科研人员允许访问者在平板上手写算数运算式,然后手写的算数式会被传送到NS1e上进行字符识别,而那些被识别的字符将会被传送回平板进行计算。

当然,实验的最终目的并不是要做一个手写计算器,而是想展示如何利用TrueNorth芯片的低功耗和实时模式识别特性,帮助在部署数据收集时,减少延迟、降低数据复杂性、减少传输宽带需求,同时解决分布式系统终端的数据存储需求。

美国空军研究实验室则展示了另一个应用模型:利用TrueNorth横向扩展系统来执行并行数据的文本提取和识别任务。在这个应用中,图像文本被分割成单独的字符,然后被传输到美国空军研究实验室的NS1e16 TrueNorth系统里进行并行字符识别。归类之后的结果将会被传送到基于推理的自然语言模型中来重建单词和句子。这个系统每秒中可以处理16000个字符。美国空军研究实验室计划将词句的推理算法也植入到TrueNorth中。

得益于TrueNorth芯片自然堆叠的特性,劳伦斯·利弗莫尔国家实验室用有16块芯片的NS16e扩展系统,通过大型的神经模型和更复杂的算法,来探索后冯·诺依曼时代的计算潜力。在超级计算的论文中,他们探索了单芯片在监控增材制造过程中的原位合成(一种最近发展起来制备复合材料的新方法)的应用。

劳伦斯利弗莫尔国家实验室训练了一个TrueNorth网络,能够追踪激光熔化机的焊点质量,而且可以识别7种等级。实时的焊点质量监控使得闭环工艺改进和立即排除缺陷部件成为可能。这只是劳伦斯·利弗莫尔国家实验室正在开发的,能够展现TrueNorth作为可扩展平台的低功耗和实时推理特性的几个应用之一。

目前,TrueNorth仍然只是一个概念验证的研究模型。IBM表示,未来将发布更多的API,让合作伙伴能够将实时传感器连接到TrueNorth。像三星的digital eye以及加州大学欧文分校的自动驾驶机器人的早期模型都已经在试验中。IBM的首席科学家Dharmendra Modha则表示:“我有信心,我们可以在未来的4年里达到商业化的规模。”

距离TrueNorth的发布已经两年了,相比发布时的轰动,它的前景在近两年里一直被质疑。借着AI大热的东风,TrueNort会迎来真正的爆发吗?


以下是TrueNorth的应用领域:

手势识别(gesture recognition )

情绪识别(emotion recognition )

光流(optic flow )

图像分类和对象追踪(image classification and object tracking)

实时的时空感官信息处理(real-time spatio-temporal sensory information processing )

机器学习(machine learning )

机器人(robotics )

实时语音识别(always-on speech recognition )

音频特征提取(audio feature extraction )

二进制映像分类(binary image classification )

概率推理(probabilistic inference )

低能耗的神经形态分类器(energy-efficient neuromorphic classifiers )

递归神经网络(recurrent neural networks )

生成模型(generative models )

视觉显著性网络(visual saliency networks )

文本图像识别(text image recognition )

移动超声波(mobile ultrasound )

快速的稀疏逼近(fast sparse approximation)

(原文发表于:https://www.ibm.com/blogs/research/2016/12/the-brains-architecture-efficiency-on-a-chip/,雷锋网周翔编译)

20160630000123