虽然机器学习的速度在过去十年中有所加快,但机器学习的底层硬件并没有太大变化,如计算机处理单元(CPU)和图形处理单元(GPU)。
机器学习的最前沿是一个叫做神经形态计算的领域,试图使计算机芯片更像人脑,因此计算机能够以闪电般的速度处理多个模式和学习任务。今年早些时候,麻省理工学院的研究人员推出了一种革命性的基于神经形态的芯片设计,可以代表人工智能技术的下一个飞跃。
这个被称为“芯片大脑”的硬件是模拟神经突触而设计的,而目前的芯片基于二进制和开/关信令进行计算。相反,基于神经形态的芯片以模拟方式工作,以不同的强度交换电脉冲,就像大脑中的神经元一样。根据麻省理工学院的研究人员的说法,这是一个突破,超过100万亿个突触参与了大脑中的神经元信号传导。
麻省理工学院的研究发表在1月份的《自然期刊》杂志上,展示了一种由硅锗为物质材料并基于神经形态设计的芯片。想象一下窗口屏幕,你可以近似看到这个芯片在微观层面的样子,而且研究人员能够精确控制电流强度。
麻省理工学院电子与微系统技术实验室研究实验室的教授兼首席研究员Jeehwan Kim指出,基于超级计算机的神经网络操作非常精确且非常有效,但它消耗大量电力并且大量占用空间。
但是,这样的芯片设计可以使处理器能够以极低的能量需求执行机器学习任务,它可以快速推进人形机器人和自动驾驶技术的发展。
另一个优点是节省成本并提高便携性。小型神经形态芯片功率更小,甚至可能缩小1000倍,同时有效地同时处理数百万次计算,目前只有大型超级计算机才能做到。Intersect360 Research的首席执行官Addison Snell表示,同时也是研究高性能计算的行业分析师,这正是人们所设想的芯片,随着时间的推移会让许多电子产品变得非常便携。”
目前机器学习芯片市场规模非常庞大。去年,根据Intersect360的研究报告,市场价值接近45亿美元,而基于神经形态的芯片只是其中一部分。据德勤称,今年可能会售出不到1万个神经形态芯片,而预计2018年将销售超过50万个GPU。
GPU最初是由英伟达Nvidia于20世纪90年代开发的。最终,研究人员发现GPU在通过模拟神经网络支持机器学习方面非常有效,模拟神经网络在超级计算机上运行,并帮助近期完成主要部分的培训和推理任务。例如,如果你想建立一个知道什么是什么以及什么不是老虎的图像识别系统,你首先要给机器提供数百万个被人类标记为老虎或非老虎的图像,用这些图像训练计算机。下次系统显示老虎的照片时,它将能够推断出图像确实是老虎。
近年来,小型初创公司和大公司都在修改其芯片架构,以满足新的人工智能工作负载的需求,包括自动驾驶和语音识别。两年前,根据德勤的说法,几乎所有涉及神经网络的机器学习任务都使用了大量的GPU和CPU。今年,新的芯片设计,如FPGA(现场可编程门阵列)和ASIC(专用集成电路),在处于数据中心的机器学习芯片中占据了更大的份额。
根据德勤今年发布的市场分析报告,这些新型芯片应该大大提高机器学习的使用率,使应用程序消耗更少的功率,同时变得更具响应性、灵活性和能力。
基于神经形态的芯片代表了下一个飞跃,尤其是基于缩小晶体管的前提下的芯片架构已经开始减速。尽管自20世纪80年代以来神经形态计算已经存在,但它仍然被认为是一个新兴领域,而在过去十年中它已经引起了研究人员和科技公司的更多关注。
IBM阿尔马登研究院脑启发计算首席科学家 Dharmendra S. Modha表示,神经形态芯片的强大功能和性能远远优于我们在任何平台上可以预期的任何解决方案。Modha在2004年启动了IBM自己的神经形态芯片设计项目,部分由国防高级研究计划局资助。IBM研究人员经过长达数年的努力研发出了TrueNorth芯片,尺寸相当于一张邮票,功率只有70毫瓦。
另外,Modha并不认为神经形态芯片将取代传统芯片,但相信前者将成为自动驾驶汽车和机器人技术的关键技术。自动驾驶汽车必须实时处理信息以防止发生事故,小型便携式神经形态芯片将起到很好的作用。实际上,研究人员正在采用深度神经网络技术并将其嵌入到单个芯片中。然而,目前的神经形态技术远非如此。