未来30年,大数据和人工智能将成为各国科技竞争的重要焦点。同时,它也是数字经济的关键驱动产业。计算能力是人工智能发展的核心要素之一,而人工智能芯片是人工智能计算硬件的“大脑”。从最初使用图形处理器作为深度学习加速芯片,到为人工智能定制的专用芯片,人工智能芯片在短短几年内迅速发展成为一个新兴产业。
人工智能的研究成果和专利呈爆炸式增长,人工智能领域现已成为一片广阔的“森林”。从人工智能的发展历史来看,《人工智能芯片:前沿技术与创新未来》涉及到目前最流行的深度学习加速芯片以及基于神经形态学计算的类脑芯片的相关算法、架构、电路等。重点介绍了具有创新思维的人工智能芯片设计的各种计算范式。一本书带领读者到达人工智能的前沿领域。
人工智能的快速发展受到计算能力的限制,基于CMOS的硅芯片的制造工艺已经细化到3nm。人工智能计算能力的提高不仅会遇到瓶颈,而且由于人工智能计算的特点,一些计算功能使用较少,因此相当一部分已经由普通CPU实现的计算能力无法被人工智能使用。这是人工智能芯片的客观要求。例如,深度学习的主要要求是矩阵乘法(张量乘法),GPU的效率明显高于CPU。
如今,用于深度学习的主要芯片是图形处理器(GPU),它可以实现每秒超过100万亿次的浮点运算,是cray-3的6000多倍,但比人脑差得多。人类大脑中大约有1000亿个神经元,超过10万亿个突触参与了神经元的信号传递。大脑可以识别模式,记住事实,并以闪电般的速度并行处理其他任务,耗电不到20瓦。
随着“后摩尔时代”的到来,硅基芯片的计算速度正接近峰值。同时,还有一个问题,就是这种计算结构更适合结构化数据,而对于大数据等非结构化数据,提高芯片计算密度的方法是无效的。根据笔者给出的数据,在处理技术超过10nm之后,虽然芯片的运算速度仍在快速提高,但处理大数据的相对效率却越来越低。根据目前的技术水平,如果多个GPU并联使用,功率很容易超过1000瓦。2016年,alphago与九级围棋专家李世石对决时,运行AI程序的服务器功耗达到1兆瓦,是人脑的近5万倍。人们必须寻找其他芯片材料,采用适合大数据人工智能的计算架构、模型和算法。在这方面,中国科学家做出了重大贡献。1971年,蔡少堂教授根据电路理论发现并证明了一种新的基本电路元件忆阻器的存在。2008年,惠普公司的斯坦利•威廉(Stanley William)首先在实验室支持了第一个基于二氧化钛薄膜的原型产品。这种新设备可以显著降低计算功耗,是深度学习加速器和类脑芯片的潜在硬件解决方案。
虽然人工智能芯片的发展主流是基于深度学习算法,但目前主要的技术路线是将专用人工智能芯片和用于加速深度学习的多核CPU处理器集成到同一芯片中。在半导体芯片领域,FPGA和ASIC的发展是一个重要的方向。更先进的研究是“进化”芯片的设计,它基本上接近于通过芯片的“自学习”来提高芯片本身的性能。
人工智能芯片的最终目标是“自学习”,即芯片能够自主学习“如何学习”;另一个重要目标是实现智能机器(相当于人工智能芯片)之间的相互学习和协调,使智能机器获得更多的知识。这种“自学习”的表现很可能随着时间的推移呈指数增长,最终会导致智能机器的智能水平超过人类。这种芯片在设计过程中往往接近大脑的生物学特性,因此被称为类脑芯片或神经形态学芯片