计算的体系处于碎片化引发架构变革。数据的扩张远大于处理器性能的扩张,依靠处理器性能在摩尔定律推动下的提升的单极世界已经崩溃,处理器性能提升的速度并不足以满足AI所需的应用程序的需求。大量数据消耗的数字运算能力比几年前所有数据中心加起来还要多。
我们在下一章将观察历史上两次重要的电子产业变革,试图证明无论是PC时代的“Wintel”还是智能手机时代的“ARMAndroid”,都还无法摆脱机器本身的桎梏。换句话说,截止于现阶段的一切技术和应用,基于冯诺伊曼架构的拓扑结构已经持续了很多年并没有本质上的变化。而人工智能带来的,是在摩尔定律放缓维度下引发芯片底层架构重构的变革。有可能引发的是一次超越以往任何时代的科技革命。
本章我们重点讨论两次芯片架构变化引发的产业变革和应用爆发。Intel与Windows结合构建PC生态,本质上诞生了软硬件结合的机器时代。而在其基础上的延升,2010后苹果带来的智能手机引发的ARM与Android生态,将机器与人的结合拓展到了移动端。我们回顾历史上的芯片架构历史,认为冯诺伊曼架构带来了计算体系的建立并通过Intel实现了最大化;ARM通过共享IP的商业模式带来了更开放的生态体系,实现了软硬件的结合延伸了人类的触角。
1.人工智能倒逼芯片底层的线.基于摩尔定律的机器时代的架构——从Wintel到AA7
研究人类的科技发展史,发现科技的进步速度呈现指数型加速态势。尤其在1950年以后进入芯片时代,摩尔定律推动下的每18个月“芯片晶体管同比例缩小一半”带来的性能提升以倍数计。每一次加速的过程推动,都引发了产业的深层次变革,带动从底层到系统的阶跃。我们本篇报告将着重从底层芯片角度出发,探讨人工智能芯片带来的深层次变革。
然而时至今日,人类精密制造领域(半导体制造是目前为止人类制造领域的最巅峰)遇到硅基极限的挑战,摩尔定律的放缓似乎预示着底层架构上的芯片性能的再提升已经出现瓶颈,而数据量的增长却呈现指数型的爆发,两者之间的不匹配势必会带来技术和产业上的变革升级。
计算芯片的架构50多年来都没有发生过本质上的变化,请注意计算架构的决定是资源的组织形式。而传统的冯诺伊曼是采取控制流架构,采用的是线性的记忆体和布尔函数作为基线计算操作。处理器的架构基于流水AG真人国际线串行处理的机制建立,存储器和处理器分离,流水线的计算过程可以分解为取指令,执行,取数据,数据存储,依次循环。依靠整个串行的过程,逻辑清晰,但性能的提升通过两种方式,一是摩尔定律下推动下晶体管数量的增多实现性能倍增;二是通过并行多个芯片核来实现。无论何种方式,本质上都是线性的性能扩张。
人工智能芯片根据数据流的碎片化和分布式而采取神经网络计算范式,特征在于分布式的表示和激活模式。变量由叠加在共享物理资源上的向量表示,并且通过神经元的激活来进行计算。以神经元架构实现深度学习人工智能的临界点实现主要原因在于:数据量的激增和计算机能力/成本。
深度学习以神经元为架构。从单一的神经元,再到简单的神经网络,到一个用于语音识别的深层神经网络。层次间的复杂度呈几何倍数的递增。数据量的激增要求的就是芯片计算能力的提升。