突破数字界限:面向节能人工智能的模拟芯片
随着人工智能模型日益复杂且功耗不断攀升,对更高效硬件的需求变得至关重要。IBM研究院正视这一挑战,推出一款旨在模拟大脑效率的新型模拟AI芯片。这款芯片利用相变存储技术,在内存中直接执行计算,据称在某些AI任务上的效率比传统数字芯片高出14倍之多,有望为更可持续的人工智能发展铺平道路。

人工智能的飞速发展带来了代价:能源消耗的急剧增加。在基于数十年历史的冯·诺依曼架构的传统数字硬件上训练和运行大型AI模型,需要不断地在独立的处理单元和内存库之间传输数据。这种数据移动造成了严重的瓶颈,浪费了时间和宝贵的能源。IBM的新芯片通过采用模拟、内存内计算方法正面解决了这个问题。
与使用离散的0和1(数字)表示信息不同,模拟计算使用连续的物理量——在本例中为存储单元的电导——来表示数据,这很像大脑中神经元之间连接(突触)的不同强度。至关重要的是,计算直接在数据存储的位置进行,消除了能量密集型的数据传输。这款芯片采用了相变存储器(PCM)技术,这是一种特殊材料的微小单元可以通过电脉冲在晶态(低电阻)和非晶态(高电阻)之间切换的技术。通过精确控制这些电阻水平,每个PCM单元都可以充当人工突触,存储对于神经网络计算至关重要的模拟值(突触权重)。
这款特定的IBM芯片在64个模拟计算核心中集成了超过1300万个PCM突触单元。这种架构允许在芯片硬件上直接实现大型神经网络。IBM表示,该芯片可以加载预训练模型,使其能够执行推理任务(使用训练好的模型进行预测)。其模拟特性使其特别适合高效处理实时、连续的数据流。在使用标准的CIFAR-10图像识别基准测试中,该芯片取得了令人满意的92.81%的准确率,证明了其能力。
IBM研究人员进行了推理实验,将模拟芯片与类似的数字硬件进行了比较。结果表明,模拟芯片在性能可靠性方面与数字硬件相当,但运行速度更快,同时能耗显著降低。速度和效率的结合是许多AI应用,特别是那些部署在大型数据中心之外的应用的圣杯。
潜在的应用前景广阔。IBM设想这些模拟AI芯片可用于各种AI领域,包括模式识别、信号处理和机器学习任务,尤其是在功耗限制严格的场景中,例如边缘设备、物联网传感器、自动驾驶汽车,甚至可穿戴技术。在本地以最小功耗执行复杂AI任务的能力可能会开启全新的可能性。
虽然前景光明,但模拟AI计算也面临挑战。与数字比特相比,保持模拟值的高精度可能更棘手,并且系统可能更容易受到噪声和制造差异的影响。与成熟的数字生态系统相比,模拟系统的编程和扩展也提出了不同的障碍。然而,潜在的好处正在推动深入的研究:
- 大幅降低能耗:通过最大限度地减少数据移动,内存内计算为降低AI功耗提供了一条根本途径。
- 速度潜力:直接在内存中并行执行计算可以加速特定类型的AI工作负载。
- 更小的尺寸和成本?从长远来看,更简单的模拟架构可能会带来更小、可能更便宜的芯片,用于某些功能。
IBM的这项开发代表了在蓬勃发展的模拟和神经形态计算领域迈出的重要一步。随着传统数字扩展的局限性日益显现,以及对强大而高效的AI的需求不断增长,像这种基于PCM芯片的、受大脑启发的硬件可能对下一波人工智能创新至关重要,使AI更普及、更可持续。