可以提高人工智能效率的模拟芯片。
运行人工智能(AI)语音识别模型的模拟计算机芯片的效率是传统芯片的14倍,这可能为AI研究中巨大且不断增长的能耗以及全球通用数字芯片的短缺提供解决方案。
这种新产品由IBM Research开发,概述这项工作的论文发表在《自然》杂志上。研究人员声称,模拟芯片可以减少人工智能发展的障碍。
GPU是一种图形处理器,最初设计用于运行视频游戏,传统上用于训练和运行AI模型。这种芯片供不应求,全世界都在抢购。研究还显示,AI的能源消耗正在快速增长,从2012年到2021年增长了100倍,其中大部分来自化石燃料。这些问题导致一些人认为AI模型的发展很快会陷入僵局。当前人工智能硬件的另一个问题是,它必须在内存和处理器之间来回传输数据。一种解决方案是集成模拟存储和计算(CIM)芯片,它直接在内存中执行计算。IBM现在已经大规模展示了这种芯片。
IBM的新设备包含3500万个所谓的相变存储单元,这是CIM的一种形式。它可以设置为两种状态之一,就像计算机芯片中的晶体管一样,也可以设置为两种状态之间的不同程度。
这个特征非常重要,因为这些变化的状态可以用来表示神经网络中人工神经元之间的突触权重——神经元之间的连接强度。神经网络是AI的一种,可以模拟人脑学习新信息或技能时神经元连接的变化,这些信息或技能通常以数字值的形式存储在计算机内存中。这使得新芯片能够存储和处理这些突触权重,而不必进行数百万次调用或将数据存储在远程存储芯片中。
美国英特尔公司相关负责人评价这款芯片“不是一款成熟的产品”,但实验表明,它可以在当今常用的AI神经网络上有效工作,并有潜力支持ChatGPT等热门应用。“就像GPU不能完成标准计算机的CPU所能执行的所有任务一样,模拟AI芯片或CIM芯片也有其局限性。但如果AI能够继续保持目前的发展趋势,定制芯片肯定会越来越普遍。”
虽然该芯片是专门定制的,但除了IBM语音识别任务之外,它可能还有其他用途。“如图所示,模拟AI或模拟CIM芯片具有更高的功率和硅效率,与CPU或GPU相比,这可能会降低成本。”该负责人表示。(文乐乐)
相关论文资料:https://doi.org/10.1038/s41586-023-06337-5.