获悉,随着人工智能(AI)的繁荣,作为AI基础设施核心组成部分的电力资源正在引起越来越多的关注。毫无疑问的是,AI是一个高耗能的领域,数据中心、超级算力中心都堪称“吞电巨兽”。有专家推算认为,到2027年,AI行业每年的电量消耗可能在85到134太瓦时之间,这几乎相当于荷兰一个国家的年度电力需求。国际能源署(IEA)此前的一份报告也指出,由于人工智能和加密货币的需求,数据中心的用电量将在不久的将来大幅增加。
不少行业大佬也都AI可能面临的能源危机发出警告。今年1月,OpenAI首席执行官萨姆·奥特曼承认,AI行业正面临能源危机。他警告称,未来AI需要能源突破,因为AI消耗的电力将远远超出人们的预期。特斯拉(TSLA.US)首席执行官马斯克在2月底出席一场会议时也表示,芯片短缺的情况可能已经过去,但AI和电动汽车正在以如此迅猛的速度扩张,明年全球将面临电力和变压器供应紧张的问题。英伟达(NVDA.US)首席执行官黄仁勋更是直言:“AI的尽头是光伏和储能!如果只考虑计算,我们需要烧掉14个地球的能源,超级AI将成为电力需求的无底洞。”
一个关键原因在于,AI需要大量的数据,而数据在存储芯片和处理器之间来回传输的这一过程需要消耗大量电力。因此,至少十年来,研究人员一直试图通过制造可以在存储数据的地方处理数据的芯片来节省电力。这个过程通常被称为“内存计算”。
内存计算目前仍面临着技术上的挑战,现在刚刚走出研究阶段。而随着AI的高耗能引发了人们对其经济可行性和环境影响的严重质疑,能够提高AI能源效率的技术可能会带来巨大回报。这使得内存计算成为越来越令人兴奋的话题。台积电(TSM.US)、英特尔(INTC.US)和三星电子等主要芯片制造商都在研究内存计算。OpenAI首席执行官奥特曼等个人、微软(MSFT.US)等公司以及不少政府附属实体都投资了从事这项技术的初创公司。
这项技术是否会成为AI未来的重要组成部分还无法确定。通常,内存计算芯片对温度变化等环境因素很敏感,而这可能会导致计算错误。初创公司们正在研究各种方法以改善这一点。然而,更换采用新技术的芯片往往都很昂贵,而且客户通常会犹豫不决,除非他们对重大改进有信心。初创公司也必须说服客户,新技术带来的好处是值得冒险的。
目前,内存计算初创公司还没有着手AI计算中最困难的部分,即训练新模型,这一过程主要由英伟达等公司设计的AI芯片来处理。内存计算初创公司似乎不打算直接与英伟达展开竞争,它们的目标是将业务建立在推理上,即利用现有模型接收提示并输出内容。推理不像训练那么复杂,但其规模也很庞大。这意味着专门为提高推理效率而设计的芯片可能会有一个前景良好的市场。
内存计算公司仍在摸索其产品的最佳用途。总部位于荷兰的内存计算初创公司Axelera正瞄准汽车和数据中心的计算机视觉应用。总部位于德克萨斯州奥斯汀的Mythic的支持者认为,内存计算在短期内是AI安全摄像头等应用的理想选择,但最终希望它们能用于训练AI模型。
行业智库Semiconductor Research Corp.的首席科学家Victor Zhirnov表示,AI能源使用的巨大规模让每个人都迫切需要研究如何提高这项技术的效率。他直言:“AI迫切需要节能的解决方案,否则它会很快自杀的。”