人工智能芯片,太耗电了

AI百科5个月前更新 快创云
46 0

  生成式人工智能的崛起或将对全球电力消耗产生显著影响。根据TechInsights的最新研究报告,未来五年内,人工智能芯片将占全球用电量的1.5%。这一预测基于2025年至2029年全球电力消耗总量为153,000 TWh的基准测量,且该数据来源于美国能源信息署。

  TechInsights的估算显示,在这同一时间段内,人工智能加速器将消耗全球2318 TWh的电力。这一数字是基于每块GPU使用700W功率的假设,这相当于Nvidia旗舰Hopper GPU的功耗。尽管Nvidia即将推出的GPU名为Blackwell,其速度更快,但功耗也上升至1,200W。值得注意的是,TechInsights的假设仅涵盖了芯片消耗的电量,并未计入用于生成AI的存储、内存、网络和其他组件的电力消耗。

  TechInsights的分析师欧文·罗杰斯在研究报告中指出,考虑到对GPU容量的巨大需求以及高昂的投资回报,如此高的利用率是完全可行的。然而,这也引发了关于如何平衡技术进步与可持续发展的讨论。

  麦肯锡的人工智能调查显示,65%的受访者计划采用生成式人工智能。为了满足这一需求,云提供商和超大规模企业正在投资数十亿美元以扩大GPU容量。例如,微软依赖Nvidia GPU运行其AI基础设施,而Meta则计划建立一个相当于“近600,000个H100”GPU的计算环境。据TechInsights称,2023年Nvidia的GPU出货量约为376万块,较2022年的约260万块有所增长。

  与此同时,Gartner去年对电力消耗做出了更为激进的预测,称人工智能可能消耗全球3.5%的电力。尽管Gartner的方法尚不明确,但可能包括网络、存储和内存的电力消耗。

  随着人工智能竞赛的加剧,企业正竞相提供最快的基础设施以获取更好的结果。然而,这一趋势也扰乱了企业长期的可持续发展计划。微软、谷歌和亚马逊等科技巨头正斥资数十亿美元建设配备GPU和AI芯片的大型数据中心,以训练和服务更大的模型,这无疑增加了电力负担。

  罗杰斯在研究报告中提醒,虽然服务器的采购价格仅为2万美元,但企业还需考虑不断增长的电力成本以及电网面临的挑战。此外,数据中心的设计也必须满足人工智能的电力需求,这可能取决于电网容量和备用电源的可获得性。

  能源供应商也在为人工智能时代做准备,努力建立包括发电站、太阳能发电场和输电线路在内的电力基础设施。如果需求无法满足,能源供应商可能会通过市场化方式管理产能——即提高价格以减少消耗——而不是削减产能。这可能会给人工智能技术的用户带来成本影响。

  值得注意的是,美国政府已设定目标,到2035年实现100%清洁能源,这将有助于减轻电网负担并为更多AI数据中心提供支撑。此外,能源的有效利用也成为关注的焦点。与加密货币挖矿相比,人工智能被认为能更高效地利用能源。例如,Nvidia正在通过采用自己的芯片技术和将空气冷却改为液体冷却来降低GPU的功耗。

  在可持续计算环境方面,人们也在探索碳补偿、捕获和再利用废热以及再利用材料等方法。同时,HPC(高性能计算)提供商也在努力提高超级计算机的能源效率,以便更好地利用每一瓦电能进行人工智能处理。例如,HPE正在将Frontier和El Capitan中使用的节能技术应用于搭载Nvidia GPU的AI系统中。

  此外,消费设备制造商也在推广配备神经芯片的PC和移动设备以实现设备上的AI。这些神经芯片可以在本地运行AI模型从而减轻云端GPU的压力。例如苹果提供了其设备和云端AI战略的完整愿景允许设备在无法完成某项AI任务时将查询重新路由到苹果数据中心的云服务器。而微软则鼓励在Windows设备中使用AI芯片高通的AI Hub则允许用户了解AI模型在设备上的运行情况并决定是在设备上还是在云端运行推理。

  然而目前尚未出现能够切实将人工智能压力转移到云端GPU上的电脑杀手级应用尽管如此随着技术的不断进步我们有理由相信未来会有更多创新解决方案出现以应对这一挑战并推动可持续发展进程

© 版权声明

相关文章