AI训练一次,把我家这辈子的电都用完了

AI百科1个月前发布 快创云
30 0

  AI的发展:耗电量激增与能源挑战

  随着AI技术的快速发展,其能源消耗问题也日益凸显。据数据显示,谷歌数据中心去年一年就消耗了一个半西湖的水量,而AI在耗电方面的表现同样令人咋舌。在阿里刚结束的云栖大会上,中国工程院院士、阿里云创始人王坚形象地比喻,大模型相当于新时代的电机,而这个“电机”的耗电量也是相当惊人。

  为了应对AI的庞大电力需求,一些公司甚至开始考虑使用核动力。然而,AI与能源之间的话题在业内从未断过。Huggingface的科学家曾测试过各个大模型的耗电量和碳排放,结果令人咋舌。例如,其自家的BLOOM大模型在前期训练阶段就需消耗43.3万度电,相当于国内117个家庭一年的用电量。而GPT-3的耗电量更是惊人,前期训练就要用掉128.7万度电,是BLOOM的三倍。

  除了前期训练,AI在后期使用过程中的耗电量同样不容忽视。以ChatGPT为例,其月活用户早已破亿,每天推理的频次飙升,导致耗电量大幅增加。据测算,按日均最高访问量2.7亿次计算,一整个月下来光是推理消耗的电量就是1872万度。

  面对AI耗电量激增的现状,业内也在积极寻求解决方案。一方面,提高AI芯片性能成为关键。通过提升芯片性能,可以在保证AI效果的同时降低耗电量。另一方面,寻找更便宜的能源也是一条可行之路。例如,国内正在推进“东数西算”工程,在西部清洁能源丰富的地区建立数据中心以降低成本。此外,一些公司还开始关注核能赛道。OpenAI和微软等巨头先后投资了核聚变发电项目,以期在2030年前实现负碳目标。

  然而,这些解决方案目前仍处于实验室或初级阶段,AI耗电猛的现状在短时间内难以得到根本改变。尽管如此,AI的发展或许能为核能带来一记大助攻。如果这个世界是一局电子游戏的话,那么可控核聚变的科技树或许就紧挨着AI之后。

  总的来说,AI的发展带来了巨大的机遇和挑战。在享受其带来的便利和效率提升的同时,我们也需要关注其能源消耗问题并积极寻求解决方案以确保可持续发展。

© 版权声明

相关文章