没有算力平台,数字经济将“不复存在”?中国本土的AI芯片到底行不行?

AI百科3个月前更新 快创云
71 0

  自今年起,ChatGPT和人工智能(AI)大模型的热潮引发了一系列连锁反应,使得大模型产品如雨后春笋般涌现。随之而来的是对AI算力的需求激增,算力供需矛盾凸显,市场上纷纷抢购美国芯片巨头NVIDIA的A100显卡,作为进入大模型领域的“入场券”。

  如今,大算力底座已成为AI大模型发展的“标配”。在2023年世界人工智能大会(WAIC)上,华为轮值董事长胡厚崑表示,随着大模型带来的生成式AI突破,AI正步入一个新时代。算力是AI产业创新的基础,大模型的持续创新驱动了算力需求的爆炸式增长。大模型训练的效率和创新速度,根本取决于算力的大小。中国的算力资源正变得日益稀缺。

  此次WAIC上,华为推出了首个昇腾万卡AI集群,目前已支持全国25个城市的人工智能计算中心建设。昇腾AI原生孵化和适配了30多个大模型,目前中国约一半的大模型创新由昇腾AI支持。

  与华为昇腾不同,国内通用GPU公司天数智芯研发的天垓100芯片已跑通多个大模型,包括智谱AI大模型ChatGLM、国外主流的LLaMA,以及北京智源研究院的Aquila等产品。百度昆仑芯公司则披露其产品矩阵已适配文心一言、ChatGLM、GPT等主流行业大模型。

  面对A800可能无法在中国销售的情况,天数智芯董事长兼CEO盖鲁江表示,其国产GPU已经在实际应用中。

  目前,中国本土的AI大模型算力布局主要分为三派:一是华为鲲鹏和昇腾AI生态的算力方案,不依赖GPU;二是混合型算力支持,大量采用A100芯片,并融合国产芯片及加速卡;三是租用性价比更高的服务器云算力以补充不足。

  中国工程院院士高文指出:“没有大算力做大模型就是天方夜谭。”据中国信通院数据,每1元的算力投入可带动3-4元的国家GDP经济产出。麦肯锡预测,生成式AI每年可为世界经济增加7.3万亿美元的价值。然而,巨大的算力成本是大模型企业首先要考虑的问题。

  WAIC上发布的报告显示,以GPT-3为例,其训练成本超过1200万美元。因此,华为提出了鲲鹏和昇腾AI算力方案,重点应用于政务、金融等领域,并在智算中心实现模型训练后,在华为云或其他混合云中实现模型推理。昇腾AI集群规模已扩展至16000卡。

  此外,阿里云、腾讯云、字节跳动等企业也囤积了大量A100、T40芯片组进行模型训练。阿里云拥有国内最强的智能算力储备,其智算集群可支持最大十万卡GPU规模。腾讯云的新一代HCC高性能计算集群实现了业界最高的3.2T超高互联带宽。火山引擎则拥有庞大的算力支持,高峰时GPU利用率达90%。

  然而,国内AI算力和国产GPU芯片仍面临制程工艺、产品规格、生态构建等挑战。多位业内人士透露,当下大部分模型训练领域仍会使用NVIDIA产品,但信创、政务等数据私有化程度高的领域会更多采用本土算力。

  尽管面临挑战,但国内算力产业正在快速发展。据毕马威和联想的报告数据,到2025年,数据中心、云计算、人工智能市场规模总计将突破2.5万亿元。算力已成为各国科技战略布局重点,中国算力规模增速明显领跑全球。

  最后需注意的是,本文提及的ETF产品存在风险,投资者在投资基金前请仔细阅读相关基金法律文件并谨慎决策。市场有风险,投资需谨慎。

© 版权声明

相关文章