01
既专又精,ASIC优势凸显
随着AI大模型逐渐变小,进入各种终端设备,硬件如何跟上软件的发展成为了一个关键问题。NPU(神经网络处理器)在AI应用的快速发展中地位陡升,成为支撑AI运算的重要组件。NPU模仿人脑神经网络,专为机器学习算法设计,其专业化的出身使得在AI任务中能够提供比GPU更高的性能。
ASIC(Application Specific Integrated Circuit,独特应用芯片)技术正是为此而生。ASIC芯片是为特定用途定制的集成电路,其电路逻辑不可编程,只能运行一种算法,如矿机芯片。这种设计带来了高效率与性能优化,同时减少功耗。在AI应用领域,AI加速芯片分为GPU、FPGA、ASIC三种技术路线,其中ASIC的算力水平依次递增。
博通通过多次收购积累了ASIC芯片设计制造能力,成为AI芯片领域的重要服务商。
02
被“抬”到前台的设计厂商
尽管英伟达GPU风头正盛,但国内外许多AI科技企业仍在自研芯片。亚马逊AWS通过自研芯片降低了训练成本,其Trainium芯片相比同级其他芯片节省50%的训练成本,效能显著提升。博通等ASIC服务商因此受益,通过ASIC技术自研AI训练芯片成为最节省成本的方式。
谷歌的TPU(张量处理单元)是ASIC技术的典型代表,其设计由博通完成。博通通过收购LSI旗下的SerDes部门,掌握了提升信号传输效率的关键技术,为ASIC芯片设计提供了有力支持。谷歌的TPU性能优异,能够支持大规模集群运算,吸引了许多大客户。
在AI定制芯片方案成为未来必然选择的大背景下,博通的AI相关收入预计将从2024财年的38亿美元增加至75亿美元。国内芯片厂商如寒武纪、地平线等也在积极参与ASIC设计服务市场,面临着建立自己配套AI软件生态的挑战。
03
国内芯片厂商的突破口
在美国限芯阻击下,我国难以进口尖端芯片和生产工具。考虑到高端GPU的追赶难度,ASIC或许是国内AI企业的好机会。国内厂商如阿里、百度等均在自研AI训练芯片,并大量采购英伟达GPU以追赶OpenAI。随着大模型应用场景增多,将本增效将成为商业考量,整个AI芯片行业都将受益。
在国产替代的迫切需求下,国内厂商的深度神经网络加速ASIC芯片将迎来利好。华为等厂商已搭载寒武纪的NPU模块,但建立自己配套的AI软件生态仍是国内厂商必须面对的挑战。