AI推理计算的可能终局:存算一体芯片!

AI百科2个月前更新 快创云
40 0

  存内计算:革新AI推理,提升性能与能效

  在数据存储与处理之间频繁移动的低效性促使我们探索新的解决方案。存内计算(In-Memory Computing,简称IMC)应运而生,通过在内存单元附近或内部直接执行MAC(乘-累加)操作,展现出巨大潜力。普渡大学的研究表明,IMC架构的能耗仅为机器学习推理基线水平的0.12倍。比利时KU Leuven的MICAS中心同样支持IMC,强调其降低访问开销和实现大规模并行化的能力,有望显著提升能源效率和吞吐量。

  尽管早期探索将模拟IMC视为评估权重和运行推理的有效方法,但它面临昂贵的数模转换器和错误检查的挑战。数字存内计算(DIMC)作为一种替代方案,避开了这些挑战,提供了无噪声计算和更大的空间映射灵活性。尽管在面积效率上有所牺牲,但DIMC为应对未来的AI需求提供了更多灵活性和能力。

  SRAM作为IMC的首选解决方案,在鲁棒性和可靠性方面表现优异,得到了KU Leuven研究团队的支持。这一领域的快速发展不仅吸引了学术界的关注,也引发了全球企业的广泛投入。三星、SK海力士、台积电、美光、IBM和英特尔等传统芯片巨头都在积极研发和实践存算一体技术。

  自2021年以来,存内计算相关产品逐步走向市场。三星展示了基于HBM2-PIM技术的存内计算芯片,海力士推出了GDDR6-AiM样品,而台积电则展示了其在多种器件上实现存内计算的成果。这些进展标志着存内计算产业化的初步成功。

  在国内市场,新兴AI和存储企业也为存算一体技术注入了活力。知存科技推出了首款量产存内计算SOC芯片WTM2101,采用模拟存算计算范式,实现了高算力和低功耗。后摩智能紧随其后,推出了鸿途H30芯片,采用数字存算计算范式,进一步提升了算力和功耗表现。

  在科研领域,清华大学和北京大学的研究团队也取得了显著成果。清华大学集成电路学院教授吴华强团队研制出全球首颗全系统集成的忆阻器存内计算芯片,支持高效片上学习。北京大学的研究团队则提出了无ADC架构的SRAM存内计算加速引擎,并在ISSCC 2022上发表了相关论文。

  综上所述,存内计算作为革新AI推理的技术途径,正不断提升性能与能效。随着技术的不断成熟和产业的深入发展,存内计算有望在未来AI应用中发挥更加重要的作用。

© 版权声明

相关文章